Cyber attaques grâce à l’IA : comment s’assurer de la fiabilité des produits ?
Au Centre d'Evaluation pour la Sécurité des Technologies de l'information (CESTI) de Toulouse, les équipes de Thales testent la résistance des produits à tout type d’attaques informatiques. Y compris celles menées à l’aide de l’intelligence artificielle dont l’expansion accentue la cyber menace.
L’intelligence artificielle (IA) est une révolution technologique qui bouleverse de nombreux domaines, y compris la cybersécurité. Des États, des groupes terroristes ou des organisations mafieuses l’utilisent déjà pour mener leurs attaques.
Un cyber attaquant doté de connaissances en intelligence artificielle peut accroître ses compétences, en résolvant automatiquement des problèmes complexes qui demandaient jusqu’alors une expertise pluridisciplinaire, précise Gabriel Zaid, évaluateur sécurité, Solutions de CyberDéfense chez Thales.
C’est aussi un moyen redoutable pour limiter l’efficacité de certaines défenses des produits et systèmes. Au final, c’est le coût global de ces attaques qui est réduit. Et donc, mécaniquement, elles se multiplient.
Les systèmes embarqués (téléphones, cartes bleues, passeports biométriques…) sont des cibles pour les cyberattaquants. À l’aide de l’IA, ils tentent de forcer l’accès aux données sensibles stockées ou échangées par ces systèmes, telles que des informations bancaires ou des empreintes digitales.
Le meilleur moyen de faire face à la menace, c’est de l’anticiper. À Toulouse, le CESTI utilise l’IA pour simuler des attaques en condition réelle afin d’évaluer la sécurité des produits physiques de ses clients.
Le CESTI, une équipe de hackers éthiques
Organismes d’Importance Vitale (OIV), entreprises privées, entités gouvernementales… Les clients du CESTI ne peuvent pas transiger avec la sécurité des données de leurs produits. Ils ont besoin de valider leurs choix et développements technologiques avant leur mise sur le marché.
En mode « hackers éthiques », les ingénieurs du CESTI passent au crible les composants de ces produits. Ils se placent dans la peau des cyber attaquants afin de mieux appréhender les menaces et identifier des failles de sécurité dans les différents types de systèmes.
Ces experts en IA soumettent les produits aux attaques connues utilisant cette technologie. Et ils en créent eux-mêmes de nouvelles ! Tout est bon pour tester les mécanismes de protection cryptographiques.
Les produits qui résistent avec succès à ce traitement de choc peuvent alors bénéficier de certifications de sécurité de très haut niveau. Elles sont fournies par des organismes de référence publics, comme l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI), ou bien privés.
La technologie évolue très vite. La cybermenace aussi : « demain l’IA sera imbriquée dans des systèmes physiques, des robots par exemple, ceux que nous aurons chez nous pour nous aider dans notre quotidien, les robots d’assemblage dans les usines, ou dans les applications militaires », explique Gabriel Zaid qui ajoute : « pour nous au CESTI, la prochaine étape consiste à imaginer de futures attaques qui viseront directement l’IA de ces systèmes afin d’en évaluer la robustesse. »
L’enjeu est de taille ! En perturbant les prises de décision des machines de demain, les cyber attaquants pourraient faire de gros dégâts, notamment dans un contexte militaire. Plus que jamais face à la menace, l’expertise des ingénieurs du CESTI sera un atout déterminant.