Aller au contenu principal

Construire des essaims dotés d'intelligence artificielle dignes de confiance

La dernière décennie a vu une augmentation du nombre de drones et de robots sur le champ de bataille. Ces systèmes ont le potentiel d'étendre considérablement les capacités des forces armées. Déployés en essaims, ils peuvent produire des effets beaucoup plus importants, tels que la saturation des défenses ennemies, tout en réduisant au minimum le nombre d'opérateurs nécessaires. Cependant, cela peut également créer de nouveaux dilemmes technologiques. Quelles briques technologiques permettront une orchestration efficace et efficience de ces systèmes en essaims par un nombre limité d'opérateurs ? Si l'intelligence artificielle (IA) est la réponse à une plus grande autonomie des drones et des robots, comment pouvons-nous renforcer la confiance entre l'IA et les forces armées ?

C’est un des retours d’expérience majeur des conflits modernes: les drones et les robots deviennent une composante essentielle du combat collaboratif. En maintenant les opérateurs/soldats en dehors des zones dangereuses tout en leur permettant d'observer, d'orienter, de décider et d'agir (la boucle OODA) à des distances plus éloignées et à des vitesses plus élevées, les drones ouvrent clairement de nouvelles perspectives en termes de Concepts d'Opérations (CONOPS).

Cependant, pour que les drones deviennent un véritable catalyseur, les forces armées doivent être en mesure de les déployer en essaims afin d'obtenir un effet multiplicateur permettant d'accélérer de manière drastique la boucle OODA, de saturer de manière décisive l'ennemi et d'entreprendre de nouvelles actions disruptives dans le domaine électromagnétique. Cela doit cependant être fait sans augmenter le nombre ni la charge cognitive des opérateurs. En effet, la plupart des opérations de drones sur le champ de bataille moderne nécessitent aujourd’hui un opérateur supplémentaire pour chaque appareil utilisé simultanément, sans augmenter non plus les besoins en termes de spectre radio.

Accorder aux drones autant d'autonomie que possible est la clé pour atteindre de tels objectifs. Cependant, cela doit se faire en veillant à ce que l'opérateur conserve à tout moment un contrôle effectif sur la mission

 

L'intelligence artificielle, pilier indispensable des essaims autonomes

Le déploiement de drones en essaims a des implications technologiques importantes. Cela nécessite une digitalisation accrue de chaque élément constitutif des chaînes de missions (capteurs, communications, etc.), une augmentation des capacités de traitement des données, ainsi que la distribution de ces capacités à travers tous les éléments de l'essaim, à la fois à bord des drones et dans le centre de commandement. Cela permet ensuite de recourir massivement à des fonctionnalités autonomes alimentées par l'intelligence artificielle.

L'intelligence artificielle joue un rôle central pour permettre ces capacités. Au niveau du système de commandement et de contrôle (C2), elle améliore considérablement la connaissance de la situation sur des théâtres d’opérations de plus en plus connectés, facilitant ainsi la prise de décision ainsi que la planification stratégique et opérationnelle. De telles avancées sont essentielles pour garantir la résilience d'un essaim et sa capacité à se reconfigurer rapidement en fonction des changements de l'environnement tactique et/ou opérationnel.

Ces capacités permettent non seulement de réduire considérablement la charge cognitive des opérateurs, leur donnant l’opportunité de se concentrer sur des tâches à plus forte valeur ajoutée, mais elles garantissent également que les forces armées puissent imposer leur rythme opérationnel à leur adversaire.

Thales a pris plusieurs initiatives pour intégrer avec succès l'intelligence artificielle dans les systèmes de commande et de contrôle. (C2)

COHORT, par exemple, est un cadre construit autour de briques critiques conçus pour augmenter l'orchestration efficace de plusieurs systèmes autonomes - drones et robots - par un seul opérateur. L'intelligence artificielle est au cœur de ces composants.

De plus, en 2023, Thales a remporté le challenge CoHoma I (Coopération Homme-Machine) organisé par les l’armée de Terre. Le système a permis à un seul opérateur de déployer un essaim de systèmes autonomes qui a réussi à neutraliser 80% des menaces proposées par l'exercice.

Mais ce n'est que le début ! Thales s'engage à continuer d'accroître l'efficacité et l'efficience de ses systèmes et à le démontrer une fois par an - la prochaine démonstration, COHESION, aura lieu à la fin de l'année 2024. La société participera également au challenge CoHoma III, prévu en 2025.

 

La confiance, qualité fondamentale de l'IA

Dans un environnement militaire, l'utilisation de l'IA pour accorder une autonomie aux drones, est uniquement possible si les forces armées peuvent avoir confiance dans les briques d'IA sur lesquelles elle repose.

À mesure que ces systèmes sont déployés pour effectuer un nombre croissant de missions, y compris des missions létales, il est devenu essentiel que l'IA sur laquelle ils comptent soit développée dans un cadre établissant des règles de déploiement claires et des limites. Cela assure en retour, , des garanties et renforce la confiance.

Pour Thales, le parcours vers une IA de confiance commence par la capacité à rassembler une expertise et des connaissances approfondies sur l'utilisation de l'IA dans plusieurs secteurs de la défense et de la sécurité.

En mars 2024, par exemple, Thales a lancé un accélérateur d'IA dédié au développement d'une IA de confiance et employant plus de 600 experts. De plus, l'IA Factory se concentre sur la mise en œuvre de l'IA dans les systèmes de défense de Thales, notamment dans le domaine du combat collaboratif, par exemple, Thales Open DroBotics.

Thales a également soutenu le développement du cluster SequoIA, un projet en Bretagne dédié à la recherche et à la formation sur l'IA dans le domaine de la défense.

Enfin, l'entreprise est activement impliquée dans plusieurs initiatives visant à élaborer des cadres pour la mise en œuvre d'une IA de confiance. Au Royaume-Uni, par exemple, elle travaille avec le Trustworthy Autonomous System (TAS) Hub, tandis qu'au Canada, elle a contribué au lancement du consortium de recherche industrielle Confiance IA. Thales travaille également avec l'OTAN sur la certification des applications d'IA.

Lire la tribune d'Hervé Dammann sur Linkedin