L’homme, au contrôle de son univers*
Que n’a-t-on déjà écrit sur l’Intelligence Artificielle ? Nouveau Moloch qui dévorerait notre liberté de penser pour certains, panacée capable de pallier nos insuffisances humaines, l’IA nourrit spéculations et fantasmes. Et si, plus simplement, on se disait que l’IA sera ce que nous déciderons d’en faire ?
Le combat de l’homme et de la machine n’est pas nouveau. Souvenons-nous des luddites britanniques ou des canuts lyonnais s’attaquant aux premiers métiers à tisser. Mais avec l’arrivée de l’Intelligence Artificielle, il prend une autre tournure puisque celle-ci serait capable, tout bonnement, de remplacer l’homme.
L’IA est capable de répliquer certaines fonctions humaines, elle ne peut pas répliquer l’homme dans sa globalité. Elle est appliquée à une tâche spécifique alors que l’être humain est par nature « multitâche ».
L’IA que nous connaissons aujourd’hui est dite « faible » car elle se concentre sur des tâches bien délimitées. Mais elle travaille à des vitesses stupéfiantes pour analyser une quantité phénoménale de données. Elle est dotée de fonctions cognitives : observer son environnement, y distinguer des éléments singuliers, apprendre de ces observations, évoluer en fonction de cet apprentissage, donner du sens aux choses observées et, enfin, tirer des conséquences de cette analyse. Peut-elle aller jusqu’à nous remplacer ?
Cela n’est ni réaliste ni souhaitable pour plusieurs raisons.
D’abord parce que si l’IA est capable de répliquer certaines fonctions humaines, elle ne peut pas répliquer l’homme dans sa globalité. Elle s’applique à une tâche spécifique alors que l’être humain est par nature « multitâche » et elle n’éprouve aucun sentiment, n’a pas de libre arbitre ni la conscience du monde dans lequel elle évolue.
Ensuite, pour apprendre, cette IA « faible » a besoin de données, d’une quantité phénoménale de données. Elle dépend entièrement de ce avec quoi on la nourrit et donc, in fine, de qui la nourrit.
Se pose là la question cruciale de la véracité, de l’intégrité des données qui vont permettre son apprentissage. On a vu un système d’IA devenu raciste, biaisé parce-que les données qui l’avaient alimentées l’étaient. Et dans une expérience qui pourrait inspirer un La Fontaine moderne, on a vu la machine incapable de reconnaître un lion sorti de son contexte naturel : on s’aperçu que ce qu’elle reconnaissait sur toutes les images dont on l’avait nourri, c’était la savane et non point le lion. Le résultat de l’analyse par une intelligence artificielle n’est donc pas infaillible et il peut être biaisé, intentionnellement ou non.
Si les conséquences sont relativement bénignes dans les utilisations grand public de l’IA faible, elles s’avèreraient dramatiques dans des activités comme la défense, la sécurité ou le transport. Il serait irréaliste et inconséquent de confier à la seule IA la vie de millions de personnes et la sécurité de leurs biens.
L’IA doit rendre compte à l’homme des conséquences qu’elle tire de son analyse car c’est à l’homme, et à lui seul, que doit revenir la décision finale.
C’est pour toutes ces raisons que Thales plaide pour une IA explicable, certifiable et éthique. C’est dans ce sens que travaillent ses équipes. Un autre axe de ses recherches porte sur la relation entre l’homme et la machine, corollaire de cette exigence.
La technologie n’est ni bonne ni mauvaise en elle-même. C’est à l‘homme de réguler son usage : il est interdit d’embarquer dans un avion avec un couteau mais pas à un boucher d’en posséder plusieurs dans sa boutique ! L’IA doit rendre compte à l’homme des conséquences qu’elle tire de son analyse. D’où la nécessité d’un dialogue permanent, en temps réel. Car c’est à l’homme, et à lui seul, que doit revenir la décision finale.
*Il existe à Mexico une grande fresque du peintre Diego de Riviera intitulée L’homme contrôleur de l’Univers. Pour Thales, l’humain doit demeurer au cœur des processus de décisions.
Cet article fait partie d'une série de publications associées à la journée Thales Media Day à Montréal, le 24 janvier 2019, consacrée au monde autonome et à l'intelligence artificielle, en présence de Patrice Caine, PDG du groupe Thales et de Yoshua Bengio, professeur titulaire, Département de recherche opérationnelle en informatique, Chaire de recherche du Canada en algorithmes d'apprentissage statistique.