IA & éthique

« Roboticiens, informaticiens, juristes et philosophes doivent allier leurs forces pour faire face à la complexité des enjeux. »



De nombreux travaux sur l’intelligence artificielle éthique (IA) voient le jour aujourd’hui au sein d’institutions nationales et internationales. En effet, la part croissante de l’IA dans notre quotidien, à travers les objets connectés notamment, soulève de nombreux enjeux en matière de protection des droits humains. Jean-Gabriel Ganascia, chercheur en intelligence artificielle au LIP6 et ancien président du Comité d’Éthique du CNRS (COMETS), partage pour Homiwoo son approche philosophique des enjeux de l’IA éthique.


L’idée qu’une machine puisse devenir autonome a toujours inspiré la science et les arts. Pour Jean-Gabriel Ganascia, un malentendu subsiste toutefois depuis les origines de l’IA : « Le but de cette discipline n’est pas, comme certains le craignent, de créer une machine intelligente et autonome qui constituerait un double de l’homme mais bien d’étudier l’intelligence humaine, en en simulant les différentes fonctions cognitives – perception, raisonnement, mémoire, apprentissage… – sur des machines ».


Cette technologie a connu un succès fulgurant : du téléphone à la voiture, c’est tout un « Internet des objets » qui s’est développé grâce à l’IA pour nous assister dans nos tâches quotidiennes. Les systèmes basés sur l’IA ont une capacité de traitement des données décuplée par rapport à l’intelligence humaine : ils peuvent établir une conclusion ou une recommandation en quelques secondes à partir de millions de paramètres.


Régulation de l’IA éthique : mission impossible ?


Si l’IA est à l’origine de nombreux progrès, la construction de ses algorithmes nécessite un certain cadre. Reconduction, voire accroissement des inégalités existantes, failles de sécurité… Face à ces enjeux cruciaux, de nombreuses institutions travaillent à établir un cap commun en matière d’éthique de l’IA. Un but « d’autant plus difficile à atteindre que l’éthique se fonde sur des normes morales généralement mises en relation avec les usages et traditions d’une société donnée. Or, étant donné le caractère relativement récent du numérique, nous n’avons pas de traditions en la matière », souligne Jean-Gabriel Ganascia.


L’Union Européenne a par exemple publié en avril 2021 un projet de règlement visant à harmoniser les règles concernant l’intelligence artificielle. Dans ses travaux préliminaires, elle avait envisagé d’appliquer au domaine du numérique les principes d’autonomie, de non-malfaisance et de justice, fondateurs de la déontologie médicale. « Ces valeurs sont difficiles à poser en principes absolus dans le cadre du numérique, modère Jean-Gabriel Ganascia. Prenez l’exemple d’un pilote d’avion qui serait pris d’un malaise en plein vol : en l’absence de capacité humaine – s’il n’y a pas de copilote par exemple – la machine doit prendre le contrôle pour assurer la sécurité des passagers ». L’exemple est parlant : l’autonomie humaine ne peut prédominer dans toute situation ; il s’avère en effet hasardeux de faire reposer toute l’éthique de l’IA sur des principes souverains tant chaque situation requiert une appréciation spécifique.


IA éthique : les bonnes pratiques


Alors quelles bonnes pratiques pour une IA respectueuse des droits humains ? Jean-Gabriel Ganascia préconise avant tout une approche contextuelle et une présence humaine systématique. Même s’il précise que « toutes les recommandations, aussi nombreuses soient-elles, ne permettent pas de prévenir des applications problématiques d’un point de vue éthique », il formule également certains conseils :

  • Introduire des prescriptions morales dans la programmation des systèmes d’IA ;

  • Soumettre les algorithmes entraînés à une évaluation statistique afin de vérifier l’absence de dérive ;

  • Améliorer la capacité de jugement des machines afin que celles-ci soient capables d’apprécier toute situation et puisse s’en remettre à un humain en cas de risque ou d’incertitude ;

  • Mettre en place un « superviseur » en mesure d’interdire automatiquement une action proposée lorsque celle-ci va à l’encontre de règles admises, dans une situation donnée ;

  • Favoriser, dans la mesure du possible, la transparence de la machine en accompagnant ses décisions d’une description fidèle et accessible à l’homme des enchaînements de raisonnements qui y ont mené.

Enfin, le chercheur encourage la formation de groupes de réflexion multidisciplinaires autour de l’éthique de l’IA : « roboticiens, informaticiens, juristes et philosophes doivent absolument allier leurs forces pour faire face à la complexité des enjeux ». La route vers une IA éthique se construit à mesure que les usages de la machine se développent. Un pas après l’autre.