Éthique et intelligence artificielle
Saint-Denis de La Réunion, samedi 26 avril 2019
L'éthique du concepteur
Ce sujet de réflexion est né de la participation à la soirée d'inauguration du festival du film scientifique, qui se tient du 26 avril au 11 mai 2019. Le thème de la soirée d'inauguration de ce vendredi, ainsi que de ce samedi, traitait de l'intelligence artificielle. Une autre conférence aura lieu cet après-midi à l'université en faculté de lettres.
Y a-t-il besoin pour commencer de décrire ces deux (ou trois) notions : «Éthique de l'intelligence artificielle» ? L'éthique est cette matière pluri-millénaire qui tente de déterminer, de caractériser ce qui constitue le but de la vie humaine. Et dans ce cadre, évidemment, elle rentre en concurrence avec l'autre moteur principal qui tente de régler les vies humaines, à savoir les religions. Et d'une certaine manière, l'éthique et la religion ne sont qu'une et même chose, même si elles sont plurielles. Il existe de nombreuses religions comme il existe plusieurs visions de l'éthique (ou de la morale, pour moi comme pour beaucoup de philosophes, ces deux termes sont relativement synonymes, équi-remplaçables), comme il existe des éthiques profanes ou des philosophies athées.
L'intelligence artificielle de son côté est une matière extrêmement récente, qui a quelques décennies d'ancienneté. Nous nous trouvons ainsi à la croisée, à la rencontre des deux matières aussi différentes que l'époque qui les a vu naître. Mais l'intelligence artificielle est elle-même constituée de deux notions pas si simples à caractériser ; qu'est-ce que l'intelligence ? Et qu'est-ce que l'artificiel ?
Pour cette raison, certains, quand ils réfléchissent au concept de l'éthique et de l'intelligence artificielle, pensent en fait à l'éthique du concepteur de l'intelligence artificielle, à l'éthique du concepteur ou de l'apprenant de l'intelligence artificielle, à l'éthique de l'homme qui est derrière l'utilisation ou la conception de l'intelligence artificielle. C'est notamment ce qui revient souvent lorsque l'on parle de l'éthique et de l'intelligence artificielle. Lorsque l'on parle de robot tueur, on pense à l'éthique du militaire qui est derrière les ordres donnés au robot. Lorsque l'on parle de conduite autonome, lorsque l'on pense à prioriser les vies humaines dans le cas où il faudrait choisir une victime, dans le cas dans un accident (vaut-il mieux faucher une mère et son enfant en bas âge au bord de la route ou percuter une vieille dame ou un vieil homme, ou bien percuter un arbre et risquer de tuer son passager ?) c'est ce que l'on entend derrière le concept d'intelligence artificielle et de conduite autonome, et il s'agit d'une certaine manière d'éthique, mais de l'éthique entendue comme l'éthique de celui qui aura programmé le programme de conduite autonome de la voiture.
Dans ce cadre-là, on ne parle pas de l'éthique de la machine elle-même, on ne parle pas de l'existence de la conscience artificielle elle-même, on ne parle pas d'une éthique de cette conscience artificielle. On ne pense pas que cette machine autonome, cette intelligence artificielle, puisse avoir après coup, après l'accident, de remords ou des réflexions éthiques sur le choix qu'elle aura réalisé. Qu'est-il arrivé à la voiture autonome qui a percuté/fauché une femme à vélo qui traversait une route aux Etats-Unis ? La société qui effectuait ces essais, Uber, Google ou Tesla, ont-ils jetée cette voiture autonome à la décharge, l'étudient-ils, l'ont-ils simplement désactivée ou effacée ?
Mais je ne voudrais pas me limiter dans ces posts à parler de la seule éthique des concepteurs qui, soit, programment, conçoivent, réfléchissent, font apprendre à l'intelligence artificielle. Ces hommes sont forcément d'ailleurs imparfaitement moraux, éthiques ; ce ne sont que des hommes, rien que des hommes avec nos failles, nos faiblesses, nos haines, et nos envies. Non, je voudrais aussi parler du sujet de l'éthique de l'intelligence artificielle elle-même, de la manière dont elle peut apprendre, de la manière dont on peut la lui inculquer, la lui imposer !
Mais pour cela, encore faut-il croire qu'une intelligence artificielle puisse avoir une conscience, conscience d'elle même, réfléchir sur elle-même. Comme l'indiquait un des invités du festival du film scientifique, Antoine Cully, spécialiste de l'intelligence artificielle, «si on mettait dans une même pièce les plus grandes intelligences artificielles de la planète et qu'on les laissait une nuit complète seules, au petit matin, on ne les retrouverait pas ayant conçu un plan de domination de l'humanité mais on les trouverait plus vraisemblablement complètement désœuvrées, ou une à se rouler par terre. Au pire, on retrouverait le parquet de la pièce parfaitement propre». Selon lui, on est très loin de devoir craindre une intelligence artificielle ayant conscience d'elle-même et de ses actes. Contrairement à ce sur quoi nous mettaient en garde Elon Musk ou Stephen Hawking.
«Pour Wendel Wallach, un expert en éthique de l’université de Yale, ces dangers exigent une réponse mondiale. Il a également appelé à un décret présidentiel déclarant que les systèmes d’armes autonomes létales sont en violation du droit international humanitaire :
L'idée de base est qu'il y a nécessité d'une action concertée pour garder la technologie en bon serviteur et non de la laisser devenir un maître dangereux ...»
Quand on parle d'éthique de l'intelligence artificielle, on se retrouve ainsi à penser l'intelligence artificielle comme un outil, comme une aide à la prise de décision. S'est-on déjà interrogé si un missile ou un marteau avait une éthique ? Evidemment non ! La réflexion éthique conduite sur l'intelligence artificielle a alors trait à l'impact énergétique ou carbone des serveurs informatiques nécessaires pour faire tourner, entraîner ou stocker les données nécessaires pour le fonctionnement de l'intelligence artificielle. Elle a également trait à l'usage qui peut être fait des milliards de kilo-octets de données récoltées sur chacun d'entre nous, sur chacun des individus qui utilisent les téléphones, les réseaux sociaux, les outils informatiques de recherche, ou les objets connectés qui commencent à envahir nos vies ou nos villes.
Pour cette raison, j'appelle «éthique du concepteur» cette forme de réflexion éthique sur l'intelligence artificielle. Elle est forcément à l'image de l'homme/des hommes qui conçoit ou qui possède cette intelligence artificielle, cet outil informatique. Imparfaite, dépendante des coûts et des bénéfices à attendre de cette utilisation et de ces développements ! Comme l'indiquait Antoine Cully, intervenant lors du festival du film scientifique, cette éthique (si on peut lui donner ce nom-là) dépend de la demande ou des critères imposées par les consommateurs. On peut ainsi aussi parler de prescriptions éthiques des consommateurs, sur ce qu'ils accepteront ou non de voir, d'utiliser, sur ce dont ils accepteront de se satisfaire. Mais pour moi, cette éthique du concepteur n'est qu'une fraction de la réflexion éthique qui doit être menée sur l'intelligence artificielle. Car, ces véhicules autonomes qui ont tué des passants, que conservent-ils de cet accident ? Que conserveront-ils demain de tels accidents si ceux-ci venaient à se reproduire, lorsque la conduite autonome sera entrée dans nos vies, dans nos fonctionnements ?
Saucratès
Inscrivez-vous au blog
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 49 autres membres