Menu
Search
Vendredi 26 Avril 2024
S'abonner
close
Vendredi 26 Avril 2024
Menu
Search
Accueil next Économie

«La loi doit encadrer la création des robots afin qu’on ne puisse concevoir que des intelligences artificielles éthiques»

«La loi doit encadrer la création des robots afin qu’on ne puisse concevoir que des intelligences artificielles éthiques»

Le Matin : Qu’est-ce qu’une intelligence artificielle éthique ?
Mohammed Abattouy
: Devant la présence croissante de l’intelligence artificielle (IA) dans la vie quotidienne, il va falloir mettre en place des règles éthiques pour encadrer les actions des entités robotiques. D’où l’importance de l’éthique de l'intelligence artificielle, qui est un domaine de l'éthique de la technologie propre aux robots et autres entités artificiellement intelligents. Pour ne citer qu’un exemple des défis posés par l’IA, je me réfère à une expérience de pensée : un véhicule autonome avec une personne à bord voit des piétons surgir devant lui ; le seul moyen de les éviter consiste, pour la voiture, à sortir de sa voie et de sacrifier la vie de son passager. 
Face à ce dilemme, quel choix l’IA aux commandes du véhicule doit-elle effectuer ? Même si pour le moment cette expérience de pensée ne relève pas encore de la réalité, on sait que l’on autorise déjà un peu partout dans le monde certains constructeurs à tester leurs véhicules autonomes sur les routes. Le sujet est plus vaste encore : des assistants virtuels dans les smartphones aux robots humanoïdes, l’IA s’insère toujours plus dans notre quotidien. Face à cette réalité, il devient urgent de mettre en place des règles éthiques encadrantes. L’éthique de l’intelligence artificielle, une préoccupation balbutiante encore, est composée de la roboéthique, qui se préoccupe de l'éthique humaine pour guider la conception, la construction et l'utilisation des êtres artificiellement intelligents, et de l’éthique des machines, préoccupée par le comportement moral des agents artificiels. Le terme «roboéthique» fait référence à la moralité dont les humains conçoivent, construisent, utilisent et traitent les robots. Il considère à la fois comment des êtres artificiellement intelligents peuvent être utilisés pour nuire à l'Homme et comment elles peuvent être utilisées à son profit. En revanche, l'éthique des machines (ou morale de la machine) se consacre à la conception d'agents moraux artificiels (AMA), de robots ou d'ordinateurs artificiellement intelligents qui se comportent moralement.
Isaac Asimov a examiné cette question depuis les années 1950. Il a ainsi proposé les trois lois de la robotique dans le but de gouverner des systèmes artificiellement intelligents et a testé les limites de ces lois. Il a fini par suggérer qu'aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles. Actuellement, les chercheurs font valoir que, dans le contexte de l’explosion de l’IA au XXIe siècle, une IA auto-améliorée pourrait devenir tellement plus puissante que les humains ne pourraient pas l'empêcher d'atteindre ses objectifs. Un philosophe d'Oxford, Nick Bostrom, à la pensée duquel font écho des scientifiques de renom comme Stephen Hawking, soutient même que l'intelligence artificielle a la capacité de provoquer l'extinction humaine. Il prétend que la super-intelligence serait capable d'initiative indépendante et de faire ses propres plans. Puisque les intellects artificiels n'ont pas besoin de partager nos tendances de motivation humaines, ça serait aux concepteurs de celle-ci de spécifier ses motivations originales. Mettant en œuvre une conception de l'IA qui évite plusieurs types de comportement non intentionnel de celle-ci, et au lieu de conduire la race humaine à son extinction, d’autres chercheurs croient qu'une super-intelligence peut nous aider à résoudre de nombreux problèmes difficiles tels que la maladie, la pauvreté et la dégradation 
de l'environnement.

Est-ce que l'on devrait au futur parler de personnalité juridique et de responsabilité civile des robots ?
Cela pose la question des droits des robots, qui fait partie des préoccupations de la «roboéthique», qui est l'éthique appliquée à la robotique. Les droits des robots sont les obligations morales de la société vis-à-vis de ces machines, similairement aux droits de l'Homme et aux droits des animaux. Il peut s'agir du droit à la vie et à la liberté, à la liberté de pensée et d'expression et à l'égalité devant la loi. La question a été examinée par des centres de recherche comme l'Institute for the Future, le Centre for the Study of Existential Risk, le Future of Humanity Institute, le Future of Life Institute, etc. Les experts ne sont pas tous d'accord pour dire si des lois spécifiques et détaillées seront requises dans un avenir proche. Ils s’accordent, cependant, à prédire que dans les prochaines décennies un grand nombre de robots humanoïdes feront partie de la vie de tous les jours. Dans ce contexte, la question se pose si on se dirige vers un droit des robots.
Si des réflexions en cours se cantonnent aux questions éthiques et ne s’aventurent pas sur le domaine juridique, d’autres ont en revanche franchi le pas. Des juristes spécialisés dans les technologies avancées considèrent que le droit doit s’adapter à l’importance croissante que prend l’IA dans nos vies. La liberté des hommes est encadrée par la personnalité juridique, celle des autres entités titulaires de droits et d’obligations par la personne morale. De la même manière, puisque les robots sont des machines intelligentes, capables de prendre des décisions de manière autonome, il faudra prochainement créer la notion de «personne robot.» Avec tout ce que cela implique : identification du robot, pour que l’on sache à qui l’on s’adresse, responsabilité, gouvernance équivalente à celle des personnes morales, un capital, une assurance et une traçabilité sous forme d’enregistrement de ses faits et gestes pour pouvoir prouver son éventuelle responsabilité.
En l’absence d’une telle évolution, nous nous retrouverons rapidement face à des apories judiciaires. 
Lorsqu’une voiture autonome en mode pilote automatique génère un accident, qui est responsable ? A priori, personne. Le conducteur ne conduisait pas, ceux qui ont codé le logiciel diront que ce dernier a agi seul, par apprentissage automatique, etc. La notion de personne robot permet en revanche d’introduire une chaîne de responsabilité. En cas de défaillance, le robot serait responsable, et après lui, l’utilisateur, le concepteur, le fabricant et le propriétaire. La loi doit également encadrer la création des robots, afin que l’on ne puisse concevoir que des intelligences artificielles éthiques. Il faut s’assurer que certaines règles concernant la prise de décision sont implémentées lors du processus de création d’un robot, afin que celui-ci soit bienveillant. Cela implique que des robots pouvant nuire aux humains ne puissent pas être créés, comme le stipule l’une des lois d’Asimov.

Qui a la responsabilité d'une régulation ou d'un contrôle éthique de l'IA ?
Ce sont les humains bien évidemment qui doivent avoir cette responsabilité. Les robots n'ont pas d'éthique, l'éthique, c'est nous qui l'inventons. Il y a donc urgence à se former aux enjeux posés par les algorithmes afin de les réguler. C'est le constat qui ressort du débat autour de l’interaction du droit et de l’IA. Cela pose des enjeux juridiques et déontologiques, et qui font partie des enjeux numériques de demain dans leurs aspects politique, social et légal. Un volet important ressort et il est relatif à la formation afin de pouvoir «s'approprier l'IA», permettre aux travailleurs de la comprendre, de la domestiquer et de l'utiliser. En outre, il faut concevoir ces machines comme étant des aides pour les humains, mais qu'il faut utiliser avec attention. On doit se rendre compte des incidences éthiques graves de l’interaction homme-machine et du risque de manipulation. Dans ce cadre, l'éducation est un levier essentiel, car la vraie question est celle des usages de la machine, ce qu'on décide d'en faire, afin que dans le futur proche on puisse vivre dans une société avec l'Homme aux commandes et pas les machines. L'autre question est celle de l'impact énorme de l'IA sur le monde du travail. On prédit déjà une disparition de 10% des emplois actuels. La formation est donc vitale et urgente pour s'adapter à l'IA.

Faut-il craindre l'intelligence artificielle sans éthique ?
Avec la métamorphose numérique croissante de la vie humaine, l'éthique de l’IA est devenue une question cruciale. Par exemple, les réflexions relatives à la protection de la vie privée doivent être repensées face à la généralisation de la collecte, de l'exploitation de masses de données individuelles s'appuyant sur des techniques issues de l'IA. Dans le même ordre d'idée se pose un ensemble de questions liées à la conservation de ces données et au droit à l'oubli. 
Face aux progrès des capacités d'autonomie, de décision et d'action des agents logiciels ou robotiques, les questions liées à la responsabilité des sujets humains (informaticiens, développeurs, vendeurs, etc.) et des dispositifs informatiques sont reformulées en des termes nouveaux et délicats. L'autonomie est devenue une caractéristique essentielle de nombreuses applications d'IA qui participent à la numérisation de notre société (commerce électronique, jeux interactifs, intelligence ambiante, assistance aux personnes, robotique sociale ou collective, robotique civile, etc.). Dans un tel contexte, la question d'une régulation ou d'un contrôle éthique des agents logiciels ou robotiques ainsi que des systèmes constitués d’humains et d’agents autonomes se pose avec de plus en plus de force. Donc, pour répondre à la question de savoir s’il faudrait craindre l’intelligence artificielle dénuée d’éthique, la réponde est oui, bien sûr. Des machines intelligentes et sophistiquées laissées à elles-mêmes pourraient être dangereuses. Cependant, étant donné les précautions que les organismes de régulation et les chercheurs mettent en place, ce danger recule pour le moment. Il reste quand même que la crainte de l’AI dépend de la façon dont les choses vont évoluer. Dans le cas où le développement de l’IA ne serait pas strictement encadré, il est possible que nous nous retrouvions dans un futur pas très lointain devant des difficultés, comme l’utilisation de l’AI pour porter atteinte à la vie privée ou pour menacer la vie humaine.
Des avertissements existent. On a soutenu depuis une génération que la technologie de l'IA ne devrait pas être utilisée pour remplacer des personnes dans des positions qui exigent le respect et les soins, tels que le représentant du service à la clientèle, le thérapeute, l’assistance aux personnes âgées, le soldat, le juge et le policier. Nous avons besoin d'authentiques sentiments et d'empathie de la part des personnes occupant ces postes. Si les machines les remplacent, nous nous retrouverons aliénés, dévalués et frustrés. L'intelligence artificielle, si elle est utilisée de cette façon, représente une menace pour la dignité humaine. Pour contrer les effets néfastes de l’usage inconsidéré de l’IA, une solution est possible : les travaux de recherche doivent être transparents et reposer sur l’open source ouvert à tous. Puisque l'IA aura un effet profond sur l'humanité, ses développeurs sont des représentants de l'humanité future et ont donc l'obligation éthique d'être transparents dans leurs travaux et 
ne pas être sous le joug d’agendas cachés favorisant les intérêts de groupes privés ou publics, comme les militaires. D’autre part, de brillantes initiatives ont vu le jour en créant des plateformes open source pour le développement de l'IA. 

Lisez nos e-Papers