C’est à l’occasion de la Nuit du Droit (dont la première édition a été initiée par Laurent Fabius, en 2017), que se déroulait le 4 octobre dernier, le premier Grand Procès de l’Intelligence Artificielle. Ce dernier pose la question de la morale et de l’éthique de l’IA. Aujourd’hui. Car dans 20 ans il sera trop tard. A bon entendeur…
Nous sommes le 4 octobre 2041 (NDLR, 2014). Huit mois plus tôt, le 4 février, un immense carambolage entre voitures autonomes occasionne la mort de 50 personnes et en blesse des centaines. Sur le banc des prévenus : Eurêka le fabricant des véhicules incriminés et M. Vigi, l’utilisateur qui, voyant un véhicule foncer sur lui, a actionné le bouton d’urgence.
Homicides et blessures involontaires
Tous deux sont jugés pour » homicides et blessures involontaires « . M. Vigi encourt jusqu’à cinq ans d’emprisonnement, la société Euréka risque elle, une amende de deux millions de bitcoins et la dissolution, c’est à dire la peine de mort, de son IA. Pendant une heure et demi, magistrats, avocats, témoins, professeurs d’université, spécialistes de l’IA défilent à la barre, devant le public.
L’IA n’est donc pas infaillible
Extraits: » Dépourvu de pédales et de volant, ce véhicule intelligent laisse ses occupants à la merci des algorithmes. Le bouton stop ne permet pas le transfert mécanique de l’IA à l’usager « , plaide Maître Haas qui représente les victimes.
« Dans 99% des cas, l’IA fait le choix le plus judicieux. Mais elle est conçue par des humains. Elle n’est donc pas infaillible « , décrète Jean-Claude Heudin, chercheur en IA, appelé à la barre en tant que témoin.
» Les humains se retrouvent face à une technologie qu’ils ne comprennent pas, ils sont donc impuissants » soutient Benjamin Bayart de la Quadrature du net, association de défense des droits et libertés des citoyens sur Internet. Le président Valéry Turcey l’interroge alors: » une IA peut-elle être intelligente ? «
» Non « , » Oui « . Un ange passe… « M. Vigi a reçu une formation. Il se doit d’être vigilant pour faire face à l’imprévu. Ce qu’il a fait en appuyant sur le bouton rouge ». Le représentant du ministère public requiert une amende de 2 millions de bitcoins à l’encontre de la société Eurêka et la dissolution (peine de mort) de son IA.
Ni morale, ni conscience, par conséquent ni malveillance
La défenderesse d’Eureka replace alors le débat sur le thème de l’éthique. » Eurêka est une machine. Elle ne connaît ni la douleur ni le chagrin. Elle ne ressent pas de compassion, ne présentera pas ses excuses aux victimes « . Ni morale, ni conscience, par conséquent pas de malveillance. Le deuxième avocat d’Eurêka, lui, vante les mérites de l’IA. » Confort sécurité des passagers, désengorgement du trafic, baisse des accidents, réduction de la pollution, fin des incivilités, frais d’assurance réduits à zéro « .
Voilà dans les grandes lignes, ce qui s’est dit ce 4 octobre 2014(41)…
Reste alors à trancher » Qui doit payer ? » Une demi-heure plus tard, le jugement de la cour tombe : » L’intelligence artificielle d’Eurêka est condamnée à une mesure de rééducation algorithmique avec mise à l’épreuve en simulateur comprenant une autorisation de recertification du permis. L’indemnisation des victimes doit être mise à la charge de l’IA exclusivement, qui évite cependant la « mise à mort « . M. Vigi, lui, est relaxé … mais se sent coupable… 50 personnes sont mortes, 200 sont blessées… Coupable…