Accident mortel d’Uber : Si une intelligence artificielle tue, qui est responsable ?

 

Le jour où une intelligence artificielle a tué est arrivé. Un événement qui soulève l’énorme problématique de l’encadrement juridique des actes des IA. Peuvent-elles être considérées comme responsable d’un crime ? Un expert apporte des réponses. L’événement tragique et sur-médiatisé de l’accident mortel d’une voiture autonome d’Uber survenu en avril soulève une question d’une grande ampleur : qui est le responsable ?

Difficile d’y répondre clairement à l’heure actuelle, étant donné qu’aucune réglementation n’encadre ce genre de situation. John Kingston, docteur à l’Université de Brighton au Royaume-Uni, tente d’y répondre. Son analyse soulève des questions importantes auxquelles les mondes de l’automobile, de l’informatique et du droit devraient s’atteler à trouver des réponses rapidement.

La question principale de ce débat est de savoir si un système d’IA pourrait être tenu criminellement responsable de ses actes. À cette question, Kingston indique que Gabriel Hallevy de l’Ono Academic College en Israël a étudié la question en profondeur. Actuellement, la responsabilité pénale de ce type de condamnation exige une action délibérée et une intention mentale de la part de la personne. Pour l’IA, il y aurait alors trois scénarios possibles.

Une IA peut-elle être responsable ?

La premier, connu sous le nom « d’auteur par l’intermédiaire d’autrui », s’applique lorsqu’une infraction a été commise par une personne mentalement déficiente, qui est donc considéré comme innocente. Mais quiconque a donné des instructions à la personne en question peut être tenue comme responsable. Par exemple, un propriétaire de chien qui a demandé à l’animal d’attaquer un autre individu. Ce cas de figure pourrait être utilisé par correspondance pour les IA : « Une intelligence artificielle pourrait être considérée comme innocente, le développeur ou l’utilisateur du logiciel étant considéré comme l’auteur de l’infraction », dit Kingston.

Le second scénario est la « conséquence naturelle probable ». Il décrit le cas où une IA a recours à des actions inappropriées conduisant accidentellement à la mort d’un être humain. Kingston donne l’exemple d’un robot qui a tué un ouvrier dans une usine de fabrication de motocyclettes au Japon : « Le robot a identifié à tort l’employé comme une menace à sa mission et a calculé que la façon la plus efficace d’éliminer cette menace était de le pousser dans une machine adjacente », dit Kingston. « À l’aide de son bras hydraulique très puissant, le robot a écrasé l’ouvrier dans la machine, le tuant instantanément, puis il a repris ses fonctions. »

Le troisième scénario est celui de la responsabilité directe, ce qui nécessite à la fois une action et une intention. Une action est simple à prouver si le système d’IA fait un geste qui aboutit à un acte criminel. Pour ce qui est de l’intention, elle est beaucoup plus difficile à déterminer, mais toujours pertinente. « L’excès de vitesse est un délit de responsabilité stricte », dit l’homme. « Si l’on découvre qu’une voiture autonome enfreint la limite de vitesse sur la route qu’elle emprunte, la loi pourrait bien attribuer la responsabilité pénale au développeur de l’IA qui conduisait la voiture à ce moment-là. Dans ce cas, le propriétaire peut ne pas être tenu responsable. »

Une IA peut-elle se défendre (ou être défendue) ?

Ensuite, il y a la question de la défense. Si une Intelligence Artificielle peut être pénalement responsable, quelle défense pourrait-elle utiliser ? Kingston soulève un certain nombre de possibilités : un programme qui fonctionne mal pourrait-il invoquer une défense semblable à la folie ? Une IA infectée par un virus pourrait-elle ne pas être reconnue comme responsable de ses actes ?

C’est envisageable. Kingston souligne un certain nombre de cas au Royaume-Uni où des personnes accusées d’infractions informatiques ont réussi à faire valoir que leurs machines avaient été infectées par des logiciels malveillants qui étaient les vrais responsables du crime. Il y a même le cas d’un adolescent accusé d’attaque informatique qui a prétendu qu’un cheval de Troie ayant pris le contrôle de son ordinateur était responsable de l’acte, puis il s’est effacé de l’ordinateur avant qu’il n’ait fait l’objet d’une analyse médico-légale. « L’avocat de l’accusé a réussi à convaincre le jury qu’un tel scénario n’était pas improbable », dit Kingston.

Et quelles sanctions ?

Enfin, il y a la question de la sanction. Qui (ou quoi) serait puni pour une infraction dont une IA est tenue pour responsable ? Et quelle forme prendrait cette punition ? Pour l’instant, il n’y a pas de réponses à ces questions.

Mais la responsabilité pénale peut ne pas s’appliquer, auquel cas la question devrait être réglée par le droit civil. Une question cruciale sera alors de savoir si un système d’IA est un service ou un produit. S’il s’agit d’un produit, la législation sur la conception du produit s’appliquerait en fonction d’une garantie, par exemple. S’il s’agit d’un service, le délit de négligence s’applique. Dans ce cas, le plaignant doit démontrer cette négligence.

Dans tous les cas, le système juridique n’a pas fini de devoir suivre l’évolution constante des capacités des IA, qui atteindront – et dépasseront – celles de l’homme.

 

yogaesoteric
23 septembre 2018

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More