Intelligence artificielle : quand Elon Musk s’alarme de ses propres créations

 

« L’Intelligence artificielle constitue un risque majeur pour la civilisation » a déclaré Elon Musk, PDG notamment de Neuralink, start-up dont l’objectif est d’ajouter au cerveau humain une part d’intelligence artificielle. Marc Rameaux analyse la dérégulation transhumaniste qui guette les gens.

Marc Rameaux est Directeur de projet dans une grande entreprise industrielle. Il est l’auteur de Portrait de l’homme moderne. Vous pouvez également retrouver ses chroniques sur son blog : Le troisième homme.

« L’Intelligence artificielle constitue un risque majeur pour la civilisation ». Ainsi s’exprimait Elon Musk le mois de juillet 2017, lors du séminaire d’été de l’US National Governors Association à Rhode Island. Le patron de Tesla en appelle à la mise en place urgente d’une régulation sur les technologies d’IA, craignant qu’elles ne dépassent l’homme dans tous les domaines et déstabilisent gravement la société.

L’avertissement de Musk peut faire sourire à deux titres. En premier lieu, ne fait-il pas partie des NATU, acronyme complémentaire des GAFA, qui agrège Netflix, Airbnb, Tesla et Uber ? Or, les NATU sont une surenchère dans la voracité des champions technologiques, faisant passer les GAFA pour des enfants de chœur.

Les GAFA ont été capables de piétiner la propriété intellectuelle par des projets de numérisation massive, de violer la confidentialité des données personnelles des gens et de les commercialiser auprès de tiers inconnus, enfin de s’affranchir de toute loi fiscale ou régulatrice. Les NATU franchissent un cran supplémentaire dans la dérégulation dévastatrice, par une précarisation croissante de leurs salariés, des pratiques commerciales relevant du dumping ou de la spéculation immobilière, des clauses d’utilisation de leurs produits ne protégeant plus leurs clients ou pouvant être modifiées sans leur avis.

La puissance et l’extra-territorialité des transactions du Web rendent leur contrôle quasi impossible. L’on peut donc s’amuser de voir l’un des piliers des NATU en appeler à davantage de régulation.

L’autre point d’ironie est que les déclarations fracassantes de Musk – il n’en est pas à sa première concernant l’IA – semblent plus relever de la publicité en faveur de ses marques que de la préoccupation humaniste. La prise de contrôle de nos sociétés par les machines reste une préoccupation mineure comparée aux l’inégalité des revenus ou de la montée des fondamentalismes.

Faut-il donc répondre à cet appel par un haussement d’épaules ? Non, car au-delà de l’aspect effrayant et caricatural des NATU, comprendre la Valley et les leçons que nous devrions en tirer, c’est aussi comprendre un entrepreneur tel que Musk. S’il faut s’inquiéter d’une course à l’innovation qui prépare le terrain de la course à la dérégulation, l’argument du grand méchant loup à l’encontre des NATU et GAFA relève de l’infantilisme.

La Valley regorge de ces personnalités paradoxales, que certains dénoncent comme de jeunes vampires prêts à tout pour être reconnus et que d’autres encensent comme des visionnaires animés de réels buts philanthropiques. Ce que l’on ne voit pas est que ces deux facettes sont également vraies, et qu’une personnalité comme Musk en est l’une des meilleures incarnations.

Si les visions d’Elon Musk ont souvent paru souligner les extravagances de la Valley, elles se sont avérées profondes avec le temps et le patron de Tesla mérite en cela le respect. Ce qu’il souligne concernant l’IA ne fait pas exception : il détecte un danger d’autant plus critique qu’il est peu apparent. La menace de l’IA ne se trouve pas là où vous le pensez.

La peur d’une machine qui gagne son autonomie est plus ancienne que l’IA

Les dangers de l’IA ont été perçus bien à l’avance par l’imagination humaine, y compris avant même que l’IA n’existe concrètement. De HAL, l’ordinateur fou de 2001 l’odyssée de l’espace, à Ultron en passant par Terminator, l’idée d’une intelligence capable de comprendre, décider et agir au moins aussi bien qu’un être humain, pour s’émanciper de celui-ci jusqu’à décider de l’éliminer, a alimenté les meilleurs auteurs d’œuvres fantastiques.

C’est un auteur français qui a perçu le plus en avance ces questions. En plein XIXème siècle, Villiers de L’Isle-Adam écrivait « L’Ève future », imaginant une Andréide créée par Edison, pour se substituer à la femme aimée d’un jeune lord Anglais. L’auteur français anticipe ces sordides poupées d’amour que la technologie met à présent sur le marché dans des versions de plus en plus perfectionnées et pousse le génie jusqu’à mettre en scène un véritable test de Turing que son andréide réussit, des décennies avant que le logicien anglais n’en définisse le protocole.

Le thème du cyborg tueur ou trompeur apparut presque aussi rapidement que la fabrication des premiers automates. Parfois le rapport est inversé, l’être artificiel renvoyant à l’inhumanité et l’indifférence postmoderne, tels les répliquants de Blade Runner ou le petit garçon robot aimant désespérément sa maman de chair et de sang dans l’AI de Spielberg : dans ce cas, les êtres fabriqués se révèlent plus empathiques qu’une humanité dévastée par la poursuite de ses buts égoïstes.

Une intelligence artificielle est finalisée dans un certain but, dont elle optimisera l’atteinte avec une efficacité supérieure à la nôtre. Si la machine est dotée d’autonomie, elle peut arriver à la conclusion que le peu de fiabilité des humains est un obstacle au but pour lequel elle est programmée. L’humain devra alors être éliminé comme une scorie gênante, au mieux toléré en exigeant de lui une adaptabilité croissante aux besoins du processus. Le concepteur humain prévoit bien sûr un bouton de mise à l’arrêt. Mais le problème advient lorsque les machines pensantes acquièrent une autonomie telle que l’idée leur vient de supprimer le bouton…

La notion de robot tueur ne relève pas de la prospective lointaine, elle est déjà une réalité. Les interventions militaires de drones, ont déjà fait des centaines de victimes civiles. En avril 2015, deux otages d’Al-Qaïda membres d’une ONG furent tués par un drone à la frontière pakistano-afghane, obligeant Barack Obama à une reconnaissance publique de l’erreur et à une indemnisation des familles des victimes.

Dans le développement des voitures autonomes, des questions éthiques se posent si dans une situation très critique, la voiture robot n’a plus le choix qu’entre de mauvaises solutions mettant la vie humaine en danger. Il devra alors prendre la décision de savoir qui sera sacrifié, de la vieille dame qui traverse, de l’enfant se trouvant de l’autre côté du passage piéton, de l’homme qui conduit la voiture adjacente, ou de son propre passager humain.

La nécessité d’une régulation du comportement des robots apparut presque aussi vite que son invention : les trois lois d’Asimov sont devenues une réalité plus que tangible avec les 23 principes d’Asilomar édictés en janvier 2017, soutenus par plus de 2000 signataires parmi les meilleurs scientifiques et industriels du domaine, dont Elon Musk et Stephen Hawking. Ces règles sont destinées à doter la recherche en IA d’un surmoi, un rappel des buts humains pour lesquels elle a été conçue initialement.

L’étrange résonance entre IA en réseau et dérégulation économique

Pourquoi Elon Musk perpétue-t-il donc cette inquiétude, quant à une technologie qui semble être en bonne voie de régulation ? Parce qu’il a très bien perçu qu’au-delà des intentions, nous pourrions perdre le contrôle des machines pensantes de la même façon et pour les mêmes raisons qu’on perd le contrôle des régulations économiques. On va le voir, l’IA est en quelque sorte une extension surpuissante prolongeant le libéralisme économique, pouvant en amplifier les effets non contrôlés dans des proportions inconcevables.

Pour comprendre ce nouveau danger, on doit introduire une brève distinction technique. L’IA emploie des méthodes assez variées, pouvant se ramener cependant à deux grandes catégories : les approches « cognitivistes » et « connexionnistes ».

Les premières correspondent à la tentative naturelle de fabriquer une intelligence : elles modélisent le raisonnement, posent un univers de règles et d’inférences, déduisent et concluent avant d’agir. Elles « comprennent » les problèmes qu’elles abordent, dans la mesure où elles apprennent à les interpréter. Ces approches sont sans danger, car elles restent entièrement traçables : on peut à tout moment détecter et comprendre pourquoi la machine a pris telle ou telle décision. Ces approches ont connu un certain succès au début de l’IA, mais se sont révélées insuffisantes face à certains problèmes complexes, notamment ceux visant à reconnaître des formes, à synthétiser des informations continues, à mimer au plus près le comportement humain.

L’approche connexionniste emploie une tout autre notion, celle d’intelligence collective. Elle met en œuvre un très grand nombre de petites unités simples, souvent inspirées du vivant telles que les neurones, pourvues d’une faible intelligence individuelle, mais de capacités phénoménales lorsqu’elles agissent en réseau. L’unité élémentaire est une cellule répondant à des stimuli d’entrée par quelques réponses simples, qu’elle propage aux cellules environnantes. Le réseau connexionniste n’a aucune « compréhension » de la situation à laquelle il est confronté: il se contente de répondre à des stimuli par d’autres stimuli.

Des lois très simples régissent les connexions entre les cellules : lorsque deux d’entre elles sont excitées conjointement, leur liaison se renforce, dans le cas contraire, leur liaison s’affaiblit. Ce réseau de liaisons sait très mal répondre à ce qu’on lui demande d’apprendre au tout début. Mais rapidement, en lui montrant un très grand nombre d’exemples de réponses qu’il doit associer aux données qu’il reçoit, il se renforce constamment en pertinence et en précision, jusqu’à obtenir une efficacité sans égale.

L’approche connexionniste est l’intelligence de la fourmilière : chaque unité est rudimentaire, mais collectivement, elle atteint une capacité très supérieure à la somme des capacités individuelles de ses membres. Les sciences cognitives expliquent encore mal comment un réseau de cellules simples obéissant à quelques lois de renforcement de leurs liaisons peut arriver à s’adapter et à résoudre les problèmes les plus complexes. Elles parlent de « qualités émergentes », « d’auto organisation », mais plus pour en constater l’efficacité que la prouver.

Caractéristique gênante, les approches connexionnistes sont quasiment intraçables, contrairement aux approches cognitivistes. Il n’est plus possible d’expliquer simplement pourquoi le réseau a pris telle ou telle décision, le résultat étant noyé dans un jeu d’innombrables pondérations croisées dont on ne peut retrouver le fil. Une approche purement connexionniste est pour cette raison non admissible dans une voiture autonome. Des tentatives ont été faites de reconstituer le « raisonnement » du réseau, mais elles sont encore peu convaincantes.

Cet élément technique acquis, nous pouvons comprendre que le danger ne viendra pas d’un cyborg tueur, mais de millions de petites cellules intelligentes, agissant en réseau, s’auto-renforçant et évoluant en permanence jusqu’à la mutation.

La puissance de l’intelligence répartie est d’autant plus redoutable qu’elle est disséminée. Et la dissémination suprême consiste évidemment à être répartie partout sur le Web. Une interview de Musk et de Sam Altman, responsable de l’un des principaux incubateurs de la Valley, est plus qu’explicite : la question n’est pas celle du robot, qui n’est qu’un ensemble de capteurs et d’actionneurs, mais des algorithmes se trouvant sur le Web, selon les propres termes de Musk.

L’IA redoutable est immatérielle : pas de manchette d’acier ou de rayon fatal comme le veulent les séries B de science-fiction, mais des millions de petits logiciels répartis, peu intelligents en eux-mêmes mais agissant en réseau de façon coordonnée, parvenant à une maîtrise collective stupéfiante mais non traçable et sans qu’une entité en particulier ne soit responsable.

Quels pourraient être ces dangers d’une telle IA répartie ? On sait déjà que des algorithmes complexes flairent nos moindres goûts et centres d’intérêt pour présenter des propositions alléchantes à chaque détour d’un site de commerce en ligne. L’anticipation des désirs des gens par recoupement d’informations atteint parfois une précision si confondante qu’elle est inquiétante.

Étendons cette compréhension fine à d’autres domaines. La tarification de tous les services auxquels on souscrit peut-être rendue totalement variable, ajustable en temps réel. Irréaliste ? C’est pourtant le cas de nos billets de train, dont le prix varie très fortement en fonction du moment. La tarification variable possède une justification très rationnelle, celle d’optimiser les pics de charge d’utilisation du service, en incitant à se présenter aux heures creuses. Ceci conduisit Uber à demander des tarifs exorbitants lors des attentats de Londres, simplement parce que l’algorithme calculait que les taxis devenaient une denrée rare et que l’on pouvait profiter de ce nouvel ajustement de l’offre et de la demande… Les algorithmes n’avaient aucune éthique vis-à-vis de la détresse dans laquelle se trouvaient les passants, l’optimisation du mieux-disant étant leur seule logique.

Si les services deviennent ainsi ajustables, changeant leurs tarifs sans prévenir et sans aucune notion d’engagement, pourquoi ne pas étendre de tels principes au droit du travail ? Des algorithmes répartis mondialement compareraient en permanence les salaires, taux de disponibilité et productivité de chacun, et ajusteraient un contrat de travail instantané en permanence. La flexibilité parfaite, justifiée par le fait qu’ainsi chacun serait payé exactement à sa juste valeur, instantanément remplaçable si l’opportunité le permet. Nul souci dans cette belle optimisation, de la précarité qui interdirait tout projet personnel ni du long terme nécessaire au développement d’un être humain.

L’on ne pourrait confier ainsi son avenir à un tel système de calcul ? On vient pourtant de vivre une affectation des bacheliers dans les universités selon un algorithme de tirage aléatoire, soumettant les destins personnels de milliers d’étudiants au résultat arbitraire d’un algorithme. Celui-ci ne comportait pas d’IA, mais précisément imaginons son usage dans des cas touchant aux études ou son emploi : la décision est indétectable, non reconstituable, et sans responsable identifié car disséminée dans les interactions de milliers de modules coopératifs. Restera l’argument massue de considérer qu’il ne peut s’agir que de la décision la plus optimisée, donc ne souffrant aucune discussion.

Le droit du travail étant attaqué, pourquoi ne pas élargir le champ au droit tout court ? Impossible ? Le cabinet d’avocats BakerHostetler emploie depuis 2016 Ross, une IA fondée sur une technologie d’IBM effectuant en quelques secondes l’équivalent de milliers d’heures de travail de recherche dans les textes par des avocats humains. Les cols blancs ne sont pas plus épargnés par les menaces que l’IA fait planer sur leur emploi, avec une ubérisation de la profession d’avocat désormais en marche.

La logique du mieux disant qui est la seule loi des réseaux connexionnistes pourrait aboutir à des dérapages très dangereux dans le domaine du droit. Les sociétés postmodernes ont de plus en plus tendance à relâcher l’universalité de la loi pour céder à son adaptation régionale voire à son complet morcellement selon les villes et quartiers. L’on voit ainsi régulièrement des élus expliquer que l’interdiction des femmes dans les cafés, l’observance d’interdits alimentaires religieux ou l’imposition de certaines relations hommes / femmes doit faire l’objet d’une adaptation au cas par cas.

Les motivations de telles démissions sont connues: il s’agit d’une optimisation électorale, une suradaptation à la réalité locale de chaque quartier pour engranger le maximum de voix. Quelle tentation que celle d’un algorithme qui calculerait en permanence les adaptations de la loi en fonction des rapports de force locaux, assurant une paix fondée sur la flexibilité aux revendications des plus majoritaires localement et permettant une maximisation des chances électorales. La logique d’intelligence répartie répond à la décentralisation complète de nos règles, autorisant toutes les compromissions locales à partir du moment où elles sont rentables, économiquement comme électoralement.

Il ne faut pas penser que le monde matériel serait épargné, parce que c’est par le seul biais de morceaux de logiciels que l’IA agit. L’internet des objets remplace la puissance de calcul centralisée dans un PC par des dizaines de petits objets communicants, plus spécialisés et moins puissants qu’un ordinateur, mais agissant de façon redoutablement coordonnée pour gérer sa maison. Étendus au-delà du domicile, on sera environnés de milliers de tels petits objets, interagissant en permanence pour recréer des logiques de réseaux disséminés. Mais qui dit dissémination dit faille : une cyberattaque récente s’est attaquée à des milliers de caméras de surveillance, beaucoup plus difficiles à toutes contrôler et protéger, pour investir des sites internet mondialement fréquentés.

L’étape ultime intervient lorsque la frontière entre le numérique et le vivant se met à céder. Elon Musk affirme qu’on est déjà des cyborgs, les smartphones et autres objets connectés étant devenus des prothèses prolongeant l’usage des membres et des sens. Des connexions directes de l’influx nerveux vers les smartphones sont envisagées, faisant des objets connectés des membres de son corps à part entière. Enfin, des « nano-bots », robots microscopiques, pourraient être injectés dans le flux sanguin. Individuellement capables d’opérations très limitées, leur organisation en réseau permettrait d’accomplir des tâches médicales de haute volée. Mais pour cette application de l’intelligence disséminée comme pour d’autres, que se passe-t-il si elle développe sa propre logique par auto-organisation, échappant à la sienne ?

Le jour où la terre s’arrêta et la mémoire d’Athènes

Le danger réel de l’IA et sa résonance troublante avec la dérégulation moderne apparaissent de manière frappante dans les deux versions du film de SF « Le jour où la terre s’arrêta », dans son ancienne version de 1951 et dans celle moderne de 2008. L’extraterrestre chargé de mettre en garde les terriens contre leur prochaine destruction est accompagné d’un robot garde du corps, Gort. Dans la version de 1951, Gort est représenté sous une forme humanoïde compacte et unie, capable de terrasser un adversaire par sa force mécanique ou un rayon émis par une fente oculaire. Il représente le fantasme du cyborg tueur, longtemps populaire, mais dont on vient de comprendre qu’il n’est pas le vrai danger. Le Gort de la version de 2008, accompagnant Keanu Reeves, est capable de se dissocier en une multitude innombrable de petits insectes mécaniques, pouvant se reproduire, se déplaçant comme une nuée tueuse. La puissance collective de cet essaim est bien plus redoutable que celle du robot de 1951, car elle accomplit à elle seule la tâche de destruction de la terre.

La nouvelle version du film a bien ressenti l’évolution postmoderne. Les menaces ne sont plus un adversaire identifiable et massif, comme l’étaient les totalitarismes classiques. Elles sont fluides, adaptables, se dispersant à tous vents si l’on cherche à les pilonner, se resserrant comme les anneaux d’un python dans une étreinte implacable dès que l’opportunité se présente. Les réactions des marchés financiers à la moindre velléité d’ouvrir d’autres politiques ont cette fluidité des systèmes disséminés et coordonnés en réseau.

Telle est l’IA moderne, amplificateur inouï des dévoiements du libéralisme, car procédant du même principe de suradaptation aux plus petits équilibres locaux et de poursuite d’objectifs qui n’ont plus d’autre règle qu’eux-mêmes. Les humains déjà variables d’ajustement économiques deviendraient les animaux de compagnie des processus de l’IA, tolérés tant qu’ils n’introduisent pas trop d’impuretés dans l’optimisation d’ensemble, rayés d’un trait de crayon numérique plus implacable encore que celui des actionnaires s’ils s’opposent à la marche de l’optimalité.

La parade à ces nuées ardentes ? Il faut s’attacher à l’universalité de la loi, rester dans ce domaine irréductiblement athénien, refuser les compromissions de l’adaptation instinctive et opportuniste qui dissout les hommes et l’éthique.

Le danger n’est pas seulement technologique, il est surtout dans le fait que ces intelligences non humaines renvoient les gens à leur propre déshumanisation.

 

yogaesoteric
16 octobre 2019


 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More