Séparer l’information de la désinformation : Les menaces de la révolution de l’IA
par Per Bylund
L’intelligence artificielle (IA) ne peut pas distinguer les faits de la fiction. Elle n’est pas non plus créative et ne peut pas créer de nouveaux contenus, mais répète, reconditionne et reformule ce qui a déjà été dit (mais peut-être d’une manière nouvelle).
Je suis sûr que quelqu’un ne sera pas d’accord avec ce dernier point, en soulignant peut-être que l’IA peut clairement générer, par exemple, de nouvelles chansons et de nouvelles paroles. Je suis d’accord avec cette affirmation, mais elle n’est pas pertinente. L’IA produit de « nouvelles » paroles de chansons uniquement en puisant dans les données des paroles de chansons précédentes et utilise ensuite ces informations (les modèles découverts par induction) pour générer ce qui nous semble être une nouvelle chanson (et qui peut très bien en être une). Cependant, il n’y a pas de talent artistique, pas de créativité. Ce n’est qu’un remaniement structurel de ce qui existe déjà.
Bien sûr, nous pouvons débattre de la mesure dans laquelle les humains peuvent avoir des pensées vraiment nouvelles et si l’apprentissage humain peut être basé uniquement ou principalement sur le mimétisme. Toutefois, même si nous admettons, pour les besoins de l’argumentation, que tout ce que nous savons et faisons n’est que reproduction, les êtres humains ont une capacité limitée à se souvenir exactement et commettent des erreurs. Nous comblons également les lacunes par ce qui nous semble subjectivement (et non objectivement) logique (test de Rorschach, quelqu’un ?). Même dans ce scénario très limité, avec lequel je ne suis pas d’accord, les humains génèrent de la nouveauté au-delà de ce que l’IA est capable de faire.
L’incapacité à distinguer les faits de la fiction et l’attachement inductif à des modèles de données existants sont des problèmes qui peuvent être résolus par des programmes, mais qui se prêtent à la manipulation.
Manipulation et propagande
Lorsque Google a lancé son IA Gemini en février, il est immédiatement apparu que l’IA avait un programme woke. Entre autres choses, l’IA a poussé les idéaux de diversité woke dans toutes les réponses possibles et imaginables et a notamment refusé de montrer des images de personnes blanches (y compris lorsqu’on lui a demandé de produire des images des Pères fondateurs).
Marc Andreessen, gourou de la technologie et investisseur de la Silicon Valley, a résumé la situation sur X (anciennement Twitter) : « Je sais que c’est difficile à croire, mais l’IA des grandes entreprises technologiques produit les résultats qu’elle produit parce qu’elle exécute précisément l’agenda idéologique, radical et biaisé de ses créateurs. Les résultats apparemment bizarres sont voulus à 100 %. Elle fonctionne comme prévu. »
Il y a en effet une conception de ces IA au-delà des moteurs de catégorisation et de génération de base. Les réponses ne sont pas parfaitement inductives ou génératives. Cela est en partie nécessaire pour rendre l’IA utile : des filtres et des règles sont appliqués pour s’assurer que les réponses générées par l’IA sont appropriées, qu’elles correspondent aux attentes de l’utilisateur et qu’elles sont exactes et respectueuses. Compte tenu de la situation juridique, les créateurs d’IA doivent également s’assurer que l’IA ne viole pas, par exemple, les lois sur la propriété intellectuelle ou qu’elle ne tient pas de discours haineux. L’IA est également conçue (dirigée) de manière à ce qu’elle ne se dérègle pas ou qu’elle n’offense pas ses utilisateurs (vous vous souvenez de Tay ?).
Toutefois, étant donné que de tels filtres sont appliqués et que le « comportement » de l’IA est déjà dirigé, il est facile d’aller un peu plus loin. Après tout, quand une réponse est-elle trop offensante par rapport à une réponse offensante mais dans les limites du discours autorisé ? Il s’agit d’une ligne fine et difficile qui doit être spécifiée de manière programmatique.
Cela ouvre également la possibilité d’orienter les réponses générées au-delà de la simple assurance qualité. Avec les filtres déjà en place, il est facile de faire en sorte que l’IA fasse des déclarations d’un type spécifique ou qu’elle pousse l’utilisateur dans une certaine direction (en termes de faits, d’interprétations et de visions du monde sélectionnés). Il est également possible de donner à l’IA un ordre du jour, comme le suggère Andreessen, par exemple en la rendant implacablement woke.
L’IA peut donc être utilisée comme un outil de propagande efficace, ce que les entreprises qui la créent et les gouvernements et agences qui la réglementent ont reconnu.
Mésinformation et erreur
Les États ont longtemps refusé d’admettre qu’ils bénéficiaient de la propagande et qu’ils l’utilisaient pour diriger et contrôler leurs sujets. Cela s’explique en partie par le fait qu’ils souhaitent conserver un vernis de légitimité en tant que gouvernements démocratiques qui gouvernent sur la base des opinions de la population (plutôt que de les façonner). La propagande a une mauvaise connotation : c’est un moyen de contrôle.
Cependant, on dit que les ennemis de l’État – tant nationaux qu’étrangers – comprennent le pouvoir de la propagande et n’hésitent pas à l’utiliser pour semer le chaos dans notre société démocratique qui, par ailleurs, n’est pas entachée. Le gouvernement doit nous protéger de ces manipulations, affirment-ils. Bien sûr, il est rare que cela s’arrête à la simple défense. Nous l’avons vu clairement lors de la pandémie de covidie, au cours de laquelle le gouvernement et les entreprises de médias sociaux ont en fait interdit l’expression d’opinions qui ne correspondaient pas à la ligne officielle (voir Murthy v. Missouri).
L’IA est tout aussi facile à manipuler à des fins de propagande que les algorithmes des médias sociaux, mais avec l’avantage supplémentaire qu’il ne s’agit pas seulement des opinions des gens et que les utilisateurs ont tendance à croire que ce que l’IA rapporte est vrai. Comme nous l’avons vu dans l’article sur la révolution de l’IA, cette hypothèse n’est pas valable, mais elle est néanmoins largement répandue.
Si l’IA peut être chargée de ne pas commenter certaines choses que les créateurs (ou les régulateurs) ne veulent pas que les gens voient ou apprennent, alors elle est effectivement « trouée de mémoire ». Ce type d’informations « indésirables » ne se répandra pas car les gens n’y seront pas exposés – comme le fait de ne montrer que diverses représentations des Pères fondateurs (comme le Gemini de Google) ou de ne présenter, par exemple, que des vérités macroéconomiques keynésiennes pour donner l’impression qu’il n’y a pas d’autre point de vue. Les gens ne savent pas ce qu’ils ne savent pas.
Bien sûr, rien ne dit que ce qui est présenté à l’utilisateur est vrai. En fait, l’IA elle-même ne peut pas distinguer les faits de la vérité et ne fait que générer des réponses en fonction des directives et de ce qu’on lui a donné à manger. Cela laisse beaucoup de place à la déformation de la vérité et peut faire croire au monde entier à des mensonges purs et simples. L’IA peut donc facilement être utilisée pour imposer un contrôle, que ce soit à un État, aux sujets qu’il gouverne ou même à une puissance étrangère.
La véritable menace de l’IA
Quelle est donc la véritable menace de l’IA ? Les grands modèles de langage n’évolueront pas (ne peuvent pas évoluer) vers l’intelligence générale artificielle, car il n’y a rien dans le tri inductif de grandes quantités d’informations (créées par l’homme) qui puisse donner naissance à la conscience. Pour être franc, nous n’avons même pas encore compris ce qu’est la conscience, alors penser que nous la créerons (ou qu’elle émergera d’une manière ou d’une autre d’algorithmes découvrant des corrélations linguistiques statistiques dans des textes existants) est tout à fait hyperbolique. L’intelligence artificielle générale est encore hypothétique.
L’IA ne représente pas non plus une menace économique. Elle ne rendra pas les humains économiquement superflus et ne provoquera pas de chômage de masse. L’IA est un capital productif, qui a donc de la valeur dans la mesure où il sert les consommateurs en contribuant à la satisfaction de leurs besoins. Une IA mal utilisée a autant de valeur qu’une usine mal utilisée – elle tendra vers sa valeur de rebut. Toutefois, cela ne signifie pas que l’IA n’aura aucun impact sur l’économie. Elle le fera, et l’a déjà fait, mais cet impact n’est pas aussi important à court terme que certains le craignent, et il est probablement plus important à long terme que ce que nous prévoyons.
Non, la véritable menace est l’impact de l’IA sur l’information. Cela s’explique en partie par le fait que l’induction est une source inappropriée de connaissances – la vérité et les faits ne sont pas une question de fréquence ou de probabilités statistiques. Les preuves et les théories de Nicolaus Copernic et de Galileo Galilei seraient éliminées comme improbables (fausses) par une IA formée à tous les écrits (les meilleurs et les plus brillants) sur le géocentrisme de l’époque. Il n’y a pas de progrès ni d’apprentissage de nouvelles vérités si nous ne faisons confiance qu’aux théories historiques et aux présentations des faits.
Toutefois, ce problème peut probablement être surmonté par une programmation intelligente (c’est-à-dire en appliquant des règles et des limitations basées sur les faits au problème de l’induction), du moins dans une certaine mesure. Le plus grand problème est la corruption de ce que l’IA présente : la désinformation, la mésinformation et la malinformation que ses créateurs et administrateurs, ainsi que les gouvernements et les groupes de pression, lui ordonnent de créer afin de contrôler ou d’orienter l’opinion publique ou les connaissances.
C’est là le véritable danger que signalait la désormais célèbre lettre ouverte signée par Elon Musk, Steve Wozniak et d’autres :
« Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contre-vérité ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? »
Hormis la référence à l’« automatisation de tous les emplois », qui n’a rien d’économique, l’avertissement est pertinent. L’IA ne se mettra pas à nous haïr à la manière de Terminator et à tenter d’exterminer l’humanité. Elle ne nous transformera pas tous en batteries biologiques, comme dans Matrix. Cependant, elle nous désinformera et nous induira en erreur, créera le chaos et risque de rendre nos vies « solitaires, pauvres, méchantes, brutales et courtes », surtout lorsqu’elle est corrompue.
yogaesoteric
1 avril 2024