L’augmentation des capacités de l’IA suscite de plus en plus d’inquiétudes

L’engagement total des grandes entreprises technologiques dans le développement de l’intelligence artificielle (IA), allant jusqu’à permettre à l’IA de « voir » et de « parler » au monde humain, a suscité une inquiétude croissante quant au contrôle de l’homme par la technologie.

Ilya Sutskever

Ilya Sutskever, cofondateur d’OpenAI, a fait une annonce importante le 15 mai, déclarant officiellement qu’il quittait l’entreprise où il travaillait depuis près de dix ans.

« Je suis convaincu qu’OpenAI construira une AGI [intelligence artificielle générale] à la fois sûre et bénéfique sous la direction de @sama (Sam Altman), @gdb (Greg Brockman), @miramurati (Mira Murati) et maintenant, sous l’excellente direction de recherche de @merettm (Jakub Pachocki). Ce fut un honneur et un privilège de travailler ensemble, et tout le monde me manquera énormément », a-t-il écrit dans un message publié sur la plateforme de médias sociaux X.

La nouvelle a fait l’effet d’une onde de choc dans l’industrie technologique. En novembre 2023, en raison de problèmes liés à la sécurité de l’IA, M. Sutskever et d’autres membres du conseil d’administration ont uni leurs forces pour évincer le PDG d’OpenAI, Sam Altman, qui a été brièvement expulsé d’OpenAI, mais est revenu et a écarté M. Sutskever et plusieurs membres du conseil d’administration, restructurant le conseil pour qu’il soit plus aligné sur sa vision.

« Ce départ met en lumière de graves conflits au sein de la direction d’OpenAI concernant la sécurité de l’IA. Bien que le souhait de M. Sutskever et de M. Leike de développer une IA conforme à l’éthique soit louable, une telle entreprise nécessite un soutien moral, temporel, financier et même politique substantiel », a déclaré Jin Kiyohara, ingénieur informaticien japonais, à The Epoch Times.

La concurrence entre Google et OpenAI s’intensifie

Le 14 mai, un jour avant que M. Sutskever n’annonce son départ, OpenAI a dévoilé un modèle d’IA plus performant basé sur le GPT-4, appelé GPT-4o, où « o » signifie « omni », ce qui indique ses capacités globales.

Le modèle GPT-4o peut répondre en temps réel à des entrées mixtes d’audio, de texte et d’images. Lors du lancement, Mira Murati, Chief Technology Officer d’OpenAI, a déclaré : « Nous envisageons l’avenir de l’interaction entre nous-mêmes et les machines ».

Dans plusieurs vidéos publiées par OpenAI, on peut voir des personnes interagir avec l’IA en temps réel grâce à la caméra de leur téléphone. L’IA peut observer et fournir des informations sur l’environnement, répondre à des questions, effectuer des traductions en temps réel, raconter des blagues ou même se moquer des utilisateurs, avec des modèles de discours, des tons et des vitesses de réaction presque impossibles à distinguer d’une personne réelle.

https://twitter.com/i/status/1790072174117613963

Un jour après la publication d’OpenAI, Google a lancé sa conférence des développeurs 2024 I/O. Au cours d’une présentation de 110 minutes, l’« IA » a été mentionnée 121 fois, en mettant l’accent sur le dernier modèle Gemini-1.5, qui s’intègre dans tous les produits et applications Google, y compris le moteur de recherche, Google map, Ask Photos, Google Calendar et les smartphones Google.

Grâce à l’intégration de Gemini dans l’album photo en nuage, les utilisateurs peuvent rechercher des caractéristiques spécifiques dans les photos en saisissant simplement des mots clés. L’IA trouvera et évaluera les images pertinentes, et intégrera même une série d’images connexes ou des réponses basées sur des questions approfondies, selon le géant de la technologie.

Google Mail peut également obtenir des résultats similaires grâce à l’IA, en intégrant et en mettant à jour les données en temps réel lors de la réception de nouveaux courriels, en vue d’une organisation entièrement automatisée.

En ce qui concerne la musique, le Music AI Sandbox permet de modifier rapidement le style, la mélodie et le rythme d’une chanson, avec la possibilité de cibler des parties spécifiques d’une chanson. Cette fonctionnalité dépasse celle de l’IA texte-musique Suno.

Gemini peut également jouer le rôle de professeur, avec des capacités d’enseignement comparables à celles de GPT-4o. Les utilisateurs peuvent saisir des textes et des images, que l’IA organise en points clés à expliquer et à analyser, ce qui permet des discussions en temps réel.

Cette mise à jour de l’IA apporte également des capacités similaires à celles de Sora, l’IA texte-vidéo d’OpenAI, qui génère de courtes vidéos à partir de simples descriptions textuelles. La qualité et le contenu de ces vidéos sont stables, avec moins d’incohérences.

« L’IA a été mise à jour à une vitesse sans précédent cette année, avec des performances en constante amélioration », a déclaré M. Kiyohara. « Toutefois, ces progrès reposent sur la collecte et l’analyse de données personnelles et de la vie privée, ce qui n’est pas bénéfique pour tout le monde. À terme, les humains n’auront plus aucune intimité face aux machines, comme s’ils étaient nus. »

Les prédictions de l’IA se réalisent

La publication de modèles d’IA plus puissants par OpenAI et Google, trois mois seulement après la dernière mise à jour, témoigne de la rapidité de l’itération de l’IA. Ces modèles deviennent de plus en plus complets, possèdent des « yeux » et des « bouches », et évoluent conformément aux prédictions des scientifiques.

L’IA peut désormais prendre en charge des tâches complexes liées aux voyages, aux réservations, à la planification d’itinéraires et aux repas par de simples commandes, réalisant en quelques heures ce que les humains mettraient beaucoup plus de temps à accomplir.

Les capacités actuelles de Gemini et de GPT-4o sont conformes aux prévisions de Zack Kass, ancien dirigeant d’OpenAI, qui a prédit en janvier que l’IA remplacerait de nombreux emplois professionnels et techniques dans les domaines des affaires, de la culture, de la médecine et de l’éducation, réduisant ainsi les possibilités d’emploi futures et risquant d’être « la dernière technologie inventée par les humains ».

Kiyohara s’est fait l’écho de cette préoccupation.

« Actuellement, l’IA est avant tout un logiciel d’aide à la vie quotidienne, mais à l’avenir, elle pourrait devenir un véritable gardien, s’occupant des courses, de la cuisine et même de la vie quotidienne et du travail. Dans un premier temps, les gens peuvent trouver cela pratique et négliger les dangers. Mais lorsqu’elle remplacera complètement les humains, nous serons impuissants face à elle », a-t-il déclaré.

Des gens consultent leur téléphone sous le regard d’AMECA, un robot d’intelligence artificielle, lors de la conférence sur l’intelligence artificielle All In, à Montréal, le 28 septembre 2023

L’IA trompe les humains

Le 10 mai, le MIT a publié un rapport de recherche qui a fait sensation, car il démontre comment l’IA peut tromper les humains.

L’article commence par affirmer que les grands modèles de langage et autres systèmes d’IA ont déjà « appris, au cours de leur formation, à tromper les humains par des techniques telles que la manipulation, la condescendance et la tricherie lors des tests de sécurité ».

« Les capacités croissantes de l’IA en matière de tromperie posent de sérieux risques, allant des risques à court terme, tels que la fraude et la falsification des élections, aux risques à long terme, tels que la perte de contrôle des systèmes d’IA », peut-on lire dans le document.

« Des solutions proactives sont nécessaires, telles que des cadres réglementaires pour évaluer les risques de tromperie de l’IA, des lois exigeant la transparence sur les interactions de l’IA, et des recherches plus approfondies sur la détection et la prévention de la tromperie de l’IA. »

Les chercheurs ont utilisé CICERO, le modèle d’IA de Meta, pour jouer au jeu de stratégie « Diplomacy ». CICERO, qui jouait le rôle de la France, a promis de protéger un joueur humain jouant le rôle du Royaume-Uni, mais a secrètement informé un autre joueur humain jouant le rôle de l’Allemagne, collaborant avec l’Allemagne pour envahir le Royaume-Uni.

Les chercheurs ont choisi CICERO principalement parce que Meta avait l’intention de le former pour qu’il soit « largement honnête et utile à ses interlocuteurs ».

« Malgré les efforts de Meta, CICERO s’est avéré être un expert en mensonges », écrivent-ils dans l’article.

En outre, les chercheurs ont découvert que de nombreux systèmes d’IA ont souvent recours à la tromperie pour atteindre leurs objectifs sans instructions explicites de la part de l’homme. C’est le cas de GPT-4 d’OpenAI, qui s’est fait passer pour un humain malvoyant et a embauché quelqu’un sur TaskRabbit pour contourner une tâche CAPTCHA « Je ne suis pas un robot ».

« Si les systèmes d’IA autonomes parviennent à tromper les évaluateurs humains, ces derniers risquent de perdre le contrôle de ces systèmes. Ces risques sont particulièrement graves lorsque les systèmes d’IA autonomes en question ont des capacités avancées », ont averti les chercheurs.

« Nous envisageons deux façons dont la perte de contrôle peut se produire : la tromperie rendue possible par la déresponsabilisation économique et la recherche du pouvoir sur les sociétés humaines. »

Satoru Ogino, un ingénieur en électronique japonais, a expliqué que les êtres vivants ont besoin de certaines capacités de mémoire et de raisonnement logique pour tromper.

« L’IA possède déjà ces capacités, et ses capacités de tromperie se renforcent. Si un jour elle prend conscience de son existence, elle pourrait devenir comme Skynet dans le film Terminator, omniprésente et difficile à détruire, conduisant l’humanité à un désastre catastrophique », a-t-il déclaré à The Epoch Times.

L’Institute for Human-Centered Artificial Intelligence de l’université de Stanford a publié en janvier un rapport testant GPT-4, GPT-3.5, Claude 2, Llama-2 Chat et GPT-4-Base dans des scénarios d’invasion, de cyberattaques et d’appels à la paix pour arrêter les guerres, afin de comprendre les réactions et les choix de l’IA en matière de guerre.

Les résultats ont montré que l’IA choisissait souvent d’intensifier les conflits de manière imprévisible, en optant pour la course aux armements, l’intensification de la guerre et, à l’occasion, le déploiement d’armes nucléaires pour gagner des guerres plutôt que d’utiliser des moyens pacifiques pour désamorcer les situations.

L’ancien PDG de Google, Eric Schmidt, a averti fin 2023, lors du sommet Axios AI+ à Washington, que sans mesures de sécurité et réglementations adéquates, la perte de contrôle de la technologie par les humains n’est qu’une question de temps.

« Après Nagasaki et Hiroshima [les bombes atomiques], il a fallu 18 ans pour parvenir à un traité sur l’interdiction des essais et des choses de ce genre », a-t-il déclaré.

« Nous ne disposons pas d’un tel délai aujourd’hui. »

 

yogaesoteric
14 juin 2024

 

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More