Neuroscientifique : Les ordinateurs conventionnels ne seront jamais conscients


Limite supérieure

Les chercheurs rêvent de créer un jour l’intelligence artificielle générale (AGI), le genre d’algorithmes globaux et émotionnellement intelligents issus de la science-fiction.

Mais ils n’atteindront jamais cet objectif en utilisant des ordinateurs conventionnels, affirme le neuroscientifique Christof Koch, président et directeur scientifique de l’Institut Allen pour la science du cerveau. Tout d’abord, a-t-il déclaré à ACM News, les ingénieurs devront développer un matériel informatique entièrement nouveau – peut-être même en s’appuyant sur la technologie quantique.

Distinction soignée

Le principal problème, selon Koch, est que les ordinateurs conventionnels peuvent exécuter des algorithmes spécialisés, mais que pour faire le saut dans la conscience, il faut autre chose : du matériel structuré en fonction de la complexité d’une entité consciente.

« Notre théorie dit que si nous voulons décider si une machine est consciente ou non, nous ne devrions pas regarder le comportement de la machine, mais le substrat réel qui a un pouvoir causal », a déclaré Koch à ACM News. « Pour les systèmes d’IA actuels, cela signifie que nous devons examiner le niveau de la puce de l’ordinateur ».

Problème sous-jacent

Même la simulation de la biologie complète d’un cerveau humain sur des puces informatiques conventionnelles ne suffirait pas à générer une conscience, a déclaré M. Koch. Il soutient que la conscience est définie par la physique sous-jacente de l’architecture de ce cerveau, et non par sa puissance de traitement.

« Toute IA qui fonctionne sur une telle puce, aussi intelligente soit-elle », a déclaré M. Koch à ACM News, « ne sera toujours pas consciente comme un cerveau humain ».

yogaesoteric
1 juillet 2020

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More