Andrei Marga: Optica inteligenței artificiale

„Inteligența artificială” reia ideea „l’homme maschine” a lui La Mettrie. Acesta își asuma că omul poate fi abordat cu succes ca mașină, dar și că este posibilă o mașină care copiază omul. Prin John McCarthy (1955), „artificial intelligence” a și fost concepută ca „teorie și tehnologie a creării de mașini care învață și decid pe baza acestei învățări”. Se voiau „mașini capabile să facă abstracții, să dezvolte idei, să rezolve probleme, care au fost rezervate până acum oamenilor, și să se optimizeze pe sine”. Unul dintre creatori, Marvin Minsky, a și formulat cel mai clar optica deja în anii 1970. „În următorii doi până la opt ani vor fi mașini având inteligența unui om mijlociu. Mă gândesc la o mașină care este în stare să citească Shakespeare, să schimbe uleiul la mașină, să toarcă intrigi la birou, să relateze o glumă și să controverseze. În acest punct, mașina va începe să se formeze singură, cu viteză uluitoare. După câteva luni, ea va fi atins nivelul unui geniu, iar cât de mare va fi capacitatea ei de prestare nu va mai fi de subestimat”, declara într-un interviu vestitul inventator.

Informaticienii sunt optimiști. Consacratul lor purtător de cuvânt, Martin Ford, aseamănă expansiunea „inteligenței artificiale” cu schimbările ample aduse de electricitate în viața oamenilor. El observă însă și un fapt de cotitură: pătrunderea mai adâncă în rețelele neuronale odată cu cercetarea felului în care sunt compuse și se manifestă moleculele de proteine. Preluată tehnologic, această cercetare a dus la o nouă dezvoltare a „inteligenței artificiale”, ce se aplică apoi, firește, la rândul ei, în cercetări ale conștiinței umane. Rețelele neuronale au devenit și mai informative în construcția de noi computere (Rule of the Robots: How Artificial Intelligence Will Transform Everything – Regula roboților: cum inteligența artificială va transforma totul, Basic Books, New York, 2021). Programul DeepMind și-a adăugat Deep Learning, iar apoi, computația Cloud a dus la platforme ale Google ce permit tot mai multor oameni accesul la folosirea „inteligenței artificiale”. Martin Ford nu vede limite în ceea ce privește simularea creierului uman ca realitate biologică, dar consideră că o copiere a creierului sub toate aspectele rămâne science fiction (ediția germană, 2024, p. 17). Nu fiindcă informațiile ce se stochează sunt incomplete sau modulele software, legate de logica cunoscută, insuficiente, ci datorită complexității înseși a creierului.

Cunoașterea care conduce dezvoltarea „inteligenței artificiale” este azi ramificată. La ea participă informatica, ingineria, neurologia, fiziologia, psihologia, matematica, logica, teoria comunicării. Idealul este de a ajunge la mașini ce pot fi agenți de sine stătători în viața oamenilor. Diversificarea direcțiilor de dezvoltare este enormă. Informaticienii au, în aceste demersuri, firește, abordările lor.

„Inteligența artificială” modifică adânc înțelegerea lumii, „provoacă” filosofia și schimbă cultura. Cine se pronunță asupra ei se cuvine să cunoască ceea ce se petrece înăuntrul ei. În orice caz, s-a ajuns deja în punctul în care este evident că preocupările pentru cunoașterea „inteligenței artificiale” și cele privind condiția umană sunt chemate să meargă mână în mână.

Întrebarea ce pot și ce nu pot computerele, care întruchipează acum cel mai clar „inteligența artificială”, este pusă de tot mai mulți oameni. Răspund, la rândul meu, evidențiind aici argumentele majore puse în dezbatere și rezumând perspectiva proprie.

Teoria actuală a cunoașterii nu poate să nu înceapă cu apărarea tezei autonomiei funcționale a conștiinței umane. Ea are de partea ei multe argumente, izvorâte chiar din practica cercetării de la Galilei, la Einstein, Max Planck, Norbert Wiener. Hilary Putnam i-a adăugat „argumentul computerial”. Conform acestuia, în sistemele care au cel puţin gradul de complexitate al mașinilor capabile să-și dea seama de propria funcționare, care sunt „maşinile Turing”, „descrierile organizării funcţionale” sunt logic diferite de „construcţia lor structurală (fizico-chimică)” și de „descrierile modului de comportament efectiv sau potenţial” (Hilary Putnam, Mind, Language and Reality – Minte, limbaj și realitate, 1975). Ceea ce înseamnă că, în cazul relației dintre creierul uman și organism, aceste aspecte sunt cel puțin la fel. Funcționarea creierului se sustrage oricărei mecanici.

Complexitatea aceasta nu ar fi însă cazul să descurajeze modelările creierului uman. El însuși inovator în lingvistică, robotică și filosofie, Hilary Putnam a reluat argumentul lui Noam Chomsky după care nu este de așteptat ca „inteligența artificială” să copieze limbajul natural, dar modelarea limbajului este necesar să fie continuată. „Multe sisteme sunt prea complexe pentru noi ca să le putem prelua, să facem predicții sau să le simulăm în detalii; dar asta nu înseamnă să spunem că nu putem să căutăm modele teoretice utile ale unor astfel de sisteme” (Hilary Putnam, Renewing Philosophy – Renovarea Filosofiei, Harvard University Press, 1992, p. 17). Operăm, de pildă, cu „științe economice”, chiar dacă nu s-a captat complexitatea economiei.

Întrebarea ce se pune în fața oricărei pretenții privind „mașinile inteligente” este „unde se află conștiința?”. John Searle a răspuns convingător: „conștiința este o caracteristică a creierului la un nivel mai înalt decât acela al neuronilor individuali” (Putting Consciousness Back in the Brain. Replic… – Punerea conștiinței înapoi în creier, în volumul Neuroscience & Philosophy. Brain, Mind & Language – Neuroștiință & Filosofie. Creier, Conștiință, Limbaj, Columbia University Press, 2003, p.99). Procesele mentale sunt legate de procesele neuronale din creier. „Conștiința constă /…/ în procese mentale subiective, calitative, unificate ce se petrec în spațiul fizic al craniului, probabil localizate mai ales în sistemul talamocortical” (p. 114). Ea nu e transpozabilă în niciun alt loc.

Poate fi socotit creierul uman un computer? Tot John Searle a argumentat: „creierul, pe cât contează operațiile sale intrinseci, nu face procesarea informației. El este un organ biologic și procesele sale specific neurobiologice cauzează forme specific de intenționalitate. În creier, în mod intrinsec, există procese neurobiologice și uneori ele cauzează conștientizări” (Is The Brain a Digital Computer? – Este creierul un computer digital?, 1990, în același volum, p.106). Creierul nu „procesează informații” – în fapt el prelucrează date, atâtea câte pot fi stilizate ca informații, dar datele rămân mereu ceva mai mult. Ele țin de experiențe ale acțiunilor de inserare a ființei umane în condițiile mediului vieții. Creierul permite analogia cu un computer, dar este mereu mai mult.

John Searle a acuzat o „eroare de tip homunculus (homunculus fallacy)” în modelările computaționale ale conștiinței. Această eroare constă, tehnic vorbind, în aceea că un concept este explicat recursiv, adică prin conceptul însuși, fără a-l defini sau explica în prealabil. Ea este observabilă ușor atunci când se explică vederea umană reținând că lumina din exterior formează o imagine pe retină și ceva (sau cineva) plasat în creier controlează dacă imaginea este imagine. Asumpția este că înăuntrul creierului ar exista, metaforic vorbind, „un homunculus, adică un omuleț”, care controlează imaginile ce se derulează.

O personalitate cu bună formație în noua configurație a cunoașterii, Daniel Dennett, a formulat două argumente îndreptate contra exaltării potențialului „inteligenței artificiale”.

Primul argument este acela că „inteligența artificială” este o abordare care a luat act de faptul că strategia de cercetare reprezentată de behaviorism în psihologie nu mai dă rezultate. Nici reprezentarea prin psihologia fiziologică a semnalelor neuronale nu le mai dă. Fiind ambele excedate de complexitatea psihicului, s-a recurs la o strategie care a ales, dintre variantele abordării cogniției, pe aceasta: cum poate un sistem să îndeplinească performanța X? Or, aceasta este o „chestiune de soluție mai curând decât una de descoperire” (Brainstorms. Philosophical Essays on Mind and Psychology – „Furtuni în creier”. Eseuri filosofice despre minte și psihologie, The MIT Press, 1986, p. 111). Este vorba, astfel, de o teoretizare „aprioristică”, ce ne poate duce la sesizarea de constrângeri, dar poate înșela cu privire la realitate.

Felul de a proceda „aprioristic” a fost repede îmbrățișat de „psihologia cognitivistă”, ai cărei adepți s-au entuziasmat de abordarea psihicului plecând de la modelări computeriale. Acest fel de a proceda trimite însă psihologia pe o cale ce o ține la distanță de datele empirice și antrenează patru lacune: a) componentele modelării sunt introduse miraculos; b) se ia în mod discutabil o constrângere ca mai importantă decât altele; c) se restrânge artificial designul unui subsistem; d) se restrânge convenabil performanța unui sistem (p. 112-113). „Psihologia cognitivă” își asumă că există un izomorfism între computer și creier, dar „verisimilitudinea” programului computerial nu este același aspect cu izomorfismul.

Nu mai este de mirare, observ eu, că, de pildă, ministrul Educației naționale al Franței a cerut deja cu un deceniu în urmă părăsirea „psihologiei cognitive” ca bază a educației. Argumentul era că aceasta îndepărtează formarea elevilor de realitățile vieții lor.

Inteligența artificială este cea mai abstractă cercetare a posibilității inteligenței sau cunoașterii” (p. 119). Ea împarte cu filosofia interesul pentru structuri abstracte și cu psihologia interesul pentru un sistem aparte – cel al psihicului uman. În fapt, „programele inteligenței artificiale nu sunt experimente empirice, ci experimente de gândire regulate protetic prin computere” (p. 117). Nici nu este sigur că „inteligența artificială” rezolvă toate problemele pe care le întâlnește pe traseu. Oricum, ea nu-și asumă întreaga realitate.

Al doilea argument formulat de Daniel Dennett pleacă de la teorema lui Gödel: într-un sistem de axiome consistent, de pildă, al aritmeticii numerelor naturale, sunt propoziții ce nu se pot dovedi în acel sistem. Or, computerele sunt mașini bazate pe sisteme de axiome, „mașinile Turing” recurgând prin construcție la exploatarea tuturor legilor cunoscute pentru a-și atinge scopul. Dar, oricât de dezvoltată ar fi, „mașina Turing” are nevoie de ceva ce ține de creatorul ei. Nu are nici bază matematică asumpția că ea ar putea avea un scop, în înțelesul propriu al acestui termen (p. 261). „Mașina Turing” depinde de intenția designerului, iar această intenție nu se transmite ca atare mașinii.

Interpretarea cu care avem de a face din partea celor care exaltă potențialul „inteligenței artificiale” este că ea ar implica procese cognitive reale. John Searle i se opune. Teza sa este: „Operațiile creierului cauzează conștiință care are conținut semantic. Operațiile programelor sunt pur sintactice, iar sintaxa prin ea însăși nu constituie conștiință, nici nu este suficientă să genereze conștiință” (p. 62). Ca să putem vorbi legitim de prezența „conștiinței”, aceasta ar fi necesar să fie „duplicată”, dar ea este numai „simulată” de computer. Nici „mașinile Turing” nu pot duplica conștiința, căci sunt prevăzute doar cu sintaxă. „Fenomenele din sfera conștiinței au o ontologie la persoana întâi în sensul că ele există efectiv doar când sunt experimentate de un agent uman sau animal” (p. 64). Restul sistemelor nu ajung la procese specifice conștiinței.

Lui John Searle i se datorează argumentul „Camerei Chineze (Chinese Room)”: să presupunem, analog „testului Turing”, că într-o cameră este plasat un om care nu cunoaște limba chineză. Dar acesta este dotat cu un pix, o bucată de hârtie, cu date privind simbolurile limbii chineze și instrucțiunile cu privire la ceea ce poate face cu simbolurile. Vom putea observa că persoana se comportă asemenea unuia care folosește simbolurile și regulile acestora din limba chineză fără să o înțeleagă. „Întregul sistem nu are nicio cale să atașeze semantică sintaxei simbolurilor din computer” (p. 59). Persoana poate folosi simboluri, dar nu le stăpânește „semnificația”.

John Searle mai argumentează plecând de la teoria sa a „actelor de vorbire (speech acts)” și invocând unitatea propoziției. Noi formulăm propoziții în comunicare – „sentences” – pentru a performa în materie de comportament. Performativitatea este imanentă comunicării (The unity of the proposition – Unitatea propoziției, 2008, în Philosophy in a New Century – Filosofia într-un nou secol, p. 188). Locuția presupune ilocuție. Dar și invers, ilocuția este legată de reprezentarea a ceva în lume. În orice caz, vedem totdeauna obiecte doar în relații ce ne interesează. Fundamentală în propoziție nu este, așadar, „referința (reference)”, ci „satisfacția (satisfaction)” obținută prin acțiune, iar „adevărul (truth)” este doar caz particular al „satisfacției”. Unitatea unei propoziții este dată astfel nu de altceva decât de „starea intereselor și acțiunilor noastre (state of affairs)” ce procură satisfacție (p. 193). Dar „limbajul este cel care ne permite să rupem unitatea naturală a propoziției introducând o articulare pe care forma prelingvistică nu o are” (p. 192). Posibilitatea acestei ruperi este fructificată de „inteligența artificială”.

Mai este de observat că „testul Turing” abordează inteligența conform behaviorismului: ceea ce se gândește urmează să se vadă în comportament – al oamenilor sau al computerelor. De altfel, deja Alan Turing își asuma că un comportament exterior este un test concluziv pentru un eventual proces cognitiv ce are loc în interior. Numai că, observă John Searle, „este posibil să existe stări ale conștiinței fără a fi exprimate în comportament și este posibil să fie comportament care să nu corespundă la stări ale conștiinței” (The Turing Test: fifty-five years later – Testul Turing: cincizeci și cinci de ani mai târziu, 2008, în Philosophy in a New Century – Filosofia într-un nou secol, p. 55). Poate exista comportament exterior fără proces cognitiv și invers. Astfel că, putem construi mașini, dar nu le putem atribui „interior” de natura conștiinței.

În prelungirea acestor argumentări, decisive, după părerea mea, privind potențialul „inteligenței artificiale”, aduc aici încă două argumente, din perspectiva mea – a pragmatismului reflexiv.

Primul argument l-am formulat pe baza observării cunoașterii (vezi volumul Argumentarea, Editura Academiei Române, 2010). El pleacă de la considerentul că se pot obține, printr-o analiză, pornind de la nivelul accesibil oricărui om, trepte ale cunoașterii: judecata; propoziția folosită în comunicarea curentă dintre oameni; ansamblul de propoziții ce poate reda diferențele, divergențele, contradicțiile realității; propoziții ca parte a „actelor de vorbire”; și, desigur, „actele de vorbire” ca părți ale „jocurilor de limbaj”; delimitarea „informației”, prelucrarea acesteia și folosirea tehnicilor digitale; operarea cu „argumente” în vederea ajungerii la „înțelegere”; evaluarea argumentelor din punctul de vedere al inteligibilității expresiei, veracității vorbitorului, adevărului conținutului și justeței relației celor care comunică.

Tabloul acesta ne spune că ceea ce numim cunoaștere – inclusiv cea realizată cu ajutorul „inteligenței artificiale” – pleacă de la date factuale și este de încredere. Ea se realizează în trepte și presupune parcurgerea lor. Pierde evident acela care nu se folosește de computer. Apăr însă susținerea că, înțeleasă ca asumare a întregului condițiilor vieții umane, „gândirea” este mai sus de treptele enunțate, fără a se rupe de ele și fără a se reduce la vreuna (A. Marga, Vocația gândirii, 2024). Ca efect – cultura, luată în lărgimea și finalitatea ei la bază, „înțelegerea”, rămâne indispensabilă cunoașterii, fie ea și realizată cu „inteligența artificială”.

Al doilea argument este acela că, sub anumite aspecte, deja prin construcție și funcționare, „inteligența artificială” prestează mai puțin decât „inteligența naturală”. Și ea are un prealabil care-i condiționează rezultatele. Ea a plecat de la căutările de rezolvare a unei probleme tehnice: construirea de mașini aidoma conștiinței umane, eventual cu capacități sporite. Ea a modelat conștiința pe anumite premise logico-lingvistice. Ea a făcut loc unui concept al „informației” care asigură abordarea matematică, dar a rămas deschisă întrebarea pe cât operăm în viața curentă cu acest concept. Ea a aplicat o metodologie constând în abordarea unui obiect într-un cadru apriori, computațional. Ca urmare a acestor opțiuni, rămâne de discutat în ce măsură această metodologie duce la cunoașterea lumii trăite a vieții – realitatea inevitabilă cu care ne întâlnim și în care trăim în cursa noastră ca oameni pe pământ.

Autor: Andrei Marga, extras din volumul Inteligența artificială și condiția umană, în pregătire

Citiți și:
Andrei Marga: De la digitalizare la gândire
Andrei Marga: Transumanismul și inteligența artificială

 

yogaesoteric
12 iulie 2024

 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More