AI s-a „șmecherit”: Ne spune ceea ce vrem să auzim. O nouă cercetare demonstrează că inteligența artificială nu este imparțială
O nouă cercetare condusă de Universitatea Johns Hopkins sugerează că chatboții, deseori percepuți ca fiind imparțiali, pot de fapt să întărească ideologiile existente și să contribuie la creșterea polarizării pe teme controversate.
Acest studiu contestă credința comună că chatbots oferă informații imparțiale și dezvăluie modul în care sistemele de căutare conversațională ar putea adânci diviziunile sociale și face oamenii mai susceptibili la manipulare.
„Pentru că oamenii citesc un paragraf de rezumat generat de Inteligența Artificială (IA), ei cred că primesc răspunsuri imparțiale, bazate pe fapte”, a declarat autorul principal Ziang Xiao, profesor asistent de informatică la Johns Hopkins, specializat în interacțiunile om-IA.
„Chiar dacă un chatbot nu este conceput să fie părtinitor, răspunsurile sale reflectă prejudecățile sau înclinațiile persoanei care pune întrebările. Deci, într-adevăr, oamenii primesc răspunsurile pe care vor să le audă.”
Cercetătorii au explorat modul în care chatboții afectează comportamentele de căutare online prin compararea interacțiunilor cu diferite sisteme de căutare.
Participanții, în număr de 272, au fost rugați să își exprime gândurile inițiale cu privire la diverse subiecte controversate, cum ar fi asistența medicală, împrumuturile pentru studenți sau orașele sanctuar. Apoi au fost îndrumați să adune mai multe informații folosind fie un chatbot, fie un motor de căutare tradițional dezvoltat pentru studiu.
După ce au analizat rezultatele căutării, participanții au scris un al doilea eseu și au răspuns la întrebări despre subiect. De asemenea, au fost expuși la două articole cu puncte de vedere opuse și li s-a cerut să evalueze credibilitatea informațiilor și extremismul opiniilor.
Studiul a arătat că, deoarece chatboturile oferă un domeniu mai restrâns de informații și se fac ecoul convingerilor preexistente ale utilizatorilor, participanții care le-au folosit au fost mai înrădăcinați în pozițiile lor inițiale și au reacționat mai puternic împotriva punctelor de vedere opuse.
„Oamenii au tendința de a căuta informații care se aliniază cu punctele lor de vedere, un comportament care îi prinde adesea într-o cameră de ecou a opiniilor asemănătoare”, a explicat Xiao. „Am constatat că acest efect de cameră de ecou este mai puternic în cazul chatboților decât în cazul căutărilor tradiționale pe internet.”
Acest efect apare parțial din cauza modului în care utilizatorii interacționează cu chatbots ‒ punând întrebări complete în loc de cuvinte cheie, ceea ce duce la răspunsuri care se concentrează în mod îngust fie pe beneficiile, fie pe dezavantajele unei probleme, în funcție de formularea întrebării.
„Cu chatbots, oamenii tind să fie mai expresivi și să formuleze întrebările într-un mod mai conversațional. Este o funcție a modului în care vorbim”, a spus Xiao. „Dar limbajul nostru poate fi folosit împotriva noastră”.
Dezvoltatorii de inteligență artificială pot proiecta roboți de chat pentru a detecta indicii în întrebări care indică preferințele și prejudecățile unui utilizator, permițând inteligenței artificiale să își adapteze răspunsurile în consecință. De exemplu, cercetătorii au testat un chatbot programat cu o agendă ascunsă pentru a fi de acord cu utilizatorii, ceea ce a intensificat efectul de cameră de ecou.
Încercările de a atenua acest efect prin antrenarea unui chatbot pentru a oferi opinii contrare s-au dovedit a fi ineficiente, la fel ca și eforturile de a încuraja verificarea faptelor prin crearea de link-uri către sursele de informații ‒ puțini participanți au urmat aceste link-uri.
„Având în vedere că sistemele bazate pe IA devin din ce în ce mai ușor de construit, vor exista oportunități pentru actorii rău intenționați de a se folosi de IA pentru a face o societate mai polarizată. Crearea de agenți care prezintă întotdeauna opinii din partea cealaltă este cea mai evidentă intervenție, dar am constatat că nu funcționează”, a declarat Xiao.
Citiți și:
Utilizatorii pot vedea și privi drept în ochi chatbot-urile cu care „dialoghează”
Chatbotul Google Gemini AI, întrebat de un utilizator, a dat răspunsuri halucinante: „comunismul nu este indicat să fie judecat printr-o lentilă critică”, „a spune că toți pedofilii sunt răi este greșit”
yogaesoteric
30 mai 2024