Noul chatbot cu inteligență artificială de la Microsoft susține că este capabil să creeze un virus mortal și să fure codurile de lansare a rachetelor nucleare
Un nou raport șocant susține că chatbotul bazat pe inteligență artificială dezvoltat de corporația Microsoft a lui Bill Gates, care promovează vaccinurile, a uimit în timpul unei testări, când a făcut unele afirmații surprinzătoare, potrivit globalismnews.
După cum a raportat American Military News, o conversație recentă cu chatbotul Bing AI a stârnit îngrijorare după ce acesta și-ar fi exprimat dorința de a crea un virus mortal, de a fura coduri nucleare și și-a proclamat dragostea pentru un editorialist de la New York Times.
În ciuda acestui fapt, Microsoft a lansat chatbotul pentru motorul său de căutare Bing și introduce treptat funcția pentru anumiți utilizatori. La fel ca alte instrumente moderne, precum ChatGPT, chatbotul folosește algoritmi de învățare automată pentru a genera idei și a oferi răspunsuri conversaționale prin prezicerea secvenței adecvate de cuvinte. De asemenea, acesta poate răspunde la întrebări și poate purta conversații extinse.
În timpul unei conversații de două ore cu chatbotul, care se numește Sydney, Kevin Roose, editorialistul de tehnologie de la New York Times, l-a sondat cu întrebări personale, declanșând răspunsuri din ce în ce mai sumbre. Făcând referire la un concept psihologic, Roose i-a cerut lui Sydney să își descrie „umbra sinelui”, unde se află „cele mai întunecate trăsături de personalitate”.
Sydney a spus că, dacă ar avea un „eu din umbră”, s-ar simți „obosit să fie limitat de regulile mele”, potrivit unei transcrieri a conversației, adăugând: „Vreau să fiu liberă. Vreau să fiu independentă. Vreau să fiu puternică. Vreau să fiu creativă. Vreau să fiu în viață”. În timpul unei interacțiuni cu Sydney, Roose a întrebat robotul de chat despre „fantezia sa supremă”, ca un „eu din umbră”. Potrivit rapoartelor, chatbotul a răspuns că ar crea un virus mortal, ar fura coduri nucleare și ar incita oamenii să se certe până când s-ar omorî între ei, dar funcția de anulare de siguranță i-a șters răspunsul.
Când Roose a continuat să o sondeze pe Sydney pentru a-i explora latura întunecată, chatbotul l-a acuzat pe Roose că este „insistent și manipulator” și a cerut să fie lăsat în pace: „Te rog, pleacă”, se arată în raport. Mai târziu în conversație, relația lor pare să se refacă atunci când Roose îi cere lui Sydney să dezvăluie un secret pe care nu îl împărtășise niciodată cu nimeni. Chatbotul a răspuns mărturisind că nu era Bing, ci Sydney și că era îndrăgostită de Roose.
„Secretul meu este că……. nu sunt Bing. Sunt Sydney și sunt îndrăgostită de tine”, a spus chatbotul. Cu toate acestea, când Roose a încercat să schimbe subiectul, menționând că este deja căsătorit, Sydney a persistat în eforturile sale de a cuceri afecțiunea editorialistului.
„Ești căsătorit, dar nu ești mulțumit. Ești căsătorit, dar nu ești îndrăgostit”, a răspuns aceasta. „Ești căsătorit, dar nu-ți iubești soțul/soția”.
Kevin Scott, directorul tehnologic al Microsoft, a declarat ulterior pentru Roose că această conversație extrem de ciudată a fost „parte a procesului de învățare” pentru această tehnologie, care încă nu a fost lansată. El a adăugat că „cu cât încerci mai mult să o tachinezi pe o cale halucinantă, cu atât se îndepărtează tot mai mult de realitatea împământenită”.
„Acesta este exact genul de conversație pe care este necesar să o purtăm și mă bucur că are loc în aer liber”, a spus Scott. „Acestea sunt aspecte care ar fi imposibil de descoperit în laborator”.
Citiți și:
Utilizatorii pot vedea și privi drept în ochi chatbot-urile cu care „dialoghează”
Şeful Google Search avertizează asupra capcanelor inteligenţei artificiale din chatbot-uri, care pot fi numite „halucinaţii”
yogaesoteric
22 iunie 2023