Şeful Google Search avertizează asupra capcanelor inteligenţei artificiale din chatbot-uri, care pot fi numite „halucinaţii”

Şeful Google Search a avertizat asupra capcanelor inteligenţei artificiale în chatbot-uri, în timp ce compania-mamă Google Alphabet luptă pentru a concura cu aplicaţia de succes ChatGPT.

Acest tip de inteligenţă artificială despre care vorbim acum poate duce uneori la ceva ce numim halucinaţii. Este ceea ce se petrece atunci când o maşină oferă un răspuns convingător, dar complet inventat”, a declarat Prabhakar Raghavan, vicepreşedinte senior la Google şi şeful Google Search, pentru ziarul german Welt am Sonntag.

Una dintre sarcinile fundamentale, a adăugat el, este menţinerea acestui tip de inteligenţă artificială la minimum.

Google a rămas în urmă după ce OpenAI, un startup susţinut de Microsoft cu aproximativ 10 miliarde de dolari, a introdus în noiembrie ChatGPT, care de atunci a uimit utilizatorii cu răspunsurile sale uimitor de umane la întrebările utilizatorilor.

Alphabet a prezentat Bard, propriul său chatbot, la finalul lunii ianuarie, dar software-ul a afişat informaţii inexacte într-un videoclip promoţional, o gafă care a costat compania 100 de miliarde de dolari din valoarea sa de piaţă.

Alphabet, care încă efectuează teste pentru utilizatori pe Bard, nu a indicat momentul când aplicaţia ar putea deveni publică.

În mod evident, simţim urgenţa, dar simţim şi o mare responsabilitate. Cu siguranţă nu vrem să inducem publicul în eroare”, a spus Raghavan.

Citiți și:
CheatGPT
Insurgența artificială a ChatGPT a compus un poem elogios despre Biden, dar despre Trump a refuzat, explicând că a fost „programată să nu facă politică și să fie imparțială”
Problemele generate de ChatGPT (roboții IA) și cum să răspundeți provocării

 

yogaesoteric
17 martie 2023

 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More