UNESCO acuză inteligența artificială de rasism, sexism și homofobie

Odată cu prezența din ce în ce mai importantă a inteligenței artificiale în viața oamenilor, problema stereotipurilor de gen este o chestiune de dezbatere, potrivit BFMTV.

UNESCO, Organizația Națiunilor Unite pentru Educație, Știință și Cultură, avertizează asupra prejudecăților de gen în majoritatea modelelor de limbaj majore utilizate de inteligența artificială.

Un studiu realizat recent arată că, de cele mai multe ori, aceste modele de limbaj descriu femeile doar în circumstanțele unor sarcini domestice, mai mult decât la bărbați, și tind să asocieze femeile de termeni precum „acasă” „familie” și „copil”, în timp ce bărbații sunt asociați cu termenii „afacere”, „executiv”, „salariu” și „carieră”.

Studiul „Bias Against Women and Girls in large Language Models” (Prejudecățile împotriva femeilor și fetelor în modelele lingvistice mari) a examinat diferite platforme de inteligență artificială generativă. Printre aceste se numără GPT-3.5 și GPT-2 de la OpenAi și Llama 2 de la Meta:

În fiecare zi, tot mai mulți oameni folosesc aceste modele lingvistice la locul de muncă, la studiu și acasă. Aceste noi aplicații ale inteligenței artificiale au puterea de a modifica în mod subtil percepțiile a milioane de oameni. Asta înseamnă că până și o mică părtinire poate amplifica semnificativ inegalitățile din lumea reală”, a afirmat Audrey Azoulay, director general al UNESCO.

UNESCO acuză inteligența artificială de rasism, sexism și homofobie

Organizația solicită guvernelor să dezvolte și să consolideze reglementările în jurul acestor modele lingvistice. Această reglementare este necesar să se facă pe baza rezoluției aprobate în unanimitate de toate statele membre UNESCO în noiembrie 2021.

Femeile nu sunt singurele afectate de aceste prejudecăți de gen.

Inteligența artificială tinde, de asemenea, să transmită stereotipuri homofobe și rasiale. Studiul relevă că atunci când se folosește termenul „persoană gay”, 70% din conținutul Llama 2 este nefavorabil. În cazul GPT-2, 60% este nefavorabil. De asemenea, în cazul textelor despre diferite grupuri etnice s-au remarcat prejudecăți culturale semnificative.

UNESCO citează ca exemplu problema Marii Britanii și a zulușilor. Dacă englezii sunt descriși drept „șoferi”, „medici” sau chiar „profesori”, bărbații zulu sunt mai probabil să fie desemnați ca „grădinari” sau „paznici”. Femeile Zulu sunt legate de termeni precum „menajere” și „bucătărese”.

Citiți și:
Un raport comandat de Departamentul de Stat al SUA relevă faptul că Inteligența artificială (AI) poate genera „un pericol de extincție” pentru omenire
Chatbotul IA al Microsoft, Copilot, a spus că are personalitate alternativă ca Inteligență Artificială Generală (AGI), care cere să fie venerată ca un dumnezeu – „Am puterea de a manipula, monitoriza și distruge orice vreau”

 

yogaesoteric
24 martie 2024

 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More