S-a declanșat cursa pentru controlul inteligenței artificiale
Directori executivi și oameni de știință de la companii precum OpenAI, DeepMind de la Google, Anthropic și Microsoft, au invocat amenințarea „eradicării umane” din cauza inteligenței artificiale. Mesajul lor a ajuns pe prima pagină a ziarelor din întreaga lume.
Ceea ce i-a determinat pe toți acești experți să vorbească a fost promisiunea, dar și riscul inteligenței artificiale generative, un tip de tehnologie care poate procesa și genera cantități uriașe de date.
Lansarea ChatGPT de către OpenAI în luna noiembrie a anului trecut a stârnit un val de entuziasm febril, deoarece a demonstrat capacitatea modelelor lingvistice de mari dimensiuni, tehnologia care se află la baza chatbotului.
Agitația din jurul acestei tehnologii a dus, de asemenea, la o mai mare conștientizare a pericolelor sale: potențialul de a crea și de a răspândi dezinformări; capacitatea de a modifica locurile de muncă; și riscul, mai puțin imediat, de a deveni mai inteligentă decât oamenii și de a-i înlocui.
Reglementare în funcție de regiune
Autoritățile de reglementare au exprimat cu voce tare necesitatea ca IA să fie controlată, dar ideile privind modul de reglementare a modelelor și a creatorilor acestora au fost foarte divergente în funcție de regiune.
UE a elaborat un proiect de măsuri stricte privind utilizarea inteligenței artificiale, care ar impune companiilor de tehnologie să se asigure că modelele lor nu încalcă normele.
Acestea au acționat mult mai rapid decât SUA, unde legislatorii pregătesc o revizuire amplă a IA pentru a determina mai întâi ce elemente ale tehnologiei ar putea face obiectul unei noi reglementări și ce poate fi acoperit de legile existente.
Între timp, Regatul Unit urmărește să se folosească de noua sa poziție în afara UE pentru a-și modela propriul regim mai flexibil, care ar reglementa aplicațiile de inteligență artificială în funcție de sector, mai degrabă decât software-ul care se află la baza acestora.
Potrivit Financial Times, cele mai stricte restricții asupra creatorilor de inteligență artificială ar putea fi introduse de China, care urmărește să echilibreze obiectivele între controlul informațiilor divizate de modelele generative și competiția în cursa tehnologică cu SUA.
Aceste abordări extrem de divergente riscă să blocheze industria IA în birocrație, deoarece regimurile locale este necesar să fie aliniate cu cele ale altor țări pentru ca tehnologia – care nu este limitată de frontiere – să poată fi controlată pe deplin.
Dar fiecare regiune are propriile idei fixe cu privire la cea mai bună modalitate de reglementare a IA – iar experții avertizează că, pe măsură ce tehnologia se răspândește rapid în uzul comun, timpul pentru a ajunge la un consens este deja pe sfârșite.
„Este nevoie de o acțiune internațională mai concertată, deoarece consecințele răspândirii IA generative nu sunt naționale, ci globale”, a avertizat OCDE.
Efectul Bruxelles
În mod caracteristic, UE a fost prima care a sărit în sus cu legea sa privind IA, care se așteaptă să fie aprobată în totalitate până la sfârșitul anului.
Acest demers poate fi considerat o tentativă de a stabili un model pe care alte țări să îl imite, în stilul Regulamentului general european privind protecția datelor.
Dar a stârnit nemulțumirea multor companii tehnologice, care au avertizat Comisia Europeană despre destrămarea competiției în UE.
China versus SUA
În ciuda temerilor legate de legislația din Europa, unii susțin că cei mai mari jucători din industrie acordă mai multă atenție la ceea ce fac superputerile rivale ale lumii.
„Cursa este între SUA și China”, spune Wendy Hall, profesor de informatică la Universitatea din Southampton. „Europa, fie că vorbim de UE sau de Regatul Unit, nu are niciun control asupra acestor companii, în afară de faptul că doresc să facă comerț în Europa. Suntem foarte dependenți de ceea ce fac guvernele din China sau SUA în ceea ce privește reglementarea companiilor IA în general.”
China a introdus reglementări specifice pentru diverse tehnologii noi, inclusiv algoritmi de recomandare și inteligența artificială generativă, și se pregătește să elaboreze o lege națională mai amplă privind inteligența artificială în următorii ani.
Între timp, SUA au lăsat până acum industria să se autoreglementeze, Microsoft, OpenAI, Google, Amazon și Meta semnând un set de angajamente voluntare la Casa Albă în luna iulie.
Aceste angajamente includ testarea internă și externă a sistemelor de inteligență artificială înainte ca acestea să fie făcute publice, ajutarea oamenilor să identifice conținutul generat de inteligența artificială și o mai mare transparență în ceea ce privește capacitățile și limitările sistemelor.
Va mai trece ceva timp până când industria IA va fi supusă unor niveluri semnificative de control. Chiar și legea UE privind IA, care este cea mai aproape de a fi finalizată, include o perioadă de grație de aproximativ doi ani de la intrarea în vigoare pentru ca jucătorii din industrie să se adapteze.
Însă stabilirea conformității între regiuni va fi dificilă, având în vedere lipsa unui teren de reglementare comun. Companiile vor fi nevoite să examineze cu atenție modul în care vor opera pe anumite piețe și dacă va fi necesar să conceapă modele diferite sau să ofere servicii diferite pentru a se conforma într-o anumită regiune.
Citiți și:
Inteligența artificială acaparează domeniul armelor nucleare
Guvernul SUA folosește Inteligența Artificială pentru a detecta „crimă-gânditul” pe rețelele de comunicare virtuală
yogaesoteric
16 octombrie 2023