Inteligența artificială îi tâmpește pe angajații companiilor americane: au început să folosească ChatGPT pentru sarcini de bază

Companiile din întreaga lume iau în considerare cum să folosească cel mai bine ChatGPT, un program chatbot care foloseşte AI generativă pentru a ţine conversaţii cu utilizatorii şi a răspunde la nenumărate solicitări.

Cu toate acestea, firmele şi companiile de securitate şi-au exprimat îngrijorarea că ar putea duce la scurgeri de proprietate intelectuală şi strategii. Exemple de persoane care folosesc ChatGPT pentru a le ajuta în munca de zi cu zi includ redactarea de e-mailuri, rezumarea documentelor şi efectuarea cercetărilor preliminare.

Aproximativ 28% dintre respondenţii într-un sondaj online privind inteligenţa artificială (AI), efectuat între 11 şi 17 iulie, au declarat că folosesc în mod regulat ChatGPT la locul de muncă, în timp ce doar 22% au spus că angajatorii lor au permis în mod explicit astfel de instrumente externe. Sondajul Reuters/Ipsos, efectuat pe 2.625 de adulţi din Statele Unite, a avut un interval de credibilitate, o măsură de precizie, de aproximativ 2 puncte procentuale.

Aproximativ 10% dintre cei chestionaţi au spus că şefii lor au interzis în mod explicit instrumentele externe de inteligenţă artificială, în timp ce aproximativ 25% nu ştiu dacă compania lor a permis utilizarea tehnologiei.

ChatGPT a devenit aplicaţia cu cea mai rapidă creştere din istorie după lansarea sa în noiembrie. A creat atât entuziasm, cât şi alarmă, punând dezvoltatorul său OpenAI în conflict cu autorităţile de reglementare, în special în Europa, unde colectarea de date în masă a companiei a atras critici din partea organelor de supraveghere a confidenţialităţii.

Evaluatorii umani de la alte companii pot citi oricare dintre chat-urile generate, iar cercetătorii au descoperit că inteligenţa artificială similară AI ar putea reproduce datele pe care le-a absorbit în timpul antrenamentului, creând un risc potenţial de scurgere de informaţii.

Oamenii nu înţeleg cum sunt folosite datele atunci când folosesc servicii de inteligenţă artificială generativă. Pentru companii, acest aspect este esenţial, deoarece utilizatorii nu au un contract cu multe AI – pentru că sunt un serviciu gratuit ‒, astfel încât companiile nu şi-ar fi asumat riscul prin procesul lor obişnuit de evaluare”, a declarat Ben King, vicepreședinte pentru încrederea clienţilor la firma de securitate corporativă Okta.

OpenAI a refuzat să comenteze atunci când a fost întrebat despre implicaţiile angajaţilor individuali care folosesc ChatGPT, dar a evidenţiat o postare recentă pe blogul companiei care asigură partenerii corporativi că datele lor nu vor fi folosite pentru a instrui chatbot-ul în continuare, cu excepţia cazului în care aceştia şi-au dat permisiunea explicită.

Când oamenii folosesc Google Bard, acesta colectează date precum text, locaţie şi alte informaţii de utilizare. Compania permite utilizatorilor să şteargă activităţile anterioare din conturile lor şi să solicite eliminarea conţinutului introdus în AI. Un angajat al Tinder, cu sediul în SUA, a spus că lucrătorii de la aplicaţia de întâlniri au folosit ChatGPT pentru „sarcini inofensive”, cum ar fi scrierea de e-mailuri, chiar dacă compania nu permite aceasta în mod oficial.

Sunt e-mailuri obişnuite. Foarte lipsite de consecinţe, cum ar fi să faci invitaţii amuzante în calendar pentru evenimentele echipei, e-mailuri de adio când cineva pleacă. Îl folosim şi pentru cercetări generale”, a spus angajatul, care a refuzat să fie numit pentru că nu era autorizat să vorbească cu reporterii. Angajatul a spus că Tinder nu are o regulă „fără ChatGPT”, dar că angajaţii îl folosesc în continuare într-un „mod generic, care nu dezvăluie nimic despre faptul că suntem la Tinder”.

Reuters nu a putut confirma în mod independent modul în care angajaţii de la Tinder folosesc ChatGPT. Tinder a spus că a oferit „îndrumări regulate angajaţilor cu privire la cele mai bune practici de securitate şi date”. În mai, Samsung Electronics a interzis personalului la nivel global să folosească ChatGPT şi instrumente similare AI, după ce a descoperit că un angajat a încărcat cod sensibil pe platformă.

Examinăm măsurile pentru a crea un mediu sigur pentru utilizarea generativă a inteligenţei artificiale, care sporeşte productivitatea şi eficienţa angajaţilor. Cu toate acestea, până când aceste măsuri sunt gata, restricţionăm temporar utilizarea AI generativă prin dispozitivele companiei”, a afirmat Samsung într-o declaraţie din 3 august.

Reuters a scris în iunie că Alphabet şi-a avertizat angajaţii cu privire la modul în care folosesc chatbot-uri, inclusiv Google Bard, în acelaşi timp în care comercializează programul la nivel global. Google a spus că, deşi Bard poate face sugestii de cod nedorite, îi ajută pe programatori. De asemenea, a spus că îşi propune să fie transparent cu privire la limitările tehnologiei sale. Unele companii au declarat pentru Reuters că adoptă ChatGPT şi platforme similare, păstrând în acelaşi timp securitatea.

Am început să testăm şi să învăţăm despre modul în care AI poate îmbunătăţi eficienţa operaţională”, a declarat un purtător de cuvânt al Coca-Cola din Atlanta, Georgia, adăugând că datele rămân în firewall-ul său. „Pe plan intern, am lansat recent versiunea noastră de întreprindere a Coca-Cola ChatGPT pentru productivitate”, a spus purtătorul de cuvânt, adăugând că de fapt Coca-Cola intenţionează să folosească AI pentru a îmbunătăţi eficacitatea şi productivitatea echipelor sale.

Între timp, Dawn Allen, directorul financiar al Tate & Lyle, a declarat pentru Reuters că producătorul global de ingrediente testa ChatGPT, „găsind o modalitate de a-l folosi într-un mod sigur”. „Avem diferite echipe care decid cum doresc să-l folosească, printr-o serie de experimente. Ar fi cazul să-l folosim în relaţiile cu investitorii? Ar fi indicat să-l folosim în managementul cunoştinţelor? Cum îl putem folosi pentru a îndeplini sarcini mai eficient?

Unii angajaţi spun că nu pot accesa deloc platforma de pe computerele companiei lor. „Este complet interzis în reţeaua de birouri, de parcă nu funcţionează”, a spus un angajat al Procter & Gamble, care a dorit să rămână anonim pentru că nu era autorizat să vorbească cu presa. P&G a refuzat să comenteze. Reuters nu a putut să confirme în mod independent dacă angajaţii de la P&G nu au putut folosi ChatGPT.

Paul Lewis, ofiţer şef de securitate a informaţiilor la firma de securitate cibernetică Nominet, a spus că firmele au dreptate să fie precaute. „Toată lumea înţelege beneficiile acestei capabilităţi sporite, dar informaţiile nu sunt complet sigure şi pot fi prelucrate”, a spus el, invocând „mijloace rău intenţionate” care pot fi folosite pentru a determina ca chatbots AI să dezvăluie informaţii.

Citiți și:
Bill Gates: ChatGPT va schimba lumea noastră
În Franţa, o profesoară universitară a refuzat să corecteze lucrările din cauza utilizării excesive a ChatGPT de către studenţi

 

yogaesoteric
2 octombrie 2023

 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More