Maşinile vor decide dacă suntem vinovaţi. Se fac mari demersuri pentru implementarea software-ului bazat pe inteligență artificială

 

Prinderea infractorilor înainte de a săvârşi delictele nu mai este astăzi doar un concept de domeniul ştiinţifico-fantastic. China, oraşe din SUA şi din Marea Britanie fac eforturi pentru a-l transforma în realitate, cu ajutorul inteligenţei artificiale.

Dacă în filmul „Raport Special” (Minority Report) din 2002, de prevenirea infracţiunilor se ocupau câţiva mutanţi clarvăzători, autorităţile chineze folosesc în acelaşi scop tehnologii precum analiza predictivă şi recunoaşterea facială.

Una dintre companiile cu care colaborează autorităţile chineze este Cloud Walk din Guangzhou, care dezvoltă tehnologie de recunoaştere facială. Cloud Walk a dezvoltat un sistem prin care se evaluează, pe baza datelor, posibilitatea ca o persoană să comită o infracţiune. De exemplu, cei care vizitează frecvent magazine de arme sunt etichetaţi de sistem cu „risc ridicat”.

„Dacă o persoană cumpăra un cuţit de bucătărie este în regulă, dar dacă aceeaşi persoană cumpăra mai târziu un sac şi un ciocan, devine suspectă”, a explicat un reprezentant al companiei. Software-ul avertizează autorităţile când riscul de a comite o infracţiune devine ridicat în cazul unui cetăţean.

China este locul ideal pentru folosirea unor astfel de tehnologii. Guvernul deţine o arhivă uriaşă de date despre cetăţeni, colectate inclusiv cu ajutorul celor peste 176 de milioane de camere de supraveghere din această ţară.

Fără a întrebuinţa un volum la fel de generos de date, poliţia americană foloseşte algoritmi pentru a prinde potenţiali infractori. În secţii de poliţie din mai multe oraşe din SUA este utilizat un software, PredPol, pentru a identifica locul şi momentul în care ar putea fi săvârşit un delict, precum şi potenţialii infractori şi victime, notează Washington Post. PredPol este dezvoltat de Departamentul de poliţie din Los Angeles în colaborare cu câteva universităţi locale şi foloseşte algoritmi care prelucrează date despre infracţiuni deja comise, pentru a crea un fel de hartă cu posibile focare. Această metodă a generat dezbateri cu privire la impactul asupra minorităţilor şi a grupurilor defavorizate şi la implicaţiile asupra libertăţilor civile.

Şi poliţia din Durham, Marea Britanie, încearcă să creeze o societate de tip Minority Report. Oamenii legii au testat un sistem de inteligenţă artificială, Harm Assessment Risk Tool (Hart), care este folosit pentru a decide dacă un suspect ar fi necesar sau nu să fie reţinut. Suspecţii pot fi încadraţi la risc scăzut, mediu sau ridicat, potrivit BBC. Sistemul a fost testat în 2013, pe baza datelor colectate de poliţie pe parcursul a cinci ani, iar rezultatele au fost monitorizate în următorii doi ani, rezultând că predicţiile au fost corecte în 98% dintre cazurile evaluate cu risc scăzut şi în 88% dintre cele cu risc ridicat. Acest fapt arată că sistemul este mai înclinat să încadreze un suspect la risc mediu sau ridicat decât la risc scăzut.

Chiar dacă astfel de instrumente de evaluare a riscului pot îmbunătăţi activitatea departamentelor de poliţie, o investigaţie publicată de ProPublica, a demonstrat că acestea manifestă deocamdată, la fel ca oamenii, tendinţe părtinitoare.


Citiţi şi:

Software de inteligenţă artificială folosit în Japonia pentru prinderea hoţilor din magazine

Atenționare: inteligenţa artificială poate reconfigura ordinea globală. Riscul autoritarismului digital

 

yogaesoteric
29 ianuarie 2020


 

Also available in: Français

Spune ce crezi

Adresa de email nu va fi publicata

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More