Ultimele idei vigilantiste aduc laolaltă orwellianul ‘1984’ și serialul ‘The Office’


Cercetătorii vor să folosească mijloace de supraveghere la distanță, gen Alexa, pentru a combate „microagresiunile” la locul de muncă. Terifiant.

Nici n-apuci bine să-ți planifici viitoarea vacanță, că dacă dai clic pe Facebook îți apar în față reclame pentru hoteluri și zboruri ieftine. Coincidență? Desigur. Dar ce zici de boxa inteligentă de la tine din bucătărie? Nu doar că pune muzică și-ți dă prognoza meteo la cerere. Dar aude și despre proviziile pe care e nevoie să le refaci în cămară, despre vizita planificată cu pisica la veterinar și, bineînțeles, despre planurile tale de vacanță.

Acum imaginează-ți ce-ar putea face la locul tău de muncă un asemenea dispozitiv de ascultare. Conversația șoptită despre dificultățile întâmpinate în ultimul tău proiect este automat raportată managerului tău. Jumătatea de oră petrecută discutând despre aranjamentele privind îngrijirea copilului este trimisă la Resurse Umane. Dar ceea ce nu le spui? Colegul pe care nu-l saluți dimineața, colega pe care n-o inviți niciodată să-și bea ceaiul cu tine? Și aceste non-conversații sunt de asemenea observate și puse la păstrare, pentru a fi discutate cu ocazia următoarei tale evaluări de personal.

Dacă cercetătorii de la Northeastern University își impun punctul de vedere, într-o zi nu foarte îndepărtată când vom merge la muncă, nu doar vorbele, ci și gândurile și sentimentele noastre vor fi monitorizate și analizate de un dispozitiv de ascultare exact la fel ca boxa inteligentă de la tine din bucătărie. Profesorii asociați Christoph Riedl și Brooke Foucault Welles sunt beneficiarii unei finanțări nerambursabile de 1,5 milioane de dolari, oferite de Laboratorul de Cercetare al Armatei SUA pentru a dezvolta tocmai un asemenea dispozitiv. Cei doi vor petrece următorii trei ani studiind modul în care echipele interacționează unele cu altele și cu dispozitivele inteligente, „utilizând o combinație între teoriile științelor sociale, învățarea cibernetică automată și senzori audiovizuali și fiziologici”. Un obiectiv-cheie al produsului lor final va fi acela de a asigura „incluziunea egală a tuturor membrilor echipelor”.

Acestei mașini încă neinventate îi este deja anunțat potențialul de a revoluționa egalitatea și diversitatea în mediul profesional, alertându-i pe utilizatori asupra situațiilor de „prejudecată implicită”. Mașina va înregistra indicii verbale și nonverbale, precum și „semnale fiziologice” schimbate între membrii unei echipe. Apoi, după ce va fi notat și analizat toate aceste minuscule interacțiuni și non-interacțiuni, boxa inteligentă va face recomandări pentru îmbunătățirea incluzivității și a productivității.

Pentru orice om normal la cap, nu poate fi decât o perspectivă terifiantă – și nu din cauză că ne-am duce în fiecare zi la birou disperați să-i copleșim pe colegii noștri cu răutăți rasiste și sexiste, ci tocmai dimpotrivă: vrem să ne vedem liniștiți de munca noastră și să ne înțelegem bine cu colegii de muncă. Știm că o mașină de spionat, care ține sub observație, ascultă, monitorizează și sfătuiește, este mult mai susceptibilă să ne întrerupă activitatea și să alimenteze dezacordul decât să sporească productivitatea.

Cercetătorii de la Northeastern vor ca dispozitivul lor să joace un rol în abordarea „prejudecăților implicite”, pe care ei le definesc ca fiind „asociațiile automate și deseori neintenționate pe care oamenii le au în conştiinţa lor despre grupuri de oameni”. Prejudecata implicită ar fi, cu alte cuvinte, conținutul subconștientului nostru, gândurile și sentimentele pe care nu ni le-am formulat în cuvinte, și poate chiar nici nu le-am conştientizat, și care s-ar părea că ne influențează interacțiunile cu ceilalți. Aici sunt multe de comentat. Dacă gândurile noastre subconștiente nu sunt formulate, atunci cum ar putea vreo mașină sau vreun test online să pretindă că are acces la ele?! Și chiar dacă gândurile și sentimentele noastre cele mai intime chiar pot fi măsurate cu exactitate – ce importanță are? Când vine vorba să apreciem dacă există sau nu discriminare, nu cumva faptele noastre și vorbele pe care le rostim efectiv cu voce tare ar fi necesar să fie mai semnificative decât ceea ce doar gândim sau nu?

Organizațiile urmează calea pe care o indică universitățile. Peste 100 de colegii au acum ceea ce se cheamă „Echipe de Reacție Antiprejudecată”, care își propun să ofere „sfaturi și susținere oricărei persoane din campus care a trecut personal prin experiența unui incident având la bază o prejudecată ori discriminarea sau a asistat la un asemenea incident”. Neavând putința să citească gândurile, Echipele de Reacție Antiprejudecată recurg la vânătoarea de „microagresiuni”. Ia să-ți întrebi un coleg de unde este, să prezumi că cineva este de un anumit gen (adică sex – n.n.) sau să rogi un coleg asiatic să te ajute la matematică – și Echipa de Reacție Antiprejudecată va da năvală să apere victima și să-l reeduce pe făptaș.

Avântul în direcția supravegherii oamenilor la locul de activitate sugerează că aceste „politici de campus” au pătruns și în sfera organizațională. Acum suntem toți studenți, mai degrabă decât colegi cu interese în comun. Ni se cere să privim mediul în care lucrăm ca pe unul divizat, și nu între un patron care dorește să facă profit și niște angajați care muncesc din greu, ci între asupritori – hai să nu ne mai ascundem după deget: bărbați albi și heterosexuali – și asupriți – toți ceilalți. Aceste mașini vor fi incubatoare de nemulțumire, semănând discordie acolo unde nici nu se pomenea așa ceva înainte.

Necesitatea percepută a unei boxe inteligente dă de înțeles că oamenii nu pot să-și rezolve singuri problemele. Cercetătorii întreabă: „Dar dacă un dispozitiv inteligent, la fel ca Alexa de la Amazon, ar putea să atragă atenția atunci când șeful vostru a omis să țină cont de o colegă în luarea unei decizii sau când a făcut-o pe colega voastră să simtă că punctul ei de vedere nu este prețuit?”. Hai să lăsăm deoparte, deocamdată, imposibilitatea ca o mașină să știe ce simte un angajat sau o angajată. De ce este nevoie să presupunem aprioric că o femeie nu e în stare să-și spună cu voce tare părerea și să-și facă cunoscut punctul de vedere? Exemplul colegei victimizate sugerează că inventatorii de la Northeastern se prea poate să aibă ei înșiși propriile „prejudecăți implicite”.

Recursul la mașini care să ne monitorizeze contactul vizual cu colegii și care să observe ce spunem și ce nu spunem este un gest care infantilizează și incapacitează. Ne reduce pe toți la nivelul unor copii mici care au nevoie de permanentă supraveghere. Ceea ce nu e bine nici pentru patroni, nici pentru angajații care vor să-și vadă de treabă. Nu ne rămâne decât să sperăm că dispozitivul-spion cu calități de incubator al nemulțumirilor nu va ajunge să vadă lumina zilei – sau măcar că va avea un buton de la care să poată fi oprit.

Citiţi şi:
Inteligența artificială – Calul Troian al erei digitale?
Difuzoarele inteligente de la Google, prinse că ascultă mai mult decât ar fi necesar. Detaliul care le-a dat de gol

yogaesoteric
18 septembrie 2020

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More