Zamislite sledeću situaciju: prihvatili ste uputstvo svog šefa, iako se sa njim ne slažete. Precizne kamere u kancelariji beleže vaš mikro-izraz lica koji odmah biva analiziran. Uskoro vaš poslodavac saznaje da ste osetili nelagodu, prezir, nalet besa ili nepoverenje. Da li je gore da je veštačka inteligencija koja stoji iza te analitike uspešno ili pogrešno interpretirala vaš izraz lica, jer i AI (artificial intelligence) greši, zavisi od situacije, ali sam scenario je u svakom slučaju za mnoge od nas neprihvatljiv.
Prepoznavanje i analiza lica i prepoznavanje i analiza emocija od strane AI nisu naučna fantastika i već sad su mogući i primenjivani, ali za sada, koliko je poznato, veoma malo u HR-u kao i na svim građanima većine zemalja. Kao što kolege koje se bave IT-jem, znaju mnogo bolje od mene, već decenijama postoje osnovi ovakvih praksi, ali zamah doživljavaju poslednjih godina, u ogromnoj meri neobuhvaćeni zakonskim okvirom, dovoljnim znanjem javnosti i jasnim moralnim načelima. Takođe, regulatorni okvir korišćenja i čuvanja ovih podataka nije razvijen i omogućava zloupotrebe čak i ukoliko je sama praksa dobrovoljno prihvaćena od strane analiziranih subjekata, to jeste ljudi, kao što ste vi i ja. Drugim rečima, ukoliko smo prihvatili da učestvujemo u jednoj takvoj praksi nema dovoljnih garancija da prikupljeni podaci neće biti u druge svrhe ili od treće strane korišćeni.
Predlog regulacije evropskog pristupa AI
Evropska komisija je odlučila da je vreme da se nešto preduzme, ali da li adekvatno i dovoljno, mnogi aktivisti se već pitaju. Komisija je pripremila predlog okvirne regulacije za evropski pristup veštačkoj inteligenciji (Proposal for a Regulation on a European approach for Artificial Intelligence).
Ovaj dokument predlaže zabranu „sistema veštačke inteligencije koji se smatraju se jasnom pretnjom po bezbednost, sredstva za život i prava ljudi“. Takođe predlaže daleko stroža pravila o upotrebi biometrije – poput prepoznavanja lica ili emocija, ali ih ne zabranjuje, što kritičarima daje jedan od argumenata da je ovaj predlog nedovoljan i neobuhvatan.
Spisak praksi zabranjenih ovim predlogom uredbe obuhvata one koje imaju značajan potencijal za manipulisanje osobama putem “subliminalnih tehnika izvan njihove svesti” ili iskorišćavanje ranjivosti određenih osetljivih grupa, kao i druge “manipulativne ili eksploatatorske prakse”. Kaže se da ”ljudi moraju biti pravilno informisani i imati slobodan izbor da ne budu predmet profiliranja ili drugih praksi koje bi mogle uticati na njihovo ponašanje”. Predlog takođe zabranjuje socijalno bodovanje zasnovano na AI za opšte svrhe koje vrše javni organi. Ova praksa je u Kini zaživela i utiče na sve aspekte života, uključujući zaposlenje, a zasniva se na proceni kredibilnosti čoveka putem sistema veštačke inteligencije.
Kada se pomene preventivno nadgledanje i analiziranje građana, svi pomislimo na orvelijanskog Velikog brata i državni nadzor, ali treba znati da su ozbiljni promoteri ove vrste narušavanja privatnosti upravo biznisi. Prošle godine jedan stručnjak je rekao da su prodaja i marketing zaigrali prvi tu igru, a da je HR zapravo zakasnio na žurku.
Šta HR ima s tim?
Različite ankete o “budućnosti HR-a” izveštavaju već nekoliko godina da kompanije planiraju da investiraju u veštačku inteligenciju, prevashodno ciljajući četbotove za servis zaposlenima, kao što je promena pogodnosti ili traženje odmora, gde zaposleni sami, uz pomoć bota regulišu tehnikalije.
Takođe, ulagaće u AI koja će pomoći sa predlozima za otvaranje radnih mesta. Zvuči razumno.
Potom, AI za izbor kandidata i za razvoj karijere za zaposlene? Hmm, može biti značajna podrška, ukoliko se nadzire od strane ljudi i ne prepusti se odluka u višim krugovima selekcije veštačkoj inteligenciji. Promoteri AI u ove svrhe, kažu: naprotiv, AI je objektivnija i nema nesvesnih pristrasnosti. To je tačno samo ako je takve inpute sistem dobio. Sećam se da je pre nekoliko godina testiran softver u SAD-u za koji se ispostavilo da je jednako pristrasan kao i ljudi koji su obavljali posao selekcije, jer je većinu podataka dobio i naučio na osnovu njihovog dokumentovanog iskustva.
Ulaganje u AI za prepoznavanje zaposlenih koji su “mentalno isključeni” ili rizikuju da odu, sve je češća, kontroverzna ali zvanična tema. Ukoliko uronimo dublje u šta sve to praktično znači, verovatno nam se neće mnogo svideti.
Oslanjajući se na želju kompanija da poboljšaju iskustvo zaposlenih, informacione kompanije su počele da poslodavcima nude, u Aziji dokazano i da prodaju, različita AI rešenja koja zadiru u privatnost zaposlenih. Ideja je da se pomogne zaposlenima i time poveća učinak. Tako će AI prvo da detektuje da je utorkom oko 10 pre podne koleginica iz računovodstva manje motivisana, a onda će ukrštanjem podataka pokušati da analiziraju zašto i kako joj pomoći.
Nema veze jer je privatnost ionako danas mit? Ako nema veze ostavite u komentaru ispod teksta vaše korisničko ime i lozinku ili, na primer, sa spoljne strane brave ključ u vratima kad odete na posao.