Biometrijski podaci, genetski podaci i podaci o emocijama

Piše: Nasir Muftić

Ljudi su kroz historiju težili razumijevanju sebe i svijeta oko sebe. U našim naporima da otkrijemo više o tome ko smo i olakšamo svoje živote, razvili smo tehnologije koje ne samo da prate naše fizičke karakteristike, već sve više ulaze u područje naših emocija, misli i unutrašnjih stanja. Takve informacije o pojedincu, tj. lični podaci, po svojoj prirodi otkrivaju intimne detalje o osobi o kojoj je riječ, čineći je izloženom.

Međutim, nisu svi lični podaci isti i među njima postoji razlika u pogledu rizika koje mogu stvoriti. Na primjer, podaci o nečijem imenu i prezimenu u pravilu nisu toliko osjetljivi kao što su podaci o nečijoj seksualnoj orijentaciji, iako i to, naravno, zavisi od konteksta u kojem se oni otkrivaju. Pravo EU ovo prepoznaje i neke vrste ličnih podataka naziva posebnim kategorijama i normira ih drugačije, uvažavajući veći stepen zaštite koji njihovi nosioci moraju imati. GDPR (Opća uredba o zaštiti ličnih podataka u EU) kao pravilo navodi zabranu obrade ovih podataka, a izuzetno je dozvoljava ako postoji izričita saglasnost nosioca podataka, ili je nužno za ispunjenje nekog višeg cija kao što je vođenje sudskog postupka, u medicinske svrhe, radi zaštite javnog interesa i nekoliko drugih situacijama.

Poseban status unutar ove uske grupe imaju biometrijski podaci i genetski podaci. Oni su, u osnovi, jedinstveni fizički signali koje naše tijelo emitira – neponovljivi i nepromjenjivi markeri identiteta. To bi bili podaci o ritmu otkucaja našeg srca, DNK, specifičnosti našeg lica i različitim drugim obilježjima koja nas otkrivaju onima koji te podatke imaju. Oni otkrivaju naše zdravstveno stanje, psihički odnos prema određenim fenomenima ili nas individualiziraju u odnosu na ostale ljude.

Biometrijski podaci su postali redovni alat u različitim aspektima naših života i široko su rasprostranjeni. Sa njima se suočavamo na aerodromima, gdje je analiza lica redovna sigurnosna mjera i prilikom korištenja pametnih telefona koji koriste prepoznavanje lica. Međutim, dok biometrija omogućava veću sigurnost i praktičnost, ona također postavlja ozbiljna pitanja o privatnosti i nadzoru. Na primjer, u autoritarnim režimima, biometrijski podaci koriste se za nadzor populacije, omogućavajući državi da prati građane i kazni ih za “nepoželjno” ponašanje. Genetski podaci se odnose na na naslijeđena ili stečena genetska obilježja pojedinca koja daju uvid u zdravstveno stanje, a dobijaju se analizom biološkog uzorka. Redovna praksa širom Evrope je da osoba mora dati svoje genetske podatke u cilju dobijanja osiguranja ili zaposlenja, a sve više su prisutne međunarodne kompanije kao što su 23andMe ili MyHeritage koje nude korisnicima da iz njihovog biološkog uzorka istraže porodično stablo, otkriju genetsko naslijeđe i povežu ih sa porodicom širom svijeta.

Podaci o emocijama

Biometrijski i genetski podaci prate fizičke aspekte našeg tijela. Međutim, osim njih, razvijene su prakse koje prikupljaju podatke o emocijama ljudi. Riječ je o onom što nas čini istinski ljudima – našim osjećajima, mislima i reakcije na naše okruženje. Ovi podaci se ne prikupljaju samo kroz tradicionalne biometrijske metode, već i putem naprednih tehnologija poput senzora koji prate moždane valove, izraze lica, pa čak i mikropokrete očiju i mišića. Sposobnost tehnologije da prepozna i manipulira emocijama otvara vrata za nevjerojatne mogućnosti, ali i potencijalne katastrofalne posljedice. Kompanije već sada koriste podatke o emocijama kako bi prilagodile marketinške kampanje, ciljali specifične korisnike i oblikovali njihovo ponašanje.

U nauci  postoji konsenzus da ljudi nisu potpuno racionalni u donošenju odluka te da njih mogu utjecati njihove emotivne sklonosti, traume, predrasude i iskustva. Ova činjenica se može iskoristiti tako da se proizvede skriveni uticaj postignut prepoznavnjem emocija kod osoba te ciljanjem na njih kako bi se iskoristile ranjivosti u procesu donošenja odluka. U odnosu na biometrijske i genetske podatke, podaci o emocijama su fluidni, promjenjivi i kontekstualni, ali isto tako čine osobu o kojoj je riječ izloženom. Prikupljanje i analiziranje  podataka o emocijama može otvoriti put ne samo za ciljani marketing, već i za dublje psihološke intervencije koje sežu izvan dometa našeg trenutnog razumijevanja privatnosti. U svijetu u kojem podaci o emocijama postaju roba, smanjuje se sposobnost da slobodno biramo jer algoritmi analiziraju naše slabosti i emocionalne reakcije i prilagođavaju naše okruženje tome. Posebnu opasnost predstavljaju prakse u kojima se tehnologija koristi za manipulaciju emocijama kako bi nas usmjerili prema određenim važnim odlukama čije posljedice prevazilaze pojedinače izbore, kao što su političke odluke.

Istraživači sa Univerzitet u Leidenu su upozorili da pravo Evropske unije, koje je vodeće pravo iz oblasti zaštite ličnih podataka, ne prepoznaje podatke o emocijama kao posebnu vrstu ličnih podataka. Oni se smatraju za posebnu vrsta ličnih podataka jedino ako se mogu staviti u neku od prepoznatih kategorija. GDPR prepoznaje podatke koji se odnose na rasno ili etničko porijeklo, politička mišljenja, vjerska ili filozofska uvjerenja, ili članstvo u sindikatu, genetske podatake, biometrijske podatatke u svrhu jedinstvene identifikacije fizičkog lica, podatke o zdravlju o seksualnom životu ili seksualnoj orijentaciji fizičkog lica. Međutim, postoje podaci o emocijama koji nužno ne mogu biti smješteni u ove kategorije, kao što su na primjer analiza teksta u cilju identifikacije emocije autora ili analiza zvučnog zapisa koja se vrši sa istim ciljem. Ove vrste sadržaja mogu otkriti emocije osobe o kojima je riječ, ali nisu prepoznate kao posebne kategorije ličnih podataka koje zahtijevaju dodatne mjere zaštite. Dakle, pravo zaštite ličnih podataka nema adekvatan odgovor na rizike korištenje modernih tehnologija na ovaj način generiše.

Rizici od zloupotrebe

Kada kombinujemo lične podatke sa umjetnom inteligencijom, dolazimo do još uznemirujuće perspektive. AI algoritmi mogu koristiti te podatke za predviđanje ponašanja, čak i prije nego što smo svjesni vlastitih impulsa. Takva kontrola može brzo postati oružje za društvenu kontrolu, pri čemu će države ili korporacije imati uvid u naše živote kakav je ranije bio nezamisliv, uz mogućnost da ponekad znaju o nama više o nama nego što mi sami znamo. Uprkos pokušajima regulacije, prava pojedinaca i dalje ostaju ranjiva, a lična autonomija može biti ugrožena ako društvo ne postane svjesnije moći ovih tehnologija i ne počne aktivno učestvovati u oblikovanju pravila koji bi ih trebali štititi. Propisi EU (naročito GDPR, AI Act i Zakon o digitalnim uslugama) predstavljaju korake u pravom smjeru, ali je pitanje hoće li biti adekvatni da obuzdaju stvarne opasnosti koje prijete u ovoj novoj digitalnoj eri.

Nisu sve mjere zaštite koje se mogu poduzeti sadržane u pravnom sistemu. Ono što možemo samostalno uraditi je biti svjesni da manipulacija ličnim podacima može utjecati na naše odluke i da smo redovno izloženi tome, u nečije privatne (uglavnom komercijalne) svrhe ili šire društvene svrhe. Trebamo osvijestiti da kao ljudi imamo sklonost ponekad neracionalno sagledati okruženje u kojem se nalazimo i donijeti odluku koja nije racionalna. Sa tim na umu, možemo posumnjati u odluke koje trebamo donijeti jer je moguće da su opcije koje su nam ponuđene od strane algoritma upravo kreirane sa ciljem da proizvedu određeni efekt kod nas.

 

This project is financed with the contribution of the Ministry of Foreign Affairs and International Cooperation of the Italian Republic. The content of this document represents the views of its authors and in no way represents the position of the Ministry of Foreign Affairs and International Cooperation.