Close
Stvarnost pisana algoritmom

Stvarnost pisana algoritmom

PISANA REČ / Šta znamo o veštačkoj inteligenciji, i na koji će način ona zapravo uticati na našu budućnost?

 


 

Zdravo, svete
autor: Hana Fraj
izdavač: Laguna, 2019


 

Piše Aleksandra Stanković

 

Š
ahovski majstor Gari Kasparov znao je kako da zaplaši svoje protivnike, mora mu se priznati. Bilo je dovoljno da spokojno pogleda u svoj ručni sat koji je stajao na stolu. Trenutak kada bi se opet našao na njegovom zglobu, onome ko je sjedio preko puta Rusa bilo je jasno koliko je sati. Međutim, ovaj šmekerski potez bio je potpuno neupotrebljiv u čuvenom duelu sa računarom Dip Blu (Deep Blue, IBM) 1997. godine, kada je mašina uspjela da se uvuče u glavu majstora i natjera ga na grešku.

Napravljen tako da namjerno odugovlači partiju i nametne utisak neodlučnosti i kalkulisanja potencijalnih kombinacija, računar je na kraju nadigrao genija i robotski okončao partiju. Simbolična (i tijesna) pobjeda Dip Blua tako je najavila novo doba – doba algoritma, kada čovjeku više nije dovoljno samo da je – čovjek. U jednom intervjuu nakon meča, Kasparov je izjavio da mu se činilo da je mašina načas igrala kao Bog. Ali, zastanimo na trenutak; da li je algoritam zaista tako svemoćan?

 


 

N
a početku razjasnimo šta se podrazumijeva pod ovim terminom: algoritam označava niz logičkih instrukcija, korak po korak, kako bi se postigao određeni cilj, poput recepta za tortu ili instrukcija za sklapanje fensi IKEA namještaja. Ali, ne dajte da vas zavede ova laka definicija, jer algoritam nije samo to. Iako je u pitanju jasan spisak koraka, ipak govorimo o matematičkim objektima koji sadrže jednačine, algebru, logiku, vjerovatnoću i prevode ih u – kompjuterski kod.

Autorka Hana Fraj skicira četiri osnovna principa po kojima rade algoritmi: uređivanje liste (poput Gugl stranica, Netfliksove liste filmova), izbor kategorije (reklame koje vam se nude na osnovu pretraživanja), pronalaženje veza (predlog šta biste mogli da kupite na netu na osnovu toga šta guglate) i izolovanje onog što je važno (prepoznavanje govora, kao Eplov program Siri).

Algoritmi često kombinuju sve navedene principe, ali kako im to uspijeva je interesantnije pitanje i važno za razumijevanje problema koji uzrokuju. Postoji bezbroj mogućnosti, ali gruba podjela je na dvije ključne paradigme: pravila, poput maloprije pomenutog recepta, odnosno jasnih instrukcija, i mašinsko učenje, koje je inspirisano načinom na koji uče ljudi. Mašina dobija podatke, cilj i povratnu reakciju kada je na dobrom putu.

Prve je napisao čovjek i njih je lako shvatiti, ali drugi su drugačiji: korisni su za rješavanje problema za koje nema svrhu pisati detaljna uputstva, međutim, izazovni su jer ne znamo kako da kontrolišemo nešto što ne razumijemo. Podsjetimo, nedavno su, nakon prve simulacije svemira naučnici priznali da zaista ne znaju kako ta mašina radi, te da softver napravljen da traži mačke i pse usput prepoznaje i slona.

Ali nema mjesta panici, ovo nije knjiga posvećena usponu vještačke inteligencije koja će nas nadigrati, kao maloprije pomenutog Kasparova. Hana Fraj, mudro, već na samom startu, čitaoce umiruje podatkom da smo daleko od stvaranja inteligencije na nivou, recimo, ježa. Do sada, niko nije odmakao od stadijuma gliste (simulacija mozga gliste je cilj međunarodnog naučnog projekta Open Worm, koji treba da posluži kopiranju 302 neurona koji se mogu naći u mozgu gliste C. elegans).

 

Stanislav Petrov, u medijima poznat kao čovjek koji je spriječio izbijanje trećeg svjetskog rata, u noći 26. septembra 1983. godine donio je dobru procjenu da ne vjeruje algoritmu, koji se oglasio zbog pet usamljenih projektila lansiranih ka SSSR

 

A
lgoritmi, raščistimo odmah, kao i ljudi, mogu biti i dobri i loši. Uostalom, mi ih pravimo. Loš algoritam naprosto znači da je u pitanju ljudska greška zamaskirana kodom. Drugim riječima, pogrešnim podacima smo pothranili sistem. Premda mogu biti napravljeni gotovo savršeno, i dalje će biti skloni pogrešnoj procjeni i navođenju na doslovno pogrešan trag (što vam se možda desilo nekada sa Gugl mapom).

Stanislav Petrov, u medijima poznat kao čovjek koji je spriječio izbijanje trećeg svjetskog rata, u noći 26. septembra 1983. godine donio je dobru procjenu da ne vjeruje algoritmu, koji se oglasio zbog pet usamljenih projektila lansiranih ka SSSR. Petrov je smatrao da to i nije baš najbrutalniji metod koji bi koristio njihov hladnoratovski neprijatelj. Oficir je, možda po staroj dobroj navici, računao na veću demonstraciju moći. I bio je u pravu. Ali ova romantična istorijska epizoda ne nosi zaključak da ljudi, na kraju dana, donose najbolje procjene, već da postoje izuzeci kada mašina ipak zahtijeva našu asistenciju. Većinu vremena, zapravo, mi podliježemo pristrasnosti i ne razmišljamo isključivo racionalno, što autorka demonstrira primjerima iz oblasti sudstva, medicine, zločina i umjetnosti.

Algoritmi nijesu doveli u pitanje samo način na koji donosimo odluke. Da bismo bolje rezonovali, nadogradili čula i pospješili intelektualna pregnuća, morali smo se odreći jedne od naših najvećih dragocjenosti – privatnosti. Kad god kupujete na internetu, prijavite se za nedjeljne obavijesti ili se registrujete na veb-sajtu, šaljete određene informacije o sebi. One se skladište i šalju brokerima podacima, koji dalje trguju s moćnim kompanijama. Čitav istorijat pretrage elegantno se spakuje i proda nekome ko će od toga što čitate i pretražujete imati i te kako koristi. Gugl, Fejsbuk, Instagram, Tviter – svi posluju na sličan način.

U SAD, brokeri su bili pod lupom Senata 2017. godine, kada su tamošnji članovi glasali da se istorijat pretrage ne može dati bez izričite saglasnosti. Ta pravila je prethodno odobrila Savezna komisija za komunikacije, ali ih je osporila nova republikanska većina. Pokazalo se da brokeri za sad, makar u zemlji velikih snova, ne podliježu propisima.

Za zemlje Evropske unije situacija je nešto povoljnija zbog propisa GDPR (General Data Protection Regulation, 2018), na osnovu kojeg je rad ovih brokera za dosta slučajeva proglašen maltene nezakonitim. Cilj je da se smanji obrada ličnih podataka i osigura njihovo korišćenje u prave svrhe. Ali, ono što je najvažnije jeste da se ovaj propis oslanja na „pravo na zaborav“, koje je proisteklo iz prakse Evropskog suda za ljudska prava, što omogućava da naši lični podaci budu izbrisani zauvijek.

Ali, nije lako uništiti tragove digitalnih putešestvija. Bili bismo isuviše naivni kada bismo pomislili da će ovoj praksi na tako jednostavan način doći kraj; često ni ne pročitamo uslove korišćenja dok smo na internetu, a transfer i analiza podataka se odigravaju gotovo u sjenkama, gdje ni ne očekujemo, tako da radovanju mjesta nema. Naprotiv, treba da budemo svjesni činjenice da su podaci postali novo zlato. Ali, ovo je drugačiji Divlji zapad, gdje se obračun ne odigrava u ponoć, već svuda, i to u realnom vremenu.

 

Od 47 sudija, 29 je optuženu oslobodilo krivice, 18 ju je proglasilo krivom. Na osnovu istih okolnosti i dokaza, optuženik je mogao da očekuje različite kazne

 

M
irno ljetnje veče na ulicama Brikstona u Londonu, 2011. godine, preraslo je u opšti haos, nakon što policija nije uspjela da suzbije prvobitni manji incident, koji je eskalirao tučom u kojoj je bilo uključeno stotinu mladih ljudi. U tom opštem metežu, dva mladića, Ričard Džonson i Nikolas Robinson, uvidjela su dobru priliku za prestup, mali grijeh. Ričard je ukrao igrice iz obližnje radnje i sigurnosna kamera je snimila njegovo lice. Nikolas je pak bio skromniji i uzeo flaširanu vodu iz lokalne prodavnice u vrijednosti od tri i po funte. Obojica su optužena za provalu. Izašli su pred sudiju i priznali krivicu. Ali, tu prestaje svaka sličnost. Nikolas je osuđen na šest mjeseci zatvora, jer je, između ostalog, kako je kazao tamošnji sudija, te večeri „doprinio atmosferi bezakonja“. Džonson je izbjegao kaznu i osuđen je uslovno, sa dvije stotine sati neplaćenog rada.

Slučaj je, naravno, izazvao gnjev među građanima. Doista, nesrazmjera u određivanju kazni s pravom izaziva revolt i bijes. Znamo, sudstvo nije savršeno. Uostalom, i pravna terminologija upućuje da presuđivanje o kazni nije egzaktno, niti to kani biti. Ne postoji apsolutna sigurnost, već „osnovana sumnja“ i „utemeljeni razlozi“. Ali, kada se dublje kopa po pravosudnoj praksi, podaci ne upućuju na to da se odluke u većini slučajeva donose konzistentno i dosljedno. Naprotiv. Vrlo su obeshrabrujući.

U jednoj studiji u Virdžiniji 47 okružnih sudija je učestvovalo u eksperimentu u kojem su se izjašnjavali o hipotetičkom slučaju: osamnaestogodišnjakinja je, navodno, uhapšena zbog posjedovanja marihuane i lišena je slobode, zajedno sa dečkom i nekoliko poznanika. Policija je pronašla dokaze o izvjesnoj količini opojne supstance, ali ne i kod uhapšene lično. Ona nema krivični dosije, bila je dobra učenica i dolazi iz porodice srednje klase.

Od 47 sudija, 29 je optuženu oslobodilo krivice, 18 ju je proglasilo krivom. Na osnovu istih okolnosti i dokaza, optuženik je mogao da očekuje različite kazne. Ovaj slučaj nije usamljen, ima mnogo studija urađenih u Evropi, kako navodi Hana Fraj, koji imaju za rezultat istu nedosljednost u određivanju odluke. Čitamo o njima vrlo često i u štampi. Da li onda treba oduzeti diskreciono pravo sudijama, ili pak u pomoć pozvati algoritam?

Autorka jasno ukazuje: ne, algoritmi ne mogu donijeti odluku o krivici. Mašine ne mogu odvagati sve argumente, uzeti u obzir društvene, kulturne i druge nijanse kojima je obojena naša zbilja i pretvoriti sve to u jedinstvenu, ispravnu i pravednu odluku. Zato ne očekujte da će uskoro zamijeniti sudije. Ljudske interakcije nije jednostavno prenijeti u kod, što je glavni talas na kojem surfuje Hana Fraj. Ali, to ne znači da algoritmi u pravosuđu nijesu uopšte od koristi. Sve zavisi od toga u čemu konkretno stremimo da nam algoritmi pomognu.

 

Nije rijedak slučaj da u SAD nekoga označi visoko rizičnim za, recimo, povratništvo samo zato što je pripadnik određene rase. Već naslućujete da algoritam bijelce češće predviđa kao nisko rizične

 

A
lgoritmi u pravosuđu su se pojavili u Americi još u dvadesetom vijeku. Ernest V. Bardžis, kanadski sociolog sa Čikaškog univerziteta, zalagao se za kvantifikovanje društvenih pojava i postao prvi čovjek koji je napravio alatku za predviđanje rizika od zločinačkog ponašanja, zasnovanu na mjerenju, umjesto na intuiciji sudija, što je bila dotadašnja praksa. Baržis je pronašao 21 faktor koji se pokazao značajnim u određivanju toga da li će neko prekršiti uslovnu kaznu. Njegov model je bio dosta precizan. Devedeset osam procenata osuđenika koji su se nalazili u grupi „niskog rizika“ prošli su period uslovne slobode bez povratka, dok dvije trećine iz grupe visokog rizika nije. Statistika se, makar u odnosu na sudije, pokazala bolja u predviđanjima.

Savremeni algoritmi su, svakako, daleko sofisticiraniji, razrađeniji, ali je pristup isti; uzimaju u obzir dosije, ozbiljnost zločina, uzrast itd. Prednost je jasna, algoritam će uvijek dati istovjetan odgovor na isti skup okolnosti. Dosljednost, koja nas je maloprije brinula, makar je zagarantovana. U Roud Ajlendu, gdje sudovi koriste ovakve algoritme, zatvorska populacija se smanjila za čak 17 procenata.

Ali, znate već, život je kao matematika: ako ide isuviše lako, vjerovatno nešto radite pogrešno. Nema tog algoritma koji može savršeno da predviđa. Pretežno pravi dvije greške, predstavlja lažno pozitivne ili lažno negativne rezultate. Situacija je sljedeća: želite da algoritam pronađe Darta Vejdera ili Luka Skajvokera, kako objašnjava Ričard Berk, profesor kriminologije na Univerzitetu Pensilvanija. Puštanje Vejdera je lažno negativan rezultat (niste prepoznali rizik), a zatvaranje Luka je lažno pozitivan (algoritam je netačno označio pojedinca kao rizik). Zato, uprkos činjenici da današnji algoritmi navodno imaju moć da predvide da li će neko počiniti zločin sa tačnošću od 75 procenata, biće tu ipak, kako objašnjava autorka, dosta Skajvokera kojima će kaucija biti uskraćena zato što spolja liče na Vejdera.

Štetu koju mogu nanijeti pogrešna prepoznavanja najbolje pokazuje bizarni slučaj Pola Zilija, koji je bio otpužen za krađu kosačice 2013. godine. Sudije u Viskonsinu su prilikom donošenja presude koristile zakonom zaštićen algoritam COMPAS. Zla sudbina, ili zao kod, htio je da Zili bude označen kao visoko rizično lice, uprkos činjenici da je algoritam imao procenat tačnog predviđanja u praksi od 70 posto.

Šta se zapravo dešava? Algoritam može da bude pristrasan. Da, dobro ste pročitali. Nije rijedak slučaj da u SAD nekoga označi visoko rizičnim za, recimo, povratništvo samo zato što je pripadnik određene rase. Već naslućujete da algoritam bijelce češće predviđa kao nisko rizične. Ali, to je takođe i stvar brojeva, ne samo naših predrasuda: da zaustavljate ljude na ulici i koristite algoritam da predvidite ko će počiniti ubistvo, ogromnu većinu će činiti muškarci, jer oni zaista jesu širom svijeta u mnogo većoj mjeri počinioci ubistava. Ishod je pristrasan, jer i stvarnost može biti pristrasna, smatra Hana Fraj. Autorka želi reći da je nemoguće napraviti matematički model koji je podjednako precizan u predviđanju i uspješan u pravljenju kompletnog otklona od diskriminacije. Zato će ljudi iz određene etničke, rasne ili vjerske grupe biti etiketirani, a na scenu onda opet moramo da stupimo mi.

 

Grupa pionira sprovela je 2015. neobičnu studiju o tačnosti dijagnoza raka. Analizirali su slike tkiva dojke, a patološki rezultati su uzeti od 16 stvarnih pacijenata. Kombinujući glasove pojedinih ispitanika, stopa preciznosti je bila izuzetno visoka, 99 odsto. Samo što ispitivači nijesu bili patolozi, već golubovi

 

A
ko biste radije željeli da sudija ipak ima posljednju riječ na suđenju, da li biste isto razmišljali i kada je zdravlje u pitanju? Nakon svega, želite da o pitanju života odlučuje neko ko zaista najbolje zna.

Grupa pionira sprovela je 2015. neobičnu studiju o tačnosti dijagnoza raka. Analizirali su slike tkiva dojke, a patološki rezultati su uzeti od 16 stvarnih pacijenata. Kombinujući glasove pojedinih ispitanika, stopa preciznosti je bila izuzetno visoka, 99 odsto. Samo što ispitivači nijesu bili patolozi, već – ne biste nikada pogodili – golubovi. Oni su uspjeli da, uz prethodno adekvatnu obuku, identifikuju maligna tkiva. Upravo je ta osobina, prepoznavanje i uočavanje šablona sa velikom preciznošću, ključna za razvoj medicine.

Istraživanja u Velikoj Britaniji pokazuju da su i patolozi u stanju da uspješno dijagnostifikuju maligne tumore u čak 96 procenata. Ali, nevolja je što nijesu svi tumori maligni. U jednoj drugoj studiji, prilikom koje su patolozi analizirali tumore koji se nalaze između ekstrema, od dobroćudnih do malignih, samo u 48 odsto slučajeva su došli do iste dijagnoze. Zato je priča o golubovima zapravo priča o traženju načina da mašina „vidi“ ono što mi ne možemo.

Pravljenje algoritma za prepoznavanje slika nije uopšte lak zadatak, pa zato naučnici pribjegavaju metodi „neuronske mreže“. Na početku, mreža je kao hrpa podataka, bez jasnog zadatka. Sve je proizvoljno namješteno. Sa svakom novom slikom kojom hranite mrežu, podešavate je i usmjeravate, sve dok polako ne počne da se približava pravom odgovoru, i ovo je primjer mašinskog učenja.

Način na koji mi prepoznajemo određeni predmet znatno se razlikuje od onog koji primjenjuje neuronska mreža. Kada su obučavali algoritam da prepozna i razlikuje vuka od haskija, ispalo je da donosi odluku na osnovu pozadine. Snijeg – haski. Nema snijega – vuk.

 

Možete poslati svoj uzorak i po vrlo povoljnoj cijeni preko DNK analize otkriti zanimljive detalje o sebi, a kompanije zauzvrat dobijaju materijal za sekvenciranje genoma i prave džinovsku bazu genetskih informacija

 

L
judi imaju drugačiji problem. Patolozima se, na primjer, neće desiti da kancerogene ćelije prepoznaju kao zdrave. S druge strane, zbog nedovoljne senzitivnosti, mogu im promaći sitni, bezazleniji tumori. Sigurno ste naišli na priču o tome kako su istraživači sa Harvarda stavili malu sliku gorile na rendgenski snimak. Zbog tamnih mrlja, koje su karakteristične za ove nalaze, preko osamdeset odsto radiologa nije primijetilo na snimku „sićušno“ stvorenje. Oči koje tako precizno mogu odrediti da li su ćelije opasne za naš život, nijesu bile u stanju da primijete malu podvalu istraživača.

Ali, i algoritmi koji se bave prepoznavanjem slika takođe imaju probleme svoje vrste i to, opet, najčešće sa lažno pozitivnim ili lažno negativnim rezultatima. Primjećuju anomalije tako da nekada i normalne grupe ćelija označe kao potencijalno rizične. Zato je i u medicini nemoguće izolovati ljudsku procjenu. Štaviše, saradnja radiologa i algoritma pokazala se, zapravo, kao dobitna kombinacija u dijagnostici.

Statistika kaže da određeni procenat žena u svakom trenutku hoda ulicama a da i ne zna da ima tumor na dojci. Endi Bek, patolog sa Hardvarda i direktor kompanije PathAI, primijenio je svoj algoritam na seriji uzoraka pacijenata u Holandiji i utvrdio da se činioci predviđanja metastaze ne nalaze u samom raku, već u okolnom tkivu. Ono čemu streme istraživači upravo je pomoć algoritama u hvatanju obrazaca koji mogu primijetiti nagovještaje bolesti godinama ranije, odnosno znakove upozorenja koji ljekarima promiču.

I dok pokušavamo da iskamčimo od mašina duži i zdraviji život, nemojte misliti da je priča o privatnosti u zapećku. Autorka zato osvjetljava još jedan aspekat priče. Da bi algoritam mogao da vrši procjene, mora da posjeduje podatke. Što više podataka, to je veća šansa da naučnici ulove obrasce. Tako, između ostalog, rade sajtovi poput 23 and Me, My Heritage. Možete poslati svoj uzorak i po vrlo povoljnoj cijeni preko DNK analize otkriti zanimljive detalje o sebi, a kompanije zauzvrat dobijaju materijal za sekvenciranje genoma i prave džinovsku bazu genetskih informacija. S jedne strane, doprinosite napretku medicine, s druge se odričete privatnosti i prihvatate rizik da se informacije zloupotrijebe i potencijalno vas etiketiraju i diskriminišu u određenim okolnostima.

 

Algoritam LiDAR ispaljuje foton iz lasera, mjeri potrebno vrijeme da se odbije od prepreke i nazad, i na taj način preračunava koliko je prepreka udaljena. Ali, algoritam ne pomaže u određivanju, recimo, boje, kao ni u čitanju saobraćajnih znakova

 

P
rvu trku samoupravljajućih automobila organizovala je Američka agencija za istraživačke projekte, DARPA, 2004. godine. Iako je prošla prilično neslavno, već naredni put automobili su uspjeli da pređu traku od 212 km bez ljudske intervencije, zbog čega su brojni futuristi mislili da će drumski saobraćaj sada biti gotovo filmski. Ali, ne tako brzo.

Javni prevoz bez vozača je primamljiva ideja, ali ona se, sada, može sprovesti jedino na način da nas vozilo odvede do unaprijed isplanirane putanje, od tačke A do tačke B. Napraviti algoritam koji će vozilo upućivati gdje treba bez našeg uplitanja, vraški je težak posao. Na primjer, algoritam LiDAR ispaljuje foton iz lasera, mjeri potrebno vrijeme da se odbije od prepreke i nazad, i na taj način preračunava koliko je prepreka udaljena. Ali, algoritam ne pomaže u određivanju, recimo, boje, kao ni u čitanju saobraćajnih znakova. Da bi se napravio sistem sam za sebe, treba uzeti u obzir sve moguće situacije, kao na primjer, šta ako vozilo parališe saobraćaj jer se biciklista ispred njega kreće isuviše sporo, itd. Automobili moraju biti svjesni svega oko sebe, a to zvuči, kad malo razmislite, gotovo kao nemoguća misija.

Dajmler i Ford obećavaju samouvjereno da će izvesti samoupravljajuće automobile na ceste do 2021. godine. Iza njihovog hvalisanja ne stoji savršen i samostalan algoritam, zato što je caka u tome u kojoj mjeri će oni zaista biti samoupravljajući. Autonomni sistemi su sistemi u kojima je svijet sužen, odnosno sveden na jasno određen broj situacija koje možete da predvidite, kontrolišete, odnosno kodirate. Samo tako i mogu biti autonomni, tj. samostalni. A znamo da život na cesti nije ni izbliza tako jednostavan i skučen. Ne bi bilo zgoreg da se čelni ljudi prisjete opaske Henrija Forda, koji je svojevremeno govorio da je vizija bez ispunjenja samo halucinacija.

Autorka ukazuje i na esej psihološkinje Lizen Bejnbridž, koja se takođe bavi važnim problemom automatizacije, odnosno rizikom da mašina za nadogradnju performansi, ironično, može da dovede do smanjenja ljudskih sposobnosti. Ljudi dobro primjećuju kontekst i primjenjuju iskustvo, ali može vrlo lako da im se odvrati pažnja. Zato kompanija Tesla primjenjuje metod sofisticirane opreme koja zahtijeva od vozača da bude budan i spreman u svakom trenutku, pa tako posjeduje alarme ukoliko vam se ruke duže vrijeme ne nalaze za volanom. I Uberova vozila imaju sličan sistem, te zahtijevaju da na svaka 22 km čovjek upravlja automobilom.

 

Tako je nastao algoritam Predpol (Prediktivna policija), koji ne traga za počiniocima zločina, već, na osnovu geografije, ukazuje na potencijalna rizična mjesta

 

M
ožda nikada ne biste mogli reći šta će učiniti jedan čovjek, ali možete predvijeti na šta je spremna gomila, govorio je hladnokrvni majstor dedukcije Šerlok Holms, a pomislio Kim Rosmo, koji je još 1995. godine razvio algoritam pomoću kojeg su mapirani geografski obrasci zločinaca. Rosmo se premisom da zločin nije nasumična pojava, makar kada govorimo o masovnim ubistvima, te da mogu biti predvidljivi kao i ljudi, u izvjesnoj mjeri.

Algoritam počiva na dva glavna stuba: opadanje usljed udaljenosti (izgledi da pronađete dom počinioca smanjuju se što se više odaljavate od mjesta zločina) i tampon zona (isključujete oblast koja je preblizu počiniocu zločina jer bi odmah navukao sumnju na sebe). Više od 350 agencija širom svijeta koristilo je Rosmov algoritam, ali on nije od pomoći u slučaju izolovanih zločina. Srećom, rijetki su zločini za koje je neophodno geoprofilisanje.

Kada su u pitanju provale, kriminolozi tvrde da se počinioci često drže mjesta koja već poznaju. Ako ste bili žrtva provalnika jednom, velika je vjerovatnoća da ćete biti opet tipovani. Ova tendencija ima analogiju u jednoj prirodnoj pojavi, zemljotresu. Ne možete precizno reći gdje će se dogoditi prvi, ali znate gdje možete da očekujete naredne potrese. Takođe, kao i u prethodnom primjeru, kako se udaljavate od epicentra dešavanja, rizik se smanjuje.

Tako je nastao algoritam Predpol (Prediktivna policija), koji ne traga za počiniocima zločina, već, na osnovu geografije, ukazuje na potencijalna rizična mjesta. Autorka iznosi podatak da je algoritam izuzetno uspješan, te da u Los Anđelesu uspijeva da predvidi duplo više zločina nego što to čine policajci, a u Britaniji su uspjeli predvidjeti lokaciju jednog od pet zločina koji su se dogodili za vrijeme testiranja.

Policija u Čikagu koristi „Stratešku listu subjekata“, odnosno cilja lica koja su na crnoj listi. U Berlinu, algoritmi već mogu da prepoznaju osumnjičene među masom koja prolazi kroz željezničku stanicu. Guglov algoritam Fejsnet, koji je bio uspješan sa prepoznavanjem lica slavnih ličnosti, ima tačnost od 75 procenata. Kineski Tencent YouTu Lab ima 83,29 procenata uspješnosti! Ali, ni ovi algoritmi nijesu savršeni. Da bi ukazala na potencijalne probleme sa lažnim rezultatima, Hana Fraj iznosi brojne primjere kada je algoritam za prepoznavanje lica pogrešno osumnjičio lica, što je za posljedicu imalo iscrpljujuću borbu na sudovima i praktično izgubljene godine života.

Čini se da algoritmi, poput Predpola, mogu pomoći čuvarima javnog reda i mira da obavljaju kvalitetnije svoj posao i patroliranjem u kritičnim zonama potencijalno smanje stopu prestupa. No, da li će se ljudi osjećati ugodno ako noćima u njihovoj ulici špartaju policajci? Argumenti koji idu u prilog smanjenju stope zločina i povećanju globalne bezbjednosti, zapravo su idealno tlo za digitalnu militarizaciju i sveopšte nadgledanje.

Priča o algoritmima je, zapravo, priča o nama samima. Svijet koji smo pozdravljali na početku priče bio je samo odraz u ogledalu, samo još jedna potvrda naših stremljenja, impulsa, nesavršenosti, manipulacije, reda, haosa. On je izrodio novo pitanje – ne šta će algoritmi raditi, nego šta ćemo mi raditi (jedni drugima) sa njima.

 


Pre nego što odete

Ovaj članak je prvi put objavljen u štampanom izdanju časopisa Odiseja. Časopis izdaje nezavisna izdavačka kuća Horizonti iz Beograda, koja živi od podrške i interesovanja svojih čitalaca. Ukoliko već niste, svoj primerak novog broja Odiseje možete naći na kioscima i u knjižarama širom zemlje (napravili smo i mali vodič da vam pomognemo u potrazi), ali i ako jeste, najbolji način da podržite naš rad i osigurate da Odiseja ostane nezavisan, kritički medij jeste da se pretplatite na naše digitalno izdanje. To košta samo 840 dinara godišnje – a mi vam za tu investiciju garantujemo mnogo kvalitetnog i zanimljivog sadržaja.

Vodič za kupovinu časopisa

Pretplata na digitalno izdanje

Close