Da prekršim pravila? AI ti neće pokazati milost
AI se pojavljuje kao sudija, porota i dželat.

Ako prekršite pravila, neće biti milosti ili ljudskog razumevanja. AI je nesposoban za ljudsko razumevanje ili emocije. Kazna će biti brza i neće biti žalbe ili drugog približavanja da se očisti vaše ime. Naučna fantastika se bavila ovim u nekoliko navrata, kao što su RoboKap, sudija Dred i Manjinski izveštaj. ⁃ TN Editor
Možda mislite da bi kompjuter bio nepristupljen i pošten sudija, ali nova studija otkriva da je možda bolje ostaviti svoju sudbinu u rukama ljudi. Istraživači sa MIT-a otkrili su da veštačka inteligencija (AI) ima tendenciju da donosi strože i oštrije procene od ljudi kada je reč o ljudima koji krše pravila. Jednostavno rečeno, AI nije voljan da pusti ljude sa udice lako kada krše zakon!
Istraživači su izrazili zabrinutost da bi AI mogla da izrekne preterano stroge kazne, u zavisnosti od informacija sa kojima ga naučnici programišu. Kada je AI programirana striktno na osnovu pravila, lišena bilo kakvih ljudskih nijansi, ima tendenciju da oštro reaguje u poređenju sa vremenom kada je programirana na osnovu ljudskih odgovora.
Ova studija, koju je sproveo tim tehnološkog instituta u Masačusetsu, ispitala je kako će AI protumačiti uočeno kršenje datog koda. Otkrili su da su najefikasniji podaci za program AI sa normativnim podacima, gde su ljudi utvrdili da li je prekršeno određeno pravilo. Međutim, mnogi modeli su pogrešno programirani opisnim podacima, u kojima ljudi označavaju činjenično atribute neke situacije, a AI utvrđuje da li je šifra probijena.
U studiji, tim je prikupio slike pasa koje bi potencijalno mogle da prekrše pravilo o stanu kojim se zabranjuju agresivne rase iz zgrade. Od grupa je potom zatraženo da pruže normativne i opisne odgovore.
Opisni tim nije bio obavešten o ukupnoj politici prema psima, i zamoljen je da identifikuje da li su tri činjeničnog elementa, kao što je agresija psa, prisutna na slici ili tekstu. Njihovi odgovori pomogli su da se formiraju presude. Ako je korisnik rekao da fotografija prikazuje agresivnog psa, politika se smatra narušenom. S druge strane, normativna grupa je obaveštena o pravilima o agresivnim psima i zamoljena je da utvrdi da li svaka slika krši pravilo, i ako je tako, zašto.
Učesnici su imali 20 procenata veću šansu da identifikuju povredu koda koristeći opisni metod u poređenju sa normativnim. Da su opisni podaci o ponašanju pasa korišćeni za programiranje AI modela, verovatnije bi bilo da će izdati stroge kazne.
Povećanje tih netačnosti na scenarije u stvarnom svetu moglo bi da ima značajne implikacije. Na primer, ako se opisni model koristi za predviđanje da li osoba može da počini isto krivično delo više puta, može da izrekne oštrije presude od čoveka i rezultira većim iznosima kaucije ili dužim krivičnim kaznama. Zbog toga su se eksperti zalagali za veću transparentnost podataka, tvrdeći da razumevanje načina na koji se prikupljaju podaci može da pomogne u utvrđivanju njegove potencijalne upotrebe.
"Većina istraživača AI/mašinskog učenja pretpostavlja da su ljudske procene u podacima i etiketama pristrasne. Međutim, naši rezultati ukazuju na zabrinjavajuće pitanje: ovi modeli čak i ne reprodukuju već pristrasne ljudske procene, jer su podaci na kojima se obučavaju manjkavi", kaže Marzyeh Ghassemi, asistentkinja i šefica Zdrave ML grupe u Laboratoriji za kompjuterske nauke i veštačku inteligenciju (CSAIL), u izdanju univerziteta.
"Rešenje je da priznamo da, ako želimo da reprodukujemo ljudsko rasuđivanje, treba da koristimo samo podatke prikupljene u tom kontekstu. U suprotnom, završićemo sa sistemima koji nameću izuzetno oštre umerenosti, daleko strože od onoga što bi ljudi nametnuli. Ljudi bi videli nijanse ili pravili razlike, dok ti modeli to ne čine", objašnjava dalje Ghassemi.
U studiji, objavljenoj u časopisu Science Advances, tim je testirao tri dodatna skupa podataka. Rezultati su varirali, u rasponu od osmostruko povećane verovatnoće identifikacije kršenja pravila korišćenjem opisnih odgovora za kršenje pravila oblačenja, do 20-procentnog povećanja za agresivne slike pasa.
"Možda se način na koji ljudi razmišljaju o kršenju pravila razlikuje od toga kako razmišljaju o opisnim podacima. Generalno gledano, normativne odluke imaju tendenciju da budu blaže", kaže vodeća autorka Aparna Balagopalan. "Podaci su zaista važni. Od ključnog je značaja uskladiti kontekst obuke sa kontekstom raspoređivanja kada se modeli obuke za otkrivanje kršenja pravila usklađuju."
Budući plan tima je da istraži uticaj da profesionalci, kao što su advokati i lekari, učestvuju u unosu podataka.