U martu 2023., više od hiljadu naučnika, CEO-ova i tehnologa potpisalo je otvoreno pismo tražeći pauzu od šest mjeseci u razvoju AI sistema moćnijih od GPT-4. Među potpisnicima bili su Elon Musk, Steve Wozniak i stotine AI istraživača. Pauza se nije desila. Razvoj se nastavio.
Ovaj incident savršeno ilustrira fundamentalnu napetost u AI eri: tehnologija napreduje brže nego što društvo, zakoni i etički okviri mogu pratiti. Ko odlučuje kako se razvija? Ko snosi odgovornost kada nešto krene po zlu?
Problem pristranosti (bias) u AI sistemima
AI sistemi uče iz podataka. A podaci odražavaju društvo — uključujući sve predrasude, nejednakosti i historijsku diskriminaciju koja je u njemu ugrađena.
Konkretni primjeri koji su izašli u javnost nisu teorija zavjere — to su dokumentirani slučajevi: sistem za raspoznavanje lica kompanije Amazon imao je znatno višu stopu grešaka za tamnoputu populaciju, posebno žene. COMPAS, algoritam korišten u američkim sudovima za procjenu rizika od recidivizma, pokazao se pristrasnim prema Afroamerikancima. Algoritmi za CV screening trenski su diskriminisali žene u tehničkim zanimanjima.
Ovi primjeri nisu slučajni niti izuzetni — oni su sistemska posljedica treniranja na historijskim podacima koji odražavaju historijsku diskriminaciju.
Privatnost u eri AI nadzora
AI sistemi za prepoznavanje lica mogu identificirati osobu iz CCTV snimaka. Algoritmi mogu predvidjeti tvoje seksualne preferencije, politička uvjerenja i zdravstveno stanje iz tvojih objava na društvenim mrežama. AI može analizirati tvoj hod i identificirati te čak bez vidljivog lica.
Kina je implementirala sistem "socijalnog kredita" koji koristi masovni AI nadzor za bodovanje ponašanja građana. U demokratskim društvima se to ne bi moglo desiti, kažu mnogi. Ali vladine agencije u SAD-u, Velikoj Britaniji i drugim demokracijama koriste facial recognition bez jasnog zakonskog okvira.
Autonomno oružje: "Killer robots" pitanje
Vojni AI je jedna od najozbiljnijih etičkih tema. Autonomni dronovi koji mogu identificirati i eliminirati mete bez ljudskog odobrenja nisu više SF — postoje prototipovi i određene primjene već u upotrebi.
Pitanje je fundamentalno: smije li mašina donijeti odluku o oduzimanju ljudskog života? Kampanja za zabranu "killer robots" (uz podršku stotina AI istraživača i nevladinih organizacija) tvrdi da ne smije. Vojni establišmenti velikih sila uglavnom tvrde suprotno, uz uvjet "meaningful human control" koji ostaje nedovoljno definiran.
Koncentracija moći u rukama nekolicine
Trenutno, najnapredniji AI sistemi razvijaju četiri-pet kompanija: OpenAI, Google DeepMind, Anthropic, Meta AI, i nekoliko kineskih igrača. Sve su to kompanije iz SAD-a ili Kine.
Ovo je problematično iz više razloga: demokratski deficit (nijedno od nas nije glasalo za to da OpenAI ima toliku moć), koncentracija ekonomske koristi (AI produktivnost uglavnom ide vlasnicima AI kompanija), i geopolitički rizik (AI kao oružje u konkurenciji velikih sila).
Ko je odgovoran kada AI pogriješi?
Ovo je jedno od najkompleksnijih pravnih pitanja AI ere. Kada autonomni automobil udari pješaka — ko je odgovoran? Vlasnik automobila? Proizvođač? Kompanija koja je razvila AI softver?
Kada AI medicinski sistem preporuči pogrešan tretman i pacijent postrada — ko snosi odgovornost? Doktor koji je prihvatio preporuku? Bolnica? Kompanija?
Zakoni za odgovornost u većini zemalja nisu dizajnirani za sisteme koji autonomno donose odluke. Ovo je regulatorni vakuum koji će trebati popuniti, a svaka zemlja to pokušava na različite načine.
Šta možemo očekivati od regulacije?
Trend je jasan: AI regulacija dolazi, pitanje je samo koliko brzo i kakvog oblika. EU AI Act je model koji će vjerovatno utjecati na globalne standarde, slično kao što je GDPR postavio globalne standarde za privatnost podataka.
SAD se kreće sporije, ali izvršni nalozi Bidenovog, a sada i Trumpovog predsjedništva pokazuju da ni Washington ne može ignorisati pitanje. Kina ima vlastiti regulatorni okvir koji favorizuje državnu kontrolu nad razvojem AI-a.
Šta možeš ti uraditi?
Pitanja AI etike nisu samo za regulatore i filozofe. Svaki korisnik AI-a može:
- Biti informisan o tome kako AI sistemi koje koristiš sakupljaju i koriste podatke
- Kritikovati i prijaviti AI sisteme koji pokazuju pristranost ili diskriminatorsko ponašanje
- Podržavati zakonodavce i organizacije koje se zalažu za transparentnu i odgovornu AI regulaciju
- Biti skeptičan prema AI outputima u kontekstima gdje su greške visoko-rizične
Zaključak
AI etika nije akademska disciplina — to je skup pitanja koja direktno utječu na to kakvo će biti naše društvo za deset i dvadeset godina. Ko razvija AI, za koga, s kojim ciljevima i uz kakvu odgovornost — to su politička pitanja koja zahtijevaju demokratsku raspravu.
TekVoid će nastaviti pratiti ove teme, jer vjerujemo da informisan građanin može sudjelovati u toj raspravi.