Grupa sadašnjih i bivših zaposlenih vodećih AI kompanija OpenAI i Google DeepMind objavila je pismo u kojem upozorava na opasnosti napredne veštačke inteligencije (AI). Oni tvrde da kompanije daju prioritet finansijskim dobicima i izbegavaju potencijalne opasnosti po društvo koju veštačka inteligencija može prouzrokovati.
Pismo pod naslovom „Pravo na upozorenje o naprednoj veštačkoj inteligenciji“ potpisalo je trinaest zaposlenih, od kojih su jedanaest sadašnji ili bivši zaposleni OpenAI-a, kompanije koja stoji iza ChatGPT-a, a dva su sadašnji i bivši zaposleni Google DeepMind-a. Šest potpisnika ostalo je anonimno.
Koalicija upozorava da su AI sistemi dovoljno moćni da izazovu ozbiljne štete bez odgovarajuće regulative.
– Ovi rizici se kreću od daljeg učvršćivanja postojećih nejednakosti, preko manipulacije i dezinformacija, do gubitka kontrole nad autonomnim AI sistemima koji potencijalno mogu dovesti do istrebljenja ljudi – navodi se u pismu.
Iz kompanije OpenAI odgovaraju – Ponosni smo na našu dosadašnju evidenciju pružanja najsposobnijih i najsigurnijih AI sistema i verujemo u naš naučni pristup u rešavanju rizika – rekla je portparolka OpenAI-a Lindsey Held za New York Times.
– Slažemo se da je rigorozna debata ključna s obzirom na značaj ove tehnologije i nastavićemo da sarađujemo sa vladama, civilnim društvom i drugim zajednicama širom sveta.
Google DeepMind nije javno komentarisao pismo i nije odgovorio na zahtev za komentar.
Lideri sve tri vodeće AI kompanije OpenAI, Google DeepMind i Anthropic ranije su govorili o rizicima.
– Ako izgradimo AI sistem koji je značajno kompetentniji od ljudskih stručnjaka, ali ostvaruje ciljeve koji su u sukobu s našim najboljim interesima, posledice mogu biti strašne… brzi napredak AI bi bio vrlo disruptivan, menjajući zaposlenje, makroekonomiju i strukture moći… već smo naišli na toksičnost, pristrasnost, nepouzdanost, neiskrenost – saopštila je kompanija za istraživanje sigurnosti veštačke inteligencije, Antropik, u martu 2023. godine.
Grupa koja stoji iza pisma tvrdi da AI kompanije imaju informacije o rizicima AI tehnologije na kojoj rade, ali pošto nisu obavezne da ih otkrivaju vladama, stvarne sposobnosti njihovih sistema ostaju tajna. To znači da su sadašnji i bivši zaposleni jedini koji mogu držati kompanije odgovornim pred javnošću, ali mnogima su ruke vezane sporazumima o poverljivosti koji sprečavaju radnike da javno iznose svoje zabrinutosti.
– Zaštita uzbunjivač je nedovoljna jer se fokusira na nezakonite aktivnosti, dok su mnogi od rizika o kojima brinemo još uvek neregulisani. – navodi se u pismu.
– Zaposleni su važna linija odbrane u vezi sa sigurnošću, a ako ne mogu slobodno da govore bez odmazde, taj kanal će biti zatvoren. – rekao je pravni savetnik grupe Lorens Lesig za Njujork Tajms.
Prema istraživanju AI Policy Instituta, 83% Amerikanaca veruje da AI može slučajno dovesti do katastrofalnog događaja, dok 82% ne veruje tehnološkim liderima da sami regulišu industriju. Daniel Kolson, izvršni direktor Instituta, napominje da je pismo objavljeno nakon niza visokoprofilnih odlazaka iz OpenAI-a, uključujući glavnog naučnika Iliju Sutskevera.
Autori pisma postavili su četiri zahteva AI kompanijama: prestanak primoravanja zaposlenih na sporazume koji im zabranjuju da kritikuju poslodavca zbog „rizika“, uspostavljanje anonimnog procesa za iznošenje zabrinutosti, podržavanje „kulture otvorene kritike“ i neodmazdu protiv zaposlenih koji dele „poverljive informacije o rizicima nakon što drugi procesi nisu uspeli“.
Vlade širom sveta rade na regulaciji AI, iako napredak zaostaje za brzinom razvoja AI. Ranije ove godine, EU je usvojila prvi sveobuhvatni zakon o AI. Međunarodni napori se sprovode putem AI Safety Summits u Velikoj Britaniji i Južnoj Koreji, kao i u UN-u. U oktobru 2023. predsednik Džo Bajden potpisao je izvršnu naredbu koja, između ostalog, zahteva od AI kompanija da otkriju svoje planove razvoja i testiranja sigurnosti Ministarstvu trgovine.
S.G.