Foto: Envato
Grupa sadašnjih i bivših zaposlenih vodećih AI kompanija OpenAI i Google DeepMind objavila je pismo u kojem upozorava na opasnosti napredne veštačke inteligencije (AI). Oni tvrde da kompanije daju prioritet finansijskim dobicima i izbegavaju potencijalne opasnosti po društvo koju veštačka inteligencija može prouzrokovati.

Pismo pod naslovom „Pravo na upozorenje o naprednoj veštačkoj inteligenciji“ potpisalo je trinaest zaposlenih, od kojih su jedanaest sadašnji ili bivši zaposleni OpenAI-a, kompanije koja stoji iza ChatGPT-a, a dva su sadašnji i bivši zaposleni Google DeepMind-a. Šest potpisnika ostalo je anonimno.

Koalicija upozorava da su AI sistemi dovoljno moćni da izazovu ozbiljne štete bez odgovarajuće regulative.

Ovi rizici se kreću od daljeg učvršćivanja postojećih nejednakosti, preko manipulacije i dezinformacija, do gubitka kontrole nad autonomnim AI sistemima koji potencijalno mogu dovesti do istrebljenja ljudi – navodi se u pismu.

Iz kompanije OpenAI odgovaraju – Ponosni smo na našu dosadašnju evidenciju pružanja najsposobnijih i najsigurnijih AI sistema i verujemo u naš naučni pristup u rešavanju rizika – rekla je portparolka OpenAI-a Lindsey Held za New York Times.

Slažemo se da je rigorozna debata ključna s obzirom na značaj ove tehnologije i nastavićemo da sarađujemo sa vladama, civilnim društvom i drugim zajednicama širom sveta.

Google DeepMind nije javno komentarisao pismo i nije odgovorio na zahtev za komentar.

Lideri sve tri vodeće AI kompanije OpenAI, Google DeepMind i Anthropic ranije su govorili o rizicima.

Ako izgradimo AI sistem koji je značajno kompetentniji od ljudskih stručnjaka, ali ostvaruje ciljeve koji su u sukobu s našim najboljim interesima, posledice mogu biti strašne… brzi napredak AI bi bio vrlo disruptivan, menjajući zaposlenje, makroekonomiju i strukture moći… već smo naišli na toksičnost, pristrasnost, nepouzdanost, neiskrenost – saopštila je kompanija za istraživanje sigurnosti veštačke inteligencije, Antropik, u martu 2023. godine.

Grupa koja stoji iza pisma tvrdi da AI kompanije imaju informacije o rizicima AI tehnologije na kojoj rade, ali pošto nisu obavezne da ih otkrivaju vladama, stvarne sposobnosti njihovih sistema ostaju tajna. To znači da su sadašnji i bivši zaposleni jedini koji mogu držati kompanije odgovornim pred javnošću, ali mnogima su ruke vezane sporazumima o poverljivosti koji sprečavaju radnike da javno iznose svoje zabrinutosti.

Zaštita uzbunjivač je nedovoljna jer se fokusira na nezakonite aktivnosti, dok su mnogi od rizika o kojima brinemo još uvek neregulisani. – navodi se u pismu.

Zaposleni su važna linija odbrane u vezi sa sigurnošću, a ako ne mogu slobodno da govore bez odmazde, taj kanal će biti zatvoren. – rekao je pravni savetnik grupe Lorens Lesig  za Njujork Tajms.

Prema istraživanju AI Policy Instituta, 83% Amerikanaca veruje da AI može slučajno dovesti do katastrofalnog događaja, dok 82% ne veruje tehnološkim liderima da sami regulišu industriju. Daniel Kolson, izvršni direktor Instituta, napominje da je pismo objavljeno nakon niza visokoprofilnih odlazaka iz OpenAI-a, uključujući glavnog naučnika Iliju Sutskevera.

Autori pisma postavili su četiri zahteva AI kompanijama: prestanak primoravanja zaposlenih na sporazume koji im zabranjuju da kritikuju poslodavca zbog „rizika“, uspostavljanje anonimnog procesa za iznošenje zabrinutosti, podržavanje „kulture otvorene kritike“ i neodmazdu protiv zaposlenih koji dele „poverljive informacije o rizicima nakon što drugi procesi nisu uspeli“.

Vlade širom sveta rade na regulaciji AI, iako napredak zaostaje za brzinom razvoja AI. Ranije ove godine, EU je usvojila prvi sveobuhvatni zakon o AI. Međunarodni napori se sprovode putem AI Safety Summits u Velikoj Britaniji i Južnoj Koreji, kao i u UN-u. U oktobru 2023. predsednik Džo Bajden potpisao je izvršnu naredbu koja, između ostalog, zahteva od AI kompanija da otkriju svoje planove razvoja i testiranja sigurnosti Ministarstvu trgovine.

S.G.

Pretplata
Obaveštenje
0 Komentari
Najstariji
Najnoviji Najpopularniji
Inline Feedbacks
Pogledaj sve komentare