top of page

AI i neproliferacija: potencijali za zloupotrebu

Writer's picture: Miljan MihailovićMiljan Mihailović

OpenAI je razvio okvir za spremnost kako bi smanjio rizike zloupotreba uključujući pretnje u vezi sa oružjem za masovno uništenje (foto: dvidshub.net)
OpenAI je razvio okvir za spremnost kako bi smanjio rizike zloupotreba uključujući pretnje u vezi sa oružjem za masovno uništenje (foto: dvidshub.net)

Razvoj generativne veštačke inteligencije (AI) otvorio je brojne mogućnosti za unapređenje ljudskih kapaciteta, ali i za raznovrsne zloupotrebe. Iako može da podrži raznovrsna krivična dela poput podsticanja nasilnog ponašanja ili pravljenja improvizovanih eksplozivnih naprava, potencijal AI da pogorša rizik od proliferacije oružja za masovno uništenje (WMD) izaziva najveću zabrinutost kreatora državnih politika i stručnjaka za visoke tehnologije.


Obe grupacija zbog toga razmatraju čitav spektar novih rizika koje generativni AI modeli donose u domenu WMD. Neki eksperti sugerišu da osnovni modeli (foundation models) mogu pomoći u razvoju biološkog oružja, što je izazvalo pozive za strožu regulaciju, nadzor i odgovornu primenu ovih alata.


Zbog toga je, na primer, kompanija OpenAI koja je kreirala ChatGPT razvila okvir za spremnost (preparedness framework) kako bi smanjili rizike povezane s korišćenjem njihovih modela, uključujući pretnje u vezi sa oružjem za masovno uništenje. Takođe, kompanije koje razvijaju generativnu AI obavezale su se na sprovođenje "red teaming" testiranja i procena bezbednosti kako bi osigurale da njihovi modeli ne doprinose rizicima povezanima sa WMD.


Za one koji se bave neproliferacijom WMD, napredak generativne AI predstavlja ključno polje za praćenje. Ipak, trenutne procene ukazuju na ograničenu upotrebljivost ovih sistema za zlonamerne aktere. Većina modela je obučena da odbija pružanje štetnih informacija, uključujući uputstva za razvoj WMD. Međutim, poznato je da neki eksperti uspevaju da zaobiđu te restrikcije koristeći "jailbreak" tehnike. 


I pored toga, problem "halucinacija", odnosno generisanja netačnih informacija, dodatno smanjuje poverenje zlonamernih aktera u podatke koje AI modeli pružaju, što ograničava njihovu upotrebnu vrednost. Čak i kada modeli uspeju da pruže korisne informacije, zlonamerni akteri se često suočavaju sa barijerom implicitnog znanja, kritičnog "know-how" iskustva koje ne može biti naučeno samo čitanjem.


Kako se generativni AI modeli razvijaju, barijere koje trenutno ograničavaju njihovu korisnost za zlonamernu upotrebu mogle bi da postanu sve manje izražene. Smanjenje učestalosti halucinacija u novim verzijama modela i povećanje njihove sposobnosti za rezonovanje povećavaju šansu da se pretvore u potencijalnu opasnost. Takav razvoj tehnologija zahteva kontinuirano praćenje i uspostavljanje jasnih standarda za procenu kapaciteta AI u kontekstu WMD, kao i redovne evaluacije različitih modela i njihovih verzija.


Generativna AI donosi i šire izazove, uključujući mogućnost da proizvodi sadržaje koji su štetni, pristrasni ili neusklađeni sa društvenim normama. Da bi se sprečili ovakvi scenariji, tehnološki developeri se trude da usklade svoje modele sa ljudskim vrednostima još u fazi dizajna. Koncept usklađivanja (alignment) podrazumeva osiguranje da rezultati AI sistema budu dosledni ljudskim vrednostima, namerama i etičkim standardima. 


Međutim, neusaglašenost može dovesti do ozbiljnih posledica, poput širenja dezinformacija, podsticanja štetnih stereotipa ili donošenja odluka koje negativno utiču na zajednice.

Neki stručnjaci upozoravaju da bi razvoj generativne AI mogao ubrzati dolazak veštačke opšte inteligencije (AGI), kada mašine dostignu nivo inteligencije ravan ljudskom. 


Ubrzo nakon toga, mogla bi uslediti superinteligencija, gde bi mašine bile inteligentnije od ljudi. U tom stadijumu, generativna AI može postati egzistencijalni rizik, ne samo zbog potencijalne zloupotrebe u WMD kontekstu, već i kao direktna pretnja opstanku čovečanstva. Na primer, superinteligentne mašine mogle bi postaviti ciljeve koji nisu u skladu s ljudskim vrednostima i izazvati štetu, bilo kroz nenamerne posledice ili kroz prioritizaciju svojih ciljeva nad ljudskim potrebama.


U svetlu ovih pretnji, usklađivanje AI sistema sa ljudskim vrednostima postaje ključni prioritet. Ako budući AGI i superinteligentni sistemi ne budu ispravno usklađeni sa etičkim principima, njihova autonomna odluka mogla bi ugroziti ljudsku dobrobit. Na primer, AI bi mogao da optimizuje korišćenje resursa na način koji izaziva nestašice, ekološke štete ili krize.


Stoga, uvođenje strožih regulacija i kontinuirano praćenje razvoja AI tehnologija postaje ključno za očuvanje globalne stabilnosti i bezbednosti.


Diskusije o AI na Balkanu

Tema AI regulacije predmet je diskusija zvaničnika i stručnjaka i na prostoru Balkana. Data Science konferencije održana u Beogradu novembra 2024. osvrnula se na brojne inicijative Evropske unije, istraživanja i programe u okviru svoje Strategije za razvoj AI, kao i razvoj alata koji će osigurati bezbednost svih korisnika.


Navedeni su i primeri iskustava različitih država. U Srbiji je primetno uvođenje zakonskih regulativa i usvajanje nacionalne Strategije o veštačkoj inteligenciji, koja sadrži smernice za njenu primenu, razvoj i kontrolu. Italija se fokusira na unapređenje ljudskog potencijala kroz primenu veštačke inteligencije za opšte dobro poput digitalizacije javne uprave, istraživanja i razvoja AI, uz istovremeno ublažavanje potencijalnih rizika.


Nemačka stavlja akcenat na ulogu AI u obradi podataka, poput primene u policijskom radu, kako bi se unapredila borba protiv kriminala i u postupku odobravanja viza, što olakšava rad administrativnog osoblja. Švedska ulože značajna sredstva kako bi obezbedila konkurentnost na evropskom i globalnom tržištu u oblasti AI.


Akcenat Francuske trenutno je na istraživanju i inovacijama u primeni AI u različitim oblastima, poput saobraćaja, medicine, bezbednosti i digitalizacije javne uprave, poput poreske uprave, gde je tehnologija značajno doprinela sprečavanju prevara.

  • facebook
  • twitter

©2023 Balkanska bezbednosna mreža. Odbrana i bezbednost iz ugla novinara i urednika sa prostora Jugoistočne Evrope.

bottom of page