PANDORINA KUTIJA VEĆ JE OTVORENA! Stižu roboti ubojice: ‘Tko zna, možda vojni čelnici to čine i nesvjesno’

dnevno - prije 3 mjeseca - link

Uporaba iranskih dronova u ratu u Ukrajini skrenula je pozornost svjetske javnosti na “smrtonosno autonomno oružje” (eng. Lethal autonomous weapon, LAW). Riječ je o vrsti autonomnog vojnog sustava koji može samostalno tražiti i gađati mete na temelju programiranih ograničenja i opisa. Pojam se obično odnosi na bespilotne letjelice, dronove, podmornice bez posade i vozila vez vozača, no kritičari najčešće rabe naziv “roboti ubojice”. Takvi oružani sustavi mogu djelovati u zraku, na kopnu, na vodi, pod vodom ili u svemiru.

Za robote ubojice ili “terminatore” sve donedavno mogli smo čuti samo iz filmova i knjiga. Srećom, ideja o superinteligentnom oružju i danas je znanstvena fantastika, no kako oružje s umjetnom inteligencijom postaje sve sofisticiranije, zabrinutost javnosti raste zbog straha od nedostatka odgovornosti i rizika od tehničkih kvarova. Od 2018. autonomno je oružje ograničeno u smislu da čovjek daje konačnu naredbu za napad, iako postoje iznimke.

Već smo vidjeli kako je tzv. neutralna umjetna inteligencija stvorila algoritme nesposobne za moderiranje sadržaja, uglavnom zato što njihovi kreatori nisu posve razumjeli tehnologiju. No u ratu bi takvi nesporazumi mogli ubiti nedužne civile i potkopati mirovne pregovore.

Stručnjaci za interaktivnu umjetnu inteligenciju Miranda Mowbray i Jonathan Erskine sa Sveučilišta u Bristolu (Engleska, UK) kažu da bi se algoritam za prepoznavanje ciljeva mogao osposobiti za prepoznavanje tenkova na satelitskim snimkama. Ali što ako sve snimke korištene za uvježbavanje sustava prikazuju vojnike u formaciji oko tenka? U tom bi slučaju umjetna inteligencija mogla razoriti civilno vozilo koje se probija kroz vojnu blokadu. Zašto nam je onda autonomno oružje uopće potrebno?

Željezna kupola

Civili u mnogim zemljama, kao što su Vijetnam, Afganistan i Jemen, patili su zbog načina na koji globalne supersile grade i rabe sve naprednije oružje. Upravo nam rat u Ukrajini ukazuje na to da se time može uzrokovati više štete nego koristi.

U drugom su taboru države koje kažu da se moraju moći braniti, a to znači držati korak s vojnom tehnologijom drugih nacija. Umjetna inteligencija već može nadmudriti ljude u šahu i pokeru. Nadmašuje ljude i u stvarnom svijetu. Primjerice, Microsoft tvrdi da njegov softver za prepoznavanje govora ima stopu pogreške od 1 posto u usporedbi sa stopom ljudske pogreške od oko 6 posto. Stoga nije čudno što vojske polako prepuštaju uzde algoritmima.

Pa kako onda izbjeći dodavanje robota ubojica na dugi popis izuma za koje bismo voljeli da ih nikada nismo stvorili? I tu vrijedi ona izreka: “Upoznaj svog neprijatelja”.

Američko Ministarstvo obrane definira autonomni oružani sustav kao “oružani sustav koji, jednom aktiviran, može odabrati i gađati ciljeve bez daljnje intervencije ljudskog operatera”. Mnogi borbeni sustavi već zadovoljavaju taj kriterij. Računala na bespilotnim letjelicama i modernim projektilima imaju algoritme koji mogu otkriti mete i pucati na njih s mnogo većom preciznošću od ljudskog operatera… osim kada jedan takav padne na zagrebački, a ne na ukrajinski Jarun.

Izraelska “Željezna kupola” (Kippat Barzel) jedan je od nekoliko aktivnih obrambenih sustava koji mogu napadati mete bez ljudskog nadzora. Riječ je o mobilnom zemaljskom obrambenom sustavu protiv raketa, topničkih i minobacačkih projektila. Sastoji se od višemodnog radara (MMR) EL/M-2084, kontrolnog centra (BMC) i do četiri lansirne jedinice (MFU) za po 20 presretačkih projektila. Radar IAI Elta Systems detektira lansiranje neprijateljskog projektila, izračunava njegovu putanju i prenosi te informacije u kontrolni centar koji računa točku udara projektila. Sustav radi potpuno automatski i uzima u obzir zaštitne zone definirane koordinatama. Ako se ciljna točka nalazi unutar zaštitne zone, jedna ili više presretačkih raketa bit će lansirane nakon ručne potvrde. Projektil presretač Tamir opremljen je radarskim tragačem, što mu daje visoku sposobnost manevriranja. Baterija Željezne kupole može pokriti područje u krugu polumjera 7 km protiv raketnih i topničkih napada, dok istodobno otkriva do šest nadolazećih objekata. Mobilna struktura obrambenog sustava omogućuje joj brzo premještanje na druga područja i pogodna je za sve vremenske uvjete.

Iako je dizajnirana za obranu od projektila, Željezna bi kupola ipak mogla slučajno ubiti ljude. Rizik se smatra prihvatljivim u međunarodnoj politici jer ona općenito ima pouzdanu povijest zaštite života civila.

Umjetna inteligencija

Danas već postoji oružje s umjetnom inteligencijom dizajnirano i za napad na ljude, od robotskih “sentry” topova, kakve ima Južna Koreja, do dronova kamikaza korištenih u ukrajinskom ratu. Ako želimo utjecati na uporabu takvih sustava, moramo razumjeti povijest modernog oružja.

Međunarodni sporazumi, kao što su Ženevske konvencije, propisuju način postupanja s ratnim zarobljenicima i civilima tijekom sukoba. Oni su jedan od rijetkih alata koje imamo za nadzor ratnih sukoba. Nažalost, američka upotreba kemijskog oružja u Vijetnamu i ruska u Afganistanu dokaz je da te mjere nisu uvijek uspješne.

Još je gore kada ključni igrači odbiju pravila igre. Međunarodna kampanja za zabranu protupješačkih mina (ICBL) još od 1992. zagovara zabranu mina i kazetnih bombi koje sadrže nekoliko manjih bombi koje se tijekom aktiviranja izbacuju iz kućišta po širokom području. Godine 1997. potpisan je Otavski sporazum koji propisuje zabranu uporabe, stvaranja zaliha, proizvodnje i prijenosa protupješačkih mina te nalaže njihovo uništenje. Do danas su ga potpisale 164 države, ali među njima nisu primjerice SAD, Rusija, Kina, Indija i Pakistan.

Prema lanjskom izvješću nevladine inicijative “Nadzor protupješačkog i kazetnog naoružanja”, od 2015. nagazne mine ranjavaju i ubijaju najmanje 5000 vojnika i civila godišnje, a samo u 2017. bilo je 9440 žrtava.

“Broj žrtava uznemirujuće je visok u proteklih sedam godina, nakon više od desetljeća povijesnog smanjenja. Godina 2021. nije bila iznimka. Taj trend uvelike je rezultat povećanog broja sukoba i kontaminacije improviziranim minama koje se rabe od 2015. Civili predstavljaju većinu zabilježenih žrtava, od kojih su polovica bila djeca”, piše u izvješću.

Unatoč svim naporima ICBL-a, postoje dokazi da se i Rusija i Ukrajina koriste minama. Ukrajina se također oslanjala na bespilotne letjelice za navođenje topničkih napada, ili u novije vrijeme za napade “kamikaza” na rusku infrastrukturu.

Robot ubojica

No što je s naprednijim oružjem s umjetnom inteligencijom? Međunarodna nevladina koalicija “Kampanja za zaustavljanje robota ubojica”, osnovana 2013., navodi devet ključnih problema sa smrtonosnim autonomnim oružjem, fokusirajući se na nedostatak odgovornosti i inherentnu dehumanizaciju ubijanja.

Iako je ta kritika opravdana, potpuna zabrana robota ubojica nerealna je iz dva razloga. Prvo, “Pandorina kutija” već je otvorena. Drugo, granice između autonomnog oružja, smrtonosnog autonomnog oružja i robota ubojica toliko su nejasne da ih je teško razlučiti. Vojni čelnici uvijek bi mogli pronaći rupu u tekstu zabrane i “prošvercati” robote ubojice u službu kao obrambeno autonomno oružje. Tko zna, možda to čine i nesvjesno.

Svaki rod američke vojske sada traži sve više i više robota. Mornarica eksperimentira sa 135 tona teškim brodom “Sea Hunter” koji bi mogao patrolirati oceanima bez posade, tražeći podmornice koje bi jednog dana mogao izravno napasti. Njime će zapovijedati “besposadni časnik”. Amerikanci razvijaju i novi sustav za svoje tenkove koji mogu pametno odabrati mete, kao i raketni sustav “Joint Air-to-Ground Missile” (JAGM) koji može odabrati vozilo za napad bez ljudskog dopuštenja. Zračne pak snage razvijaju program “SkyBorg” u kojem će udružene bespilotne letjelice moći “postaviti, izvesti i održavati misiju dovoljnim tempom da proizvedu i održe borbenu masu na područjima sukoba”.

Postoje tri vrste robota. “Automatski” reagiraju na mehanički način na izvanjske unose. Oni su obično bez ikakve mogućnosti razlikovanja tih unosa.

“Automatizirani” roboti izvršavaju naredbe na kronološki unaprijed programiran način sa senzorima koji pomažu u slijedu radnje. Uglavnom su ograničeni algoritmima koji im određuju pravila rada i ponašanja iz fiksnih alternativnih radnji, što ih čini predvidljivima.

Skup parametara

“Autonomni” roboti jesu oni koji mogu birati između više opcija za djelovanje na temelju senzorskog unosa te mogu postići ciljeve optimizacijom uz skup parametara. Iako su još ograničeni unaprijed programiranim nizom radnji, mogu samostalno prosuđivati o pravcima radnji kako bi djelovali u skladu s namjerom više razine.

U budućnosti ćemo se sasvim sigurno još mnogo puta nagledati oružja s umjetnom inteligencijom. No to ne znači da moramo gurati glavu u pijesak. Konkretnije i nijansiranije zabrane pomogle bi da naši političari, znanstvenici i inženjeri budu odgovorni.

Primjerice, već bismo sada mogli zabraniti dvije vrste oružja: “black box sustave umjetne inteligencije” kod kojih korisnik nema nikakve informacije o algoritmu, osim ulaznih i izlaznih podataka, te “nepouzdanu umjetnu inteligenciju”, tj. sustave koji su loše testirani, kao u prethodno spomenutom primjeru napada na civile umjesto na tenkove.

Ako mislite da vas se to ne tiče, ne zaboravite da je dovoljno samo jedno putovanje u nemirni dio svijeta ili jedan vojni okršaj sa susjednom državom, da i sami postanete žrtva. Osim toga, ne morate biti stručnjak za umjetnu inteligenciju da biste mogli promišljati o smrtonosnom autonomnom oružju. Pratite razvoj modernih vojnih tehnologija. Kada čitate ili čujete o korištenju umjetne inteligencije u borbi, zapitajte se je li to opravdano. Je li to očuvanje civilnog života? Ako ne, povežite se s inicijativama koje rade na nadzoru takvih sustava. Zajedno možemo spriječiti umjetnu inteligenciju da napravi više štete nego koristi.

pročitaj cijeli članak

Planet-X (173)