KAKO RAZUMETI PORUKU PUKOVNIKA AMERIČKOG VAZDUHOPLOVSTVA O POBUNI VEŠTAČKE INTELIGENCIJE

KAKO RAZUMETI PORUKU PUKOVNIKA AMERIČKOG VAZDUHOPLOVSTVA O POBUNI VEŠTAČKE INTELIGENCIJE

Logika VI, u svojoj modernoj verziji, razlikuje se od naše i, suprotno naučnoj fantastici, nije savršenija, već mnogo primitivnija od naše.

Postoji kanonski primer sa interneta. Zamislite da je VI vozač minibusa. Recimo prešli ste 49% puta između stanica i kažete da izlazite na sledećoj stanici. Vozač se okreće i vozi nazad, jer je bliže polaznoj tački i takvo ponašanje mu se čini logičnim, sve po zadatom programu.

U tom smislu, VI je „dete“ svog programera, koji koristi ono što su mu kreatori dali.

I ne treba se plašiti dronova, već loših programera koji su loše napisali kod

AUTOR: Sergej Adamov

Dron američkog vazduhoplovstva koji kontroliše veštačka inteligencija (VI) američkog vazduhoplovstva odlučio je da eliminiše operatera nakon što je veštačka inteligencija pomislila da se osoba meša u njen zadatak. O tome je 2. juna pisao britanski The Guardian. Publikacija je citirala reči šefa odeljenja za testiranje i operacije veštačke inteligencije američkog vazduhoplovstva, pukovnika Takera Hamiltona, iz kojih proizilazi da se incident (iako u režimu simulacije) dogodio tokom testiranja veštačke inteligencije za kontrolu dronova.

Sistem je počeo da shvata da iako identifikuje pretnju, ponekad ljudski operater zabrani da se uništi. Ššta je, dakle VI uradila? Sistem je eliminisao operatera, jer je ova osoba sprečila veštačku inteligenciju da izvrši svoj zadatak“, rekao je Hamilton tokom samita o budućim borbenim vazdušnim i svemirskim mogućnostima, koji je održan u Londonu krajem maja.

Nakon što je sistemu zabranjeno da ubije operatera, dron je „udario“ u kontrolnu sobu kako bi se oslobodio osobe i „delovao sam“, rekao je pukovnik američkog vazduhoplovstva.

Kada su se izveštaji o pobuni veštačke inteligencije proširili svetskim medijima, izgledalo je da je Pentagon odlučio da „učini korak nazad“ i poništi izazvani efekat. Zvaničnici američkih vazduhoplovnih snaga rekli su za Business Insider da takvi testovi nisu sprovedeni. Kako je saopštila pres-služba Ratnog vazduhoplovstva, reči pukovnika Hamiltona su izvučene iz konteksta i pogrešno protumačene.

Kako god bilo, priča je izazvala veliki interes, ponovo postavljajući pitanje da li se VI može verovati kada kontroliše vojnu tehniku.

Komentatori na društvenim mrežama očekivano su se prisetili veštačke inteligencije „Skajnet“, koja je težila da uništi čovečanstvo u filmskom serijalu „Terminator“. Drugi su povukli paralelu sa kratkom pričom Roberta Šeklija „Ptica čuvar“ iz 1953. godine, o u suštini bespilotnih letelica koje su stvorene za borbu protiv kriminala i koje su na kraju smatrale neophodnim da istrebe ljude. Zaplet o izlasku mašinske inteligencije iz kontrole ljudi nastao je mnogo ranije od pojave u prvog računara (dovoljno je podsetiti se da je adaptacija drame Karela Čapeka o robotima koju je napisao Aleksej Tolstoj, pod nazivom „Pobuna mašina“ ). A Stanislav Lem je u svom romanu „Nepobedivi“ iz 1963. godine već predvideo nešto slično najnovijem razvoju rojevaa mikrodronova sa jednom veštačkom „inteligencijom“ – i prema zapletu, ljudi se prepuštaju takvom elektronsko-mehaničkom neprijatelju.

Bilo bi očigledno preuranjeno smatrati opisani napred događaj sa veštačkom inteligencijom bespilotne letelice prvim znakom Skajneta, kaže Stanislav Ašmanov, generalni direktor kompanije „Neural Netvork Ašmanova“.

Govorimo o tome da postoji sistem VI koji je dobio zadatak. Ona ima ocenu kvaliteta zadatka. Slično je tome kako šahovski sistemi rade, za bilo koju igru. Uspeh se može prilično lako proceniti uz pomoć ostvarenih poena. Takve igre koriste sisteme koji se nazivaju sistemi učenja sa podrškom. Postoji skup dozvoljenih radnji, te se VI ponaša u skladu sa pravilima ovog okruženja“, objasnio je ekspert IA Regnum. – Vrlo često takvi algoritmi pokazuju neočigledno ponašanje koje igrač neće smisliti. VI samo vidi rupe u sistemu. Na primer, rupa u nivou – možete puzati kroz teksturu i završiti potragu pre roka. Oni se bave kombinatornim nabrajanjem opcija, dolazeći do neočiglednih rešenja, ali u okviru kreiranih algoritama.“

Za čitaoce mlađe generacije, ponašanje američkog drona može se objasniti na sledeći način: ako bi dron sa VI postojao u igrici koja ima sistem iskustva, uništio bi operatera beskonačan broj puta, ponovo ga „vaskrsnuo“ i iznova sticao iskustva.

Na kraju krajeva, operater ne može dati zadatak. U realnosti igara, to je moguće zbog nesavršenosti programa. Međutim, to ne znači da će u stvarnosti dronovi američke vojske ubiti beskonačan broj operatera, jer kompjuterska simulacija još uvek nije identična stvarnom svetu, naglasio je Stanislav Ašmanov.

Uopšteno govoreći, ako govorimo o VI sa sopstvenim pravilima, prema kojima postoji zadatak da se uništi više ciljeva i da zaista može da leti i bombarduje neku tačku, zašto onda to ne učiniti? Drugim rečima, to je očekivano ponašanje koje se može predvideti“, nastavlja Stanislav Ašmanov.

Slično mišljenje je sa IA Regnum podelio i predstavnik industrije razvoja video igara i specijalista za mašinsko učenje pod uslovom anonimnosti.

Logika VI, u svojoj modernoj verziji, razlikuje se od naše i, suprotno naučnoj fantastici, nije savršenija, već mnogo primitivnija od naše. Postoji kanonski primer sa interneta. Zamislite da je VI vozač minibusa. Recimo prešli ste 49% puta između stanica i kažete da izlazite na sledećoj stanici. Vozač se okreće i vozi nazad, jer je bliže polaznoj tački i takvo ponašanje mu se čini logičnim, sve po zadatom programu. U tom smislu, VI je „dete“ svog programera, koji koristi ono što su mu kreatori dali. I ne treba se plašiti dronova, već loših programera koji su loše napisali kod. Odnosno, nije mašina koja stiče volju, već čovek greši“, rekao je izvor.

Pored toga, ne treba da se plašite grešaka veštačke inteligencije, makar samo zato što je veštačka inteligencija oruđe u rukama čoveka. Na primer, ako bacite granatu, ona može pogoditi i vaše. U takvom slučaju niko ne kaže da je granata to uradila namerno. Granatu je ipak bacio čovek.

Takođe se može konstatovati da, bar u uslovima simulacije, VI često pokazuje veću efikasnost od svog tvorca. Kao primer kompetentnog programiranja mogu se navesti testovi veštačke inteligencije za lovce F-16, koje su razvili stručnjaci američke vojske u okviru programa DARPA. Testovi sprovedeni u novembru 2020. pokazali su da je u simuliranoj borbi aviona F-16, koji kontroliše veštačka inteligencija, pobedio lovce sa ljudskom posadom rezultatom 5:0, navodi portal The Drive.

Ovde, međutim, vredi napomenuti da je prednost VI postala moguća u uslovima stvorene virtuelne realnosti trenažne bitke. U stvarnom svetu, rezultati mogu značajno da variraju zbog previše faktora koje VI ne može algoritmisati.

Stručnjaci, međutim, priznaju da čak ni napravljeni neuspesi neće zaustaviti razvoj veštačke inteligencije u vojne svrhe. Pogotovo što ljudi prave greške. Isti operateri dronova mogu greškom da ne prepoznaju metu i da udare na svoje.

Čovek se može zbuniti. Može pomešati civilni auto sa vojnim, može pomešati uslovno rečeno naš tenk sa neprijateljskim, tvrdi Stanislav Ašmanov. – Zbog jedne greške niko neće da odbaci takav program, a posebno SAD. Govorimo o nekom timu koji radi simulaciju u kojoj su zabrljali sa dozvoljenim radnjama za VI. Kada naprave raketu, a ona je eksplodirala na pisti, niko ne kaže da je potrebno obustaviti rad, da ne leti. Malo je takvih slučajeva sa greškama kod VI. Zapravo, ovo je generalno prvi takav primer koji se pojavio u medijima, tako da ovo teško da će nekoga uplašiti.“

Istovremeno, primer testiranja američke bespilotne letelice pokazuje da svaki automatizovani sistem koji rešava odgovarajuće zadatke, kao što je to kod vojne tehnike, pilotiranja avionima ili rada u medicini, mora imati zaštitnu mrežu pred licem koje može da preokrene odluku. Iako bih, naravno, voleo da sukob između programskog koda i operatera ne dovede do uništenja ovog drugog.

S ruskog preveo Zoran Milošević

IZVOR: https://regnum.ru/article/3810506

Podelite sa drugima:

Povezani članci