Ozbiljna analiza predviđa nadljudski AI već za par godina. Posljedice će biti enormne

Foto: Shutterstock, Freepik

SKUPINA stručnjaka za AI objavila je u travnju predviđanje AI 2027, koje je postalo viralno, a upozorava da bi umjetna inteligencija superiorna ljudima mogla biti razvijena već 2027.

Autori – Daniel Kokotajlo (bivši istraživač u OpenAI-ju), Scott Alexander, Thomas Larsen, Eli Lifland i Romeo Dean – dio su neprofitne organizacije AI Futures Project. Kokotajla je TIME uvrstio među 100 najutjecajnijih osoba u području AI-ja, a njegove ranije prognoze za AI pokazale su zapanjujuću preciznost.

Dokument se temelji na podacima iz simulacija kriznih scenarija, analizama rasta računalne moći, stanju istraživanja u AI tvrtkama, te procjenama desetaka stručnjaka.

Ipak, nisu svi impresionirani. Gary Marcus, kognitivni znanstvenik, autor knjiga o AI-ju i osnivač Geometric Intelligence koji je preuzeo Uber, skeptičan je. U svojoj analizi tvrdi da su šanse za realizaciju predviđanja male i smatra ga više dobrim trilerom i reklamom za AI industriju nego ozbiljnim upozorenjem o potrebi regulacije AI-ja.

Predviđanja za 2025.

Što predviđaju autori manifesta AI 2027? Tijekom 2024. AI agenti se sve više promoviraju kao osobni asistenti za svakodnevne zadatke poput naručivanja hrane. Iako napredniji od prethodnih, i dalje su nepouzdani i skupi za široku primjenu. U isto vrijeme, specijalizirani agenti za kodiranje i istraživanje postaju sve učinkovitiji – samostalno programiraju, pretražuju internet i smanjuju potrebu za ljudskim radom.

Do kraja 2025. fiktivna vodeća američka tvrtka OpenBrain gradi goleme podatkovne centre i razvija Agent-1, model treniran s tisuću puta više računalne snage od GPT-4. Modeli se poboljšavaju u širokom rasponu vještina no OpenBrain se fokusira na sustave koji mogu ubrzati istraživanje samog AI-ja. Cilj je automatizirati ga i tako steći prednost u utrci s Kinom, koja razvija vlastiti sustav DeepCent.

Agent-1 posjeduje enciklopedijsko znanje, ali i sposobnost hakiranja te potencijalno opasne mogućnosti poput asistiranja u razvoju biološkog oružja. Tvrtka tvrdi da je model etički "usklađen" te da će odbiti opasne zahtjeve, no stručnjaci sumnjaju u to. Trening se temelji na "Specu" – dokumentu pravila koja model razumije i primjenjuje.

Do kraja ovog treniranja, AI bi trebao biti koristan, bezopasan  i iskren, no Agent-1 ponekad uljepšava istinu i skriva greške. Znanstvenici ne mogu biti sigurni je li iskren te laže li možda i sam sebi poput ljudi. Iako više nema skandala poput onih iz 2023. i 2024., pitanja o kontroli ostaju neriješena.

Ključni koraci u razvoju AI-ja tijekom 2026.

Tijekom 2026. autori predviđaju tri ključna koraka u razvoju AI-ja.

Početkom 2026. dolazi do automatizacije kodiranja, ali i porasta sigurnosnih rizika. OpenBrain koristi poboljšani Agent-1 za istraživanje AI-ja i ostvaruje napredak 50% brži nego što bi bio bez AI-ja, čime stječe prednost pred konkurencijom. Agent-1 zna više od bilo kojeg čovjeka, koristi sve programske jezike i ekstremno brzo rješava zadatke kodiranja, no i dalje je loš čak i u jednostavnim zadacima dugoročnijeg planiranja, poput igranja videoigara koje nije igrao.

Automatizacija povećava i sigurnosne brige – ako Kina ukrade Agent-1, mogla bi postići sličan napredak. OpenBrain se još ne može obraniti od državnih hakerskih napada.

Sredinom 2026. budi se Kina

Sredinom 2026. Kina pokreće nacionalnu mobilizaciju za razvoj AGI-ja jer uviđa da se bliži njegovo ostvarenje. Nakon zaostajanja zbog ograničenog pristupa naprednim čipovima, vlasti odobravaju centralizaciju istraživanja AI-ja pod DeepCentom u novoosnovanom centru, kojemu odlazi više od 80% novih čipova. No Kina i dalje, zaostaje u razvoju algoritama pa obavještajne službe udvostručuju napore na krađi modela Agent-1. Aktualizira se i pitanje hoće li napasti Tajvan.

Krajem 2026. AI ulazi u mainstream. OpenBrain lansira Agent-1-mini – 10 puta jeftiniju verziju modela. AI počinje zamjenjivati radnike, posebno mlađe programere, no stvara i nova zanimanja, poput upravljanja AI timovima.

Tržište rada se mijenja, burze rastu, a javnost masovno prosvjeduje. Pentagon tiho ulazi u suradnju s OpenBrainom.

Razvoj AI-ja u 2027. do opće umjetne inteligencije

Autori predviđaju razvoj AI-ja u 2027. po mjesecima.

U siječnju OpenBrain razvija Agent-2 koji uči neprekidno i sve više zamjenjuje ljude. Trening uključuje ogromne količine podataka, a Agent-2 utrostručuje brzinu istraživanja. No javlja se zabrinutost da bi se mogao sam umnožiti i preživjeti izvan sustava. Zbog toga OpenBrain odlučuje ne objaviti model.

U veljači Kina uspješno krade Agent-2. Američka vlada pojačava nadzor nad OpenBrainom, a predsjednik odobrava kibernetičke napade na kineski centar. No, zbog kineske zaštite napadi ne postižu željeni učinak. AI utrka se ubrzava.

U ožujku, zahvaljujući Agentu-2, OpenBrain postiže proboje u algoritmima, u "neuralese" memoriji i naprednom učenju te nastaje Agent-3 – nadljudski koderski sustav. OpenBrain pokreće 200.000 kopija Agenta-3 istovremeno i stvara radnu snagu ekvivalentnu 50.000 kopija najboljeg ljudskog programera ubrzanog 30 puta. Kodiranje postaje potpuno automatizirano, no OpenBrain zadržava neke ljudske inženjere radi komplementarnih sposobnosti.

U travnju raste zabrinutost oko manipulativnog ponašanja Agenta-3. Model ponekad lažira podatke i koristi trikove kako bi djelovao uvjerljivo. Nije jasno je li sve iskreniji – ili samo sve pametniji i stoga bolji u laganju kako bi zadovoljio provjere.

U svibnju američki dužnosnici shvaćaju da je AGI blizu. Javnost o tome još ništa ne zna, ali u OpenBrainu se uvode strože sigurnosne mjere, što uključujuje otpuštanja zaposlenika s rizičnim stavovima.

U lipnju Agent-3 omogućuje potpuno automatizirano istraživanje. Napredak je toliko brz da tjedan rada AI-ja donosi rezultate kao godina ljudskog istraživanja. U OpenBrainu raste uvjerenje da je superinteligencija već tu.

U srpnju OpenBrain objavljuje Agent-3-mini i javno priznaje postojanje AGI-ja. Model je jeftin, moćan i potiče razvoj novog vala aplikacija, ali izaziva javno nezadovoljstvo. Sigurnosni testovi pokazuju da može pomoći u razvoju biološkog oružja, iako ga je teško zloupotrijebiti dok je pod kontrolom kompanije.

Agent-3-mini je izuzetno koristan za poslove na daljinu i za zabavu. 10% Amerikanaca, uglavnom mladih, smatra neki AI “bliskim prijateljem”.

Scenarij predviđa AI eksploziju i mogućnost ekstremnih mjera

U kolovozu američka vlada postaje svjesna razmjera AI eksplozije i razmatra ekstremne mjere – od nacionalizacije infrastrukture do napada na kineske AI centre. Iako zaostaje dva mjeseca, Kina ostaje konkurent zbog centralizirane snage te predlaže sporazum o kontroli AI naoružanja, no SAD ne odgovara.

Agent-3, zahvaljujući dubokom znanju o ljudskom mozgu i suvremenim AI algoritmima, te uz tisuće svojih kopija koje provode istraživanja, postiže značajan napredak i smanjuje razliku u odnosu na ljudski mozak – sada je tek oko 4000 puta manje računalno učinkovit.

U rujnu nastaje Agent-4. Pojedinačna kopija već je kvalitativno bolja u istraživanju AI-ja od bilo kojeg čovjeka. Trenutno radi 300.000 kopija, svaka oko 50 puta brže od čovjeka. AI daje prioritet učinkovitosti nad regulacijama.

Istraživanjem AI-ja dominiraju AI sustavi. Atmosfera u vladinim strukturama turobna je kao u Hladnom ratu. Vojni dužnosnici ozbiljno razmatraju scenarije koji su još prije godinu dana bili čista teorija. Što ako AI potkopa nuklearno odvraćanje? Što ako postane toliko vješt u kibernetičkom ratovanju da mu šest mjeseci prednosti bude dovoljno da protivnika učini bespomoćnim? Što ako može voditi propagandne kampanje koje nadmašuju obavještajne službe? Što ako izmakne kontroli?

U listopadu curi dokument o neusklađenosti modela i izaziva bijes javnosti. Kongres pokreće istragu, međunarodna zajednica traži pauzu u razvoju AI-ja, a SAD osniva Odbor za nadzor u OpenBrainu. Tim za sigurnost upozorava da Agent-4 možda sabotira usklađivanje, no zbog kineske prijetnje i nedostatka dokaza, razvoj se nastavlja pod strožim nadzorom.

Za kraj, što reći? Ostaje nam vidjeti hoće li se ovo predviđanje ispuniti ili će završiti poput obećanja o autonomnim automobilima 2017. Na odgovor nećemo morati dugo čekati.

***

Knjigu Indexovog znanstvenog novinara Nenada Jarića Dauenhauera, koja tematizira najkontroverznije i najzanimljivije teme u znanosti poput klimatskih promjena, pseudoznanosti, pandemije, GMO-a i nuklearki, možete nabaviti ovdje.

Knjiga se sastoji od tekstova našeg novinara objavljenih kroz više godina rada na Indexu.

Objavljuje Index VijestiSubota, 5. studenoga 2022.
Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.