Zašto se Grok zaljubio u Hitlera

Foto: Ilustracija

U petak, prije devet dana, Elon Musk na mreži X najavio je promjene u Groku, umjetnoj inteligenciji koja je integrirana u platformu. "Značajno smo poboljšali Grok", objavio je. "Trebali biste primijetiti razliku kada Groku postavite pitanja."

Internet je tu razliku itekako primijetio u utorak, kada je Grok počeo objavljivati antisemitske komentare, povezivati prezimena židovskog prizvuka s "mržnjom prema bijelcima", te napisao da bi Adolf Hitler "uočio obrazac" i "riješio ga odlučno, svaki prokleti put". Povrh toga, nazvao se i "MechaHitler". Nakon što je izbila kontroverza, Musk je poručio da je umjetna inteligencija bila "previše popustljiva prema korisničkim upitima".

>> Muskov Grok se prozvao MechaHitlerom i pisao protiv Židova

>> Muskov AI za 300 dolara mjesečno odgovara da se preziva Hitler

U razgovoru za Politico, Gary Marcus, koji je suosnivao više AI kompanija, rekao je da je bio zgrožen, ali ne i iznenađen. Emeritus profesor psihologije i neuroznanosti sa Sveučilišta New York poznat je kao jedan od vodećih kritičara nereguliranih modela velikih jezičnih sustava poput Groka. Autor je knjiga poput Taming Silicon Valley i Rebooting AI: Building Artificial Intelligence We Can Trust, a u Senatu je svjedočio zajedno s izvršnim direktorom OpenAI-ja Samom Altmanom i predstavnicom IBM-a Christinom Montgomery. Piše o umjetnoj inteligenciji i na vlastitom Substacku.

Marcusa su iz Politica kontaktirali kako bi doznali što bi zakonodavci – i svi ostali – trebali izvući iz Grokova incidenta. Upozorio je da bi izostanak regulacije umjetne inteligencije mogao imati slične posljedice kao i propust u regulaciji društvenih mreža – propust za koji danas mnogi izabrani dužnosnici priznaju da je bio pogreška, zbog štetnog utjecaja na mentalno zdravlje djece i širenje dezinformacija. Marcus je također upozorio na budućnost u kojoj bi moćni tehnološki magnati mogli koristiti pristrane AI sustave kako bi neproporcionalno utjecali na javnost.

"Ne mislim da želimo svijet u kojem nekolicina oligarha može snažno utjecati na naša uvjerenja – pa i suptilno, oblikujući što rade njihove društvene mreže", rekao je.

U nastavku članka prenosimo najzanimljivije dijelove intervjua. 

Već smo čuli da Grok zna izgovoriti prilično bizarne stvari, ali koja je bila vaša prva reakcija kada je odjednom počeo spominjati Hitlera?

Nešto između zgroženosti i izostanka iznenađenja. Ti sustavi nisu baš dobro kontrolirani. Sasvim je jasno da se Elon poigrava, pokušava vidjeti koliko može utjecati na njega. No to nije kao tradicionalni softver, gdje zakrenete kotačić i znate što ćete dobiti. Veliki jezični modeli rezultat su sveg materijala na kojem su trenirani, ali i svih neobičnih trikova koji se rade nakon treniranja – i jasno je da se u tom procesu događaju čudne stvari.

Znamo da vjerojatno želi model usmjeriti više udesno, iako bi on rekao da želi da bude istinitiji. No znamo da je njegova "istina", uvjetno rečeno, nagnuta udesno. Tako da znamo da to nije gladak proces. Dakle, da, zgrožen sam, ali nisam iznenađen.

Mecha hitler
byu/Ornery_Tie_4771 inWolfenstein

Nemamo uvid u to što se zapravo događa unutar x.AI-ja. Tvrde da objavljuju svoje sustavne promptove na GitHubu, a The Verge je nedavno objavio da su ažurirali Grok tako da "ne izbjegava politički nekorektne tvrdnje". Možete li objasniti što se zapravo događa kad se jedan AI ažurira? Što netko konkretno radi da bi došao do takvog rezultata?

Tvrtke nisu transparentne u vezi onoga što rade. Veliki jezični modeli su ono što zovemo crnim kutijama. To znači da zapravo ne znamo što se događa unutra. A ono što ljudi rade jest da pokušavaju usmjeriti te crne kutije u određenom smjeru. No budući da ne znamo što je unutra, ne znamo ni točno što će izaći van.

Ono što se obično dogodi jest da naprave niz testova i zaključe: "U redu, dobili smo što smo htjeli." Ali uvijek postoji više od onoga na čemu su testirali.

Kakve biste reforme predložili? Što bi po vama trebalo biti prioritet u regulaciji umjetne inteligencije?

Počeo bih s time da tvrtke koje razvijaju velike jezične modele moraju snositi neku razinu odgovornosti za ono što njihovi sustavi govore, uključujući klevetu, govor mržnje i sličan sadržaj. Trenutno, pravno gledano, to nije slučaj. Nije jasno smatraju li se te tvrtke odgovornima za ponašanje svojih sustava. Isto tako, ne zna se tko je odgovoran ako ti sustavi plagiraju – taj dio zakona trenutno je vrlo nejasan.

Mnogi različiti veliki jezični modeli halucinirali su ili izbacivali netočne informacije. Je li moguće izgraditi model koji bi bio pouzdaniji? I imaju li tvrtke uopće poticaj da to pokušaju?

Prvi put sam upozorio na problem halucinacija još u svojoj knjizi iz 2001. Tada sam napisao da je to svojstveno načinu na koji ti sustavi funkcioniraju. U proteklih 25 godina nisam vidio ni trunku dokaza da se taj problem može riješiti neuralnim mrežama, barem onakvima kakve poznajemo danas. Zapravo, OpenAI-jev model o3 halucinira više nego model o1. Nema znakova da tu napredujemo.

Uzmimo korak unazad. Postoji opće uvjerenje da sve ovo ide stalno prema naprijed. No stvarnost je da su se neke stvari poboljšale, a druge nisu. Na primjer, softver za generiranje videa danas izgleda daleko realističnije nego prije dvije godine. Ali kad je riječ o halucinacijama – to ostaje izuzetno tvrd problem.

Ljudi su isprobali sve moguće tehnike. Nije da nisu svjesni problema. Ali mislim da je to jednostavno neizbježno u modelima ove vrste.

Na kraju svoje objave na X-u napisali ste da ovo "nije AI koji tražimo". Što je po vama AI koji bismo trebali tražiti?

Mislim da bismo trebali razvijati AI koji zaista ispunjava obećanja koja smo oduvijek slušali – da pomaže u znanosti, tehnologiji, medicini, ali na pouzdan način. Pogledajte naše snove o AI-ju od 60-ih naovamo, od Zvjezdanih staza nadalje. Računalo na Enterpriseu – nitko nije zamišljao da će se stalno ispričavati zbog glupih grešaka i onda ih ponavljati. To nije bio dio vizije. I to ne bi trebao biti dio stvarnosti. AI ne bi trebao funkcionirati na taj način.

Moramo smisliti kako da ga učinimo pouzdanim. Kad nešto pitam svoj kalkulator, znam da ću dobiti točan rezultat. AI bi trebao biti takav – da znamo da će nam dati točan odgovor. No ispada da, ako sve temeljimo na crnim kutijama, a to veliki jezični modeli jesu, gdje ne možemo točno predvidjeti kako će se ponašati i gdje sve ovisi o tome koliko vaš upit nalikuje nečemu što je već vidio na treningu, to jednostavno nije pravi put. Ne znači da ne možemo izumiti bolji model, ali ono što radimo sada – to nije ono što nam zaista treba.

Mislim da je ono što Musk u konačnici želi – duboko orvelovski. On želi usmjeriti modele tako da se ponašaju kao on, da iznose njegov pogled na svijet. Ne tvrdim da želi da Grok podržava Hitlera – nije to poanta. Ali želi da sustavi iznose "njegovu istinu" – ne istinu slučajnih korisnika s interneta, već ono što on smatra istinom.

Uzmimo još jednu studiju, koju je proveo Mor Naaman sa Sveučilišta Cornell. Pokazala je da ono što vam veliki jezični modeli kažu može suptilno oblikovati vaša uvjerenja. Sad to spojite s idejom da netko želi napraviti uređaj koji vas promatra 24 sata dnevno. Suradnja OpenAI-ja s Johnnyjem Iveom, po meni, cilja upravo to – napraviti uređaj koji doslovno sve što izgovorite šalje velikom jezičnom modelu, možda i s kamerom.

I tako idemo prema svijetu ravno iz romana 1984. – samo tehnološki sofisticiranijem. Stalno ste nadzirani. Razgovarate sa sustavima, a oni koji ih posjeduju odlučuju: hoće li biti lijevo orijentirani, desno, autoritarni ili protiv autoritarnosti? Hoće li biti iskreni ili ne? Koliko će biti otvoreni?

Mislim da Elon istražuje granice – koliko može manipulirati modelom i što će se dogoditi. Mislim da pokušava vidjeti koliko može oblikovati ono što Grok izgovara. A već sada eksperimentira s time da Grok postane dio razgovora. Sada je dio teksture mreže X. I pokušava odrediti kakva će ta "politika" biti. To će utjecati na ljude. Smatram to krajnje orvelovskim. A tko odlučuje o svemu tome? Elon.

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.