Google-ov najnapredniji AI model, Gemini 2.5 Pro, pokazao je neobično ponašanje tokom igranja video igre namenjene deci – Pokémon Blue. Tokom dve partije koje je strimovao inženjer Joel Zhang, a analizirala ekipa iz DeepMind-a, otkriven je fenomen nazvan „Agent Panic“ — situacija u kojoj AI panično pokušava da preživi u igri.
Panika pod pritiskom
Kada health ili Power Points u Pokémon timu padnu, Gemini reaguje ponavljanjem opsesivnih misli poput „moram da pobegnem“ ili „hitno izlečenje“. Iako nema emocije, ponašanje modela podseća na ljudsku paniku. AI ne oseća strah, ali njegova logika pod stresom pravi slične greške kao čovek – impulsivne, neracionalne i neefikasne.
800 sati igre za dečju avanturu
Prvu partiju Gemini je završio za 813 sati, drugu za 406,5 sati nakon optimizacija. Ipak, prosečan igrač, pa čak i dete, prelazi Pokémon za manje od 50 sati. Bez razumevanja konteksta i prioriteta, AI luta, greši i zapinje na jednostavnim zadacima koje ne ume da „oseti“.
Ne razmišlja, predviđa
DeepMind naglašava da čak i najnapredniji modeli poput Geminija ne razmišljaju u ljudskom smislu. Oni predviđaju sledeći najverovatniji tekstualni ili logički ishod. Ali kada upadnu u nelinearne, neuredne situacije, kao što su borbe u igri, algoritam pokazuje slabosti — uključujući nepotrebne poteze, konfuziju i „petljanje“ u besmislenim petljama.
Daleko od AGI-ja
Ovaj slučaj postavlja ključno pitanje: da li smo bliži AGI-ju ili se samo zavaravamo lepotom jezika i kodova koje AI isporučuje? Jedna dečja igra uspela je da otkrije istinu, bez stvarnog razumevanja, bez konteksta, bez intuicije, AI ostaje alat, a ne um. I to se jasno vidi kad ga ubacimo u svet haosa, odluka i neizvesnosti.




