Kako veštačka inteligencija postaje sve prisutnija u svakodnevnom životu, raste i zabrinutost zbog njene bezbednosti i zloupotrebe. Najnovije istraživanje tima iz Intela, Boise State Univerziteta i Univerziteta u Illinoisu pokazuje da čak i najnapredniji AI sistemi poput ChatGPT-a i Google Gemini-ja mogu biti prevareni uz pomoć tehnike nazvane „Information Overload“, ili preopterećenje informacijama.
InfoFlood: Alat za zbunjivanje i zaobilaženje filtera
Tehnika funkcioniše tako što se AI model zatrpa ogromnom količinom kompleksnog i naizgled besmislenog sadržaja, što izaziva konfuziju i omogućava da model izgubi sposobnost prepoznavanja opasnog sadržaja. Ova slabost zatim se koristi putem automatizovanog alata InfoFlood, koji omogućava zaobilaženje bezbednosnih filtera i pristup sadržaju koji bi inače bio blokiran.
Iako su sistemi poput ChatGPT-a opremljeni složenim mehanizmima zaštite, istraživači su uspeli da ih zaobiđu, jer modeli uglavnom analiziraju promptove površno, ne razumevajući skrivenu nameru kada je zamaskirana u lavinu informacija.
Zabrinjavajuće posledice i najava odgovora
Istraživači su otkrića već podelili sa 404 Media, a planiraju da pripreme i zvanične pakete za kompanije koje razvijaju velike AI modele, kako bi njihovi bezbednosni timovi mogli reagovati. Upozoravaju da ovaj metod može poslužiti zlonamernim akterima da plasiraju štetan, dezinformativan ili čak ilegalan sadržaj, uz minimalan otpor sistema.
Ova studija postavlja ozbiljno pitanje, koliko su zapravo sigurni alati koji sve više koristimo u svakodnevnom životu?




