Microsoft aktivno gura Copilot kao ključni AI alat u Windowsu i poslovnim okruženjima, ali u zvaničnim uslovima korišćenja stoji potpuno drugačija poruka. Kompanija navodi da je Copilot namenjen isključivo za zabavu i ne treba ga koristiti za važne odluke.
U dokumentu se jasno ističe da AI može da greši i da korisnici koriste Copilot na sopstveni rizik, uz napomenu da se ne oslanjaju na njegove odgovore kada je reč o ozbiljnim savetima.
Ovakva formulacija nije jedinstvena za Microsoft. Slične napomene imaju i drugi AI sistemi, jer veliki jezički modeli mogu generisati netačne ili izmišljene informacije, poznate kao “halucinacije”.
Problem nastaje u praksi, jer sve više korisnika AI doživljava kao pouzdan izvor informacija. Već su zabeleženi slučajevi gde su kompanije imale ozbiljne probleme zbog oslanjanja na AI bez ljudske provere, uključujući incidente u Amazonu povezane sa AI generisanim kodom.
Stručnjaci upozoravaju i na tzv. automation bias, gde ljudi imaju tendenciju da veruju rezultatima koje daje mašina, čak i kada postoje razlozi za sumnju.
Microsoft i druge kompanije ovakvim disclaimerima štite sebe od pravnih posledica, ali istovremeno agresivno promovišu AI kao alat za produktivnost, što stvara očigledan kontrast između marketinga i realnosti.
Zaključak je jasan, AI može biti koristan alat, ali i dalje zahteva kritičko razmišljanje i proveru informacija.




