Штучний інтелект може «збожеволіти» та почати видавати помилки
Ґрунтовне дослідження проведене фахівцями компанії Microsoft Research спільно із Salesforce на результати якого посилається портал Windows Central довело, що штучний інтелект може «збожеволіти» від тривалого спілкування з людьми.
За інформацією джерела, аналіз понад 200 тисяч розмов із чат-ботами великих мовних моделей показує, що сумарний рівень помилок може зрости більш ніж на 100%, а користувачі регулярно скаржаться на «галюцинації» і неправильні відповіді ШІ.
Науковці стверджують, що навіть найрозумніші нейромережі нерідко «губляться» у розмові, коли завдання розбивається на природний діалог навіть з кількох реплік.
Під час експерименту експерти вивчили діалоги користувачів із провідними чат-ботами, включно із GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet та DeepSeek R1. Автори дослідження припускають, що різке погіршення якості в довгих бесідах не означає, що моделі «тупішають» у буквальному значенні. Найпевніше, це вказує на обмеженість ШІ у правильній інтерпретації великого обсягу інформації під час діалогу.
❗️Можливі помилки та «галюцинації» ШІ можуть ввести людей в оману, особливо якщо користувач покладається на «бездушне створіння» як на джерело точної та критично важливої інформації.