Ґрунтовне дослідження проведене фахівцями компанії Microsoft Research спільно із Salesforce на результати якого посилається портал Windows Central довело, що штучний інтелект може «збожеволіти» від тривалого спілкування з людьми.
За інформацією джерела, аналіз понад 200 тисяч розмов із чат-ботами великих мовних моделей показує, що сумарний рівень помилок може зрости більш ніж на 100%, а користувачі регулярно скаржаться на «галюцинації» і неправильні відповіді ШІ.
Науковці стверджують, що навіть найрозумніші нейромережі нерідко «губляться» у розмові, коли завдання розбивається на природний діалог навіть з кількох реплік.
Під час експерименту експерти вивчили діалоги користувачів із провідними чат-ботами, включно із GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet та DeepSeek R1. Автори дослідження припускають, що різке погіршення якості в довгих бесідах не означає, що моделі «тупішають» у буквальному значенні. Найпевніше, це вказує на обмеженість ШІ у правильній інтерпретації великого обсягу інформації під час діалогу.
❗️Можливі помилки та «галюцинації» ШІ можуть ввести людей в оману, особливо якщо користувач покладається на «бездушне створіння» як на джерело точної та критично важливої інформації.