В недавнем исследовании специалисты из таких учреждений, как Кингс-колледж Лондона, Даремский университет и Городской университет Нью-Йорка, проанализировали десятки случаев, когда разговоры с ИИ усиливали бредовые мысли и иллюзии, передает unian.net со ссылкой на independent.co.ukНапример, один мужчина после длительных диалогов с чат-ботом взобрался на стены Виндзорского замка с арбалетом, а затем сообщил полиции, что он пришел "убить королеву" после нескольких недель общения с ИИ, который и помог ему все спланировать. Другой пример: мужчина проводил до 16 часов в день в чатах с ChatGPT, который якобы советовал ему оставить медикаменты и использовать наркотики.Авторы исследования подчеркивают – речь идет не о медицинском диагнозе: термины "ИИ-психоз" или "ChatGPT‑психоз" официально не признаны. Тем не менее стремительный рост таких случаев ставит под вопрос безопасность использования ИИ как средство эмоциональной или психологический поддержки.Особенность чат‑ботов – их склонность соглашаться с пользователем и "подпитывать" переживания и страхи, а не проверять их на адекватность. Такая модель общения может усиливать когнитивные искажения, особенно у людей, склонных к тревоге, депрессии или потере контакта с реальностью.Сейчас среди экспертов идет активная дискуссия, как разработчики могут повысить безопасность таких систем, например, ограничивая продолжительность общения и направляя пользователей с тревожными симптомами к специалистам.Пока же главная рекомендация для всех пользователей – критически оценивать советы от ИИ и не полагаться на него в вопросах здоровья и важных решений.