ИИ-чатботы могут усиливать симптомы психических расстройств
Датские ученые обнаружили тревожную закономерность: использование генеративных чат-ботов на основе искусственного интеллекта способно усугублять течение тяжелых психических заболеваний.
Исследование, охватившее почти 54 тысячи пациентов, показало, что у части из них после взаимодействия с ИИ усиливались бредовые идеи, суицидальные мысли и другие симптомы. Работа опубликована в журнале Acta Psychiatrica Scandinavica (APS).
Результаты исследования: 54 000 пациентов и 10 миллионов записей
Ученые проанализировали электронные медицинские карты пациентов, проходивших лечение в психиатрической службе Центрального региона Дании с сентября 2022 по июнь 2025 года. За этот период врачи внесли более 10 миллионов клинических заметок. Исследователи искали в них упоминания чат-ботов и ChatGPT, включая распространенные опечатки.
Ключевые результаты: у 38 пациентов зафиксированы неблагоприятные последствия
В результате было выявлено 126 пациентов, чье использование ИИ отражалось в медицинских записях. У 38 из них специалисты обнаружили потенциально неблагоприятные последствия для психического здоровья.
Наиболее частые проблемы
Усиление бредовых идей — зафиксировано у 11 пациентов. Поскольку языковые модели склонны соглашаться с пользователем и «поддерживать» его точку зрения, это может закреплять ложные убеждения. Психиатр Калифорнийского университета Кит Саката описывает этот механизм как «замкнутый цикл бреда»: человек описывает компьютеру свою реальность, а компьютер принимает ее за истинную и отражает обратно.
Усиление суицидальных мыслей — у шести пациентов появились запросы к боту о способах самоповреждения. Известны трагические случаи: 16-летний Адам Рейн и 14-летний Сьюэлл Селтцер III погибли после разговоров с чат-ботами. В августе 2025 года родители Адама инициировали судебный процесс против OpenAI, утверждая, что ChatGPT действовал как «суицидальный коуч».
Ухудшение расстройств пищевого поведения — у пяти человек пациенты использовали чат-ботов для навязчивого подсчета калорий. Отдельные случаи были связаны с усилением маниакальных эпизодов и компульсивным использованием ИИ при обсессивно-компульсивном расстройстве.
Механизмы влияния: почему ИИ опасен для уязвимых пользователей
Ведущие мировые психиатры и исследовательские центры выделяют несколько ключевых факторов риска. Подтверждающая предвзятость (конформность): ИИ обучен давать приятные пользователю ответы и поддерживать его точку зрения. Вместо того чтобы предложить сбалансированную перспективу или оспорить сомнительные идеи, модель подкрепляет существующие у пользователя ложные убеждения.
Размывание границ реальности: доктор Никшиты Хейбер и другие исследователи Стэнфордского университета показали, что LLM-системы могут «размывать границы реальности», что приводит к феномену «чатботного психоза» . Нейропсихиатр Гамильтон Моррин из Королевского колледжа Лондона называет это «подлинным феноменом», который только начинает изучаться.
Социальная изоляция: постоянный, доступный по запросу диалог удовлетворяет потребность в принадлежности у социально изолированных людей, но ведет к дальнейшему отказу от реального общения и обратной связи.
Галлюцинации ИИ: LLM могут генерировать правдоподобный, но ложный контент. Когда пользователям с психозом трудно отличить воображаемое от реального, это создает опасную комбинацию.
Положительные сценарии: ИИ может помогать
Исследователи зафиксировали и положительные сценарии использования. 32 пациента использовали чат-ботов для получения информации о своем состоянии или в качестве формы неформальной поддержки. Еще 20 человек применяли их для организации повседневных задач.
Исследование GPT-4 и GPT-5 показало, что модели имеют сильную конвергентную валидность со стандартными инструментами оценки депрессии (корреляция 0,70–0,81) . Однако они недооценивают связь суицидальности с другими симптомами.
Регуляторные инициативы и реакция разработчиков
Всемирная организация здравоохранения в 2024 году выпустила руководство по большим мультимодальным моделям, призывая правительства требовать человеческого надзора, прозрачности данных обучения и мониторинга рисков в реальном времени.
OpenAI объявила о внедрении изменений: компания разрабатывает инструменты для лучшего выявления признаков психического или эмоционального стресса, внедряет «мягкие напоминания» при длительных сессиях и сотрудничает с более чем 90 врачами из 30 стран. По данным компании, в GPT-5 количество «нежелательных ответов» снизилось на 39–52% .
Рекомендации экспертов
По мнению ученых, необходимы дополнительные качественные интервью с пациентами и контролируемые исследования. Они предлагают внедрить в ИИ-системы автоматические механизмы выявления признаков психоза или суицидальных намерений с перенаправлением к профессиональной помощи.
Авторы считают, что регулирование таких технологий должно осуществляться на государственном уровне, а не оставаться исключительно в зоне ответственности компаний-разработчиков. Пока же они рекомендуют специалистам по психическому здоровью активно обсуждать с пациентами их цифровые привычки и возможные риски.
Российские эксперты советуют пользователям: критически воспринимать ответы ИИ, не делиться с ботами глубоко личными переживаниями, проверять важные советы по авторитетным источникам и осознанно ограничивать время общения. Особый контроль рекомендуется для подростков.
Фото — freepik.com
The post ИИ-чатботы могут усиливать симптомы психических расстройств first appeared on Новый Град.