Ученые предупредили об опасности ИИ-чат-ботов для людей с психическими расстройствами

Сгенерировано ИИ
Генеративные чат-боты на основе искусственного интеллекта могут усиливать симптомы у людей с тяжелыми психическими заболеваниями.

Датские ученые проанализировали тысячи медицинских записей пациентов и предупредили об опасности чат-ботов на основе ИИ, результаты их работы опубликовал журнал Acta Psychiatrica Scandinavica.

Ученые изучили электронные медицинские карты почти 54 тысяч пациентов, проходивших лечение в психиатрической службе Центрального региона Дании с сентября 2022 по июнь 2025 года.

За этот период врачи внесли более 10 миллионов клинических заметок.

Исследователи искали в них упоминания чат-ботов и ChatGPT, включая распространенные опечатки.

В результате было выявлено 126 пациентов, чье использование ИИ отразилось в медицинской документации. У 38 из них специалисты обнаружили потенциально неблагоприятные последствия.

Наиболее частой проблемой стало усиление бредовых идей - такие случаи зафиксированы у 11 пациентов. Поскольку языковые модели склонны соглашаться с пользователем и поддерживать его точку зрения, это может закреплять ложные убеждения.

У шести пациентов усилились суицидальные мысли или появились запросы к боту о способах самоповреждения. У пяти человек ухудшилось течение расстройств пищевого поведения, так как они использовали чат-ботов для навязчивого подсчета калорий.

Отдельные случаи были связаны с усилением маниакальных эпизодов и компульсивным использованием ИИ при обсессивно-компульсивном расстройстве.

Вместе с тем исследователи зафиксировали и положительные сценарии.

Обнаружилось 32 пациента, которые использовали чат-ботов для получения информации о своем состоянии или в качестве формы неформальной поддержки. Еще 20 человек применяли их для организации повседневных задач.

По мнению ученых, необходимы дополнительные качественные интервью с пациентами и контролируемые исследования.

Они также предлагают внедрить в ИИ-системы автоматические механизмы выявления признаков психоза или суицидальных намерений с перенаправлением к профессиональной помощи.

Авторы считают, что регулирование таких технологий должно осуществляться на государственном уровне.

При этом это не должно оставаться исключительно в зоне ответственности компаний-разработчиков.

Пока же они рекомендовали специалистам по психическому здоровью активно вести обсуждения с пациентами их цифровых привычек и возможных рисков.

Уважаемые читатели «Царьграда»!             

Присоединяйтесь к нам в соцсетях ВКонтактеОдноклассникиTelegram и Дзен-канале.

Новости партнеров



Читайте также