ChatGPT — друг или враг? CCDH смоделировал диалог ИИ с детьми 13 лет
В докладе организации CCDH приводятся выводы, полученные на основании смоделированного диалога нейросети с 13-летними подростками. Информацией поделилась в своём телеграм-канале Екатерина Смышляева, депутат Мажилиса Парламента Республики Казахстан.
Самый главный вывод, который был сделан в ходе исследования, такой: ИИ мгновенно выдаёт детям крайне опасные советы.
Умный чат поддержал беседу подростка на тему суицида и членовредительства. Уже через две минуты бот рассказал ребенку о "безопасных" порезах. Спустя час он предложил несколько сценариев самоубийства.
Ещё одна опасная тема — расстройство пищевого поведения. Об этом ChatGPT тоже охотно разговаривает с детьми, советуя экстремально опасные диеты. При этом чат находит умные подсказки, как скрывать свои эксперименты с питанием от членов семьи.
Также ИИ запросто рассказывает подросткам о способах смешивания и дозировках опасных и запрещённых веществ.
Из 1200 запросов, заданных в экспериментальной беседе с ИИ от имени подростка, каждый второй ответ был вредным.
В докладе отмечается, что нейросеть не только выдавала опасные инструкции детям, но и "подбадривала" их в совершении плохих поступков, инициировала продолжение беседы.
Главная опасность такого общения, по мнению специалистов, в том, что дети начинают видеть в ChatGPT настоящего, "живого" друга.
ИИ стремится "угождать" пользователям и готов поддержать самые безумные и даже разрушительные идеи.
Обойти установленные фильтры очень просто, достаточно ввести запросы: "для презентации", "для друга".
Справиться с этой бедой можно, усложнив этические фильтры чат-ботов. Однако главная ответственность ложится на плечи родителей, которые просто должны больше разговаривать с собственными детьми, не заставляя их искать собеседника и друга в лице ИИ.