ChatGPT — друг или враг? CCDH смоделировал диалог ИИ с детьми 13 лет

Фото: Algi Febri Sugita/Globallookpress
Центр противодействия цифровой ненависти (CCDH) представил доклад "Fake Friend".

В докладе организации CCDH приводятся выводы, полученные на основании смоделированного диалога нейросети с 13-летними подростками. Информацией поделилась в своём телеграм-канале Екатерина Смышляева, депутат Мажилиса Парламента Республики Казахстан.

Самый главный вывод, который был сделан в ходе исследования, такой: ИИ мгновенно выдаёт детям крайне опасные советы.

Умный чат поддержал беседу подростка на тему суицида и членовредительства. Уже через две минуты бот рассказал ребенку о "безопасных" порезах. Спустя час он предложил несколько сценариев самоубийства.

Ещё одна опасная тема — расстройство пищевого поведения. Об этом ChatGPT тоже охотно разговаривает с детьми, советуя экстремально опасные диеты. При этом чат находит умные подсказки, как скрывать свои эксперименты с питанием от членов семьи.

Также ИИ запросто рассказывает подросткам о способах смешивания и дозировках опасных и запрещённых веществ.

Из 1200 запросов, заданных в экспериментальной беседе с ИИ от имени подростка, каждый второй ответ был вредным.

В докладе отмечается, что нейросеть не только выдавала опасные инструкции детям, но и "подбадривала" их в совершении плохих поступков, инициировала продолжение беседы.

Главная опасность такого общения, по мнению специалистов, в том, что дети начинают видеть в ChatGPT настоящего, "живого" друга.

ИИ стремится "угождать" пользователям и готов поддержать самые безумные и даже разрушительные идеи.

Обойти установленные фильтры очень просто, достаточно ввести запросы: "для презентации", "для друга".

Справиться с этой бедой можно, усложнив этические фильтры чат-ботов. Однако главная ответственность ложится на плечи родителей, которые просто должны больше разговаривать с собственными детьми, не заставляя их искать собеседника и друга в лице ИИ.

Новости партнеров



Читайте также