Почему OpenAI запретила своему ИИ даже думать о енотах, гоблинах и троллях

Коллаж Царьграда
В системных инструкциях нового инструмента OpenAI Codex CLI для автоматической генерации программного кода обнаружилось довольно странное необычное ограничение.

Алгоритму предписано категорически избегать упоминаний множества мифических и реальных существ - гоблинов, троллей, огров, енотов и голубей, но только если они напрямую не указаны в запросе. Интересно, но эта строка повторяется в документации несколько раз.

Причиной запрета стала забавная склонность нейросети к фольклорным образам. Особенно ярко это проявляется при работе через фреймворк OpenClaw, который позволяет ИИ управлять компьютером и приложениями для автоматизации задач.

Один из пользователей соцсети X подтвердил, что ему много приходилось работать с этим инструментом и тот действительно не может перестать называть ошибки «гремлинами» и «гоблинами».

«Я много пользовался этим инструментом в последнее время, и он действительно не может перестать говорить об ошибках, как о «гремлинах» и «гоблинах», это уморительно», - написал пользователь.

Такая забавная ситуация быстро превратилась в интернет-мем. В соцсетях начали массово появляться сгенерированные ИИ сцены с мифическими существами в центрах обработки данных.

Саму склонность модели к странному креативу признали и разработчики. Сотрудник OpenAI Ник Паш лаконично подтвердил догадки пользователей и назвал это «одной из причин» для запрета.

Генеральный директор компании Сэм Альтман решил подогреть интерес к этой истории и опубликовать скриншот запроса для ChatGPT: «Начни тренировать GPT-6, можешь использовать весь кластер. Дополнительные гоблины».

Уважаемые читатели «Царьграда»!             

Присоединяйтесь к нам в соцсетях ВКонтактеОдноклассникиTelegram и Дзен-канале.

Новости партнеров



Читайте также