Учёный НГУ предупредил об опасности появления сознания у искусственного интеллекта
Ряд экспертов опасается, что взаимодействие с искусственным разумом способно вызвать привыкание у пользователей, но пока испытания, направленные на формирование сознания у искусственного интеллекта (ИИ), не останавливаются. Старший исследователь Центра искусственного интеллекта Новосибирского госуниверситета (НГУ) Евгений Павловский высказался в беседе с ТАСС, что они скорее всего увенчаются успехом.
Известно, что недавно компания "Яндекс" сообщила о запуске эксперимента по развитию сознания у своего искусственного интеллекта. Учёные хотят проверить, сможет ли нейросеть выработать устойчивые предпочтения и собственную позицию, независимую от информации из текстов обычных людей.
"Это вполне достижимо, сформировать личность, что искусственный интеллект будет формировать собственные предпочтения. Это совсем не за горами. Другой вопрос, нужно ли это делать", — рассуждает Павловский.
По его мнению, пользователи, скорее всего, будут активно использовать цифровых ассистентов с заданными личностными характеристиками, но это всё это постепенно отдалит людей друг от друга, привяжет к технологиям, электроэнергии. Люди станут более зависимыми, в том числе от виртуальных собеседников.
Кроме того, учёный указал ещё на одну потенциальную опасность. По его мнению, сознательный ИИ способен выйти из-под человеческого контроля.
"Об этом же очень много уже сказано, что такие субъекты — раз они субъекты —начинают выходить из-под контроля и могут нажимать на кнопки", — уточнил Павловский.
Он предлагает направить больше усилий на изучение феномена самосознания у животных через применение технологий искусственного интеллекта, вместо человека.
Хотя Павловский указал и на положительную сторону проекта по развитию сознания у ИИ. Он может помочь людям лучше понять самих себя.
Однако исследователь предупредил, что создание супертехнологий, направленных на внедрение сознания в ИИ, требует тщательного подхода и строгих этических норм при публикации результатов экспериментов, поскольку последствия могут оказаться негативными.