«Дважды барсука не лизнешь»: ИИ Google дает объяснения несуществующим поговоркам

От абсурдных трактовок до нелепых объяснений — система не стесняется выдавать фантастические факты, как будто это истина. Как такие «галлюцинации» ИИ могут повлиять на поиск, и что с этим делать — читайте дальше.
Полина Тихонова
Автор Наука Mail
Ярчайшая из выдумок ИИ это фраза «Дважды барсука не лизнешь»
Ярчайшая из выдумок ИИ это фраза «Дважды барсука не лизнешь»Источник: Recraft

Google снова попал впросак с искусственным интеллектом. На этот раз его умная система начала придумывать значения несуществующих пословиц. Пользователи заметили, что если ввести в поиск что-то вроде «значение выражения», даже если это полная чепуха, система не только не скажет, что такого нет, но еще и радостно придумает объяснение. Так появилось, например, «ты не можешь лизнуть барсука дважды». По мнению ИИ, фраза якобы означает, что один раз можно кого-то обмануть, но второй уже не получится. Хотя, очевидно, такого выражения никогда не существовало.

Люди начали экспериментировать — и выяснили, что таких придуманных фраз ИИ обрабатывает огромное количество. Он объясняет, что «арахисовые платформы» — это не мода, а якобы научный эксперимент, а «велосипед ест первым» — выражение про важность углеводов перед тренировкой. Некоторые фразы звучат как полный бред, но искусственный интеллект все равно пытается придать им смысл. Он разбирает псевдоцитаты и несуществующие имена как настоящие, выдавая ложные философские трактовки.

Забавные ошибки ИИ про арахисовую платформу
Забавные ошибки ИИ про арахисовую платформуИсточник: Recraft

Такая проблема называется «галлюцинации ИИ». Это когда система придумывает факты на основе паттернов, даже если ничего реального за ними нет. Она не знает, что правда, а что фейк — просто повторяет шаблоны, которые видела раньше. Этим грешат почти все крупные языковые модели, и ни одна пока полностью не избавилась от недостатка.

Google представил свою функцию AI Overviews еще в прошлом году. Она должна была помогать искать сложные вещи — от научных тем до кодинга. Но с самого начала стало понятно, что надежности в ней немного. Система советовала добавлять клей на пиццу, чтобы держались ингредиенты, рассказывала, что детеныши слонов помещаются на ладони, и сыпала нелепыми фразами, как будто им стоит верить.

Факапы-поговорки ИИ про велосипед
Факапы-поговорки ИИ про велосипедИсточник: Recraft

Компания признала, что в работе ИИ бывают странности. Модель пыталась скрывать ответы на бессмысленные запросы, но, как показывает практика, далеко не всегда это действенно. Более того, функционал мешает сайтам, которые публикуют достоверные статьи. Люди просто читают выдумки сверху страницы и не переходят дальше. Из-за этого уменьшается трафик, падают доходы — пострадать могут даже серьезные ресурсы.

Несмотря на жалобы, Google не собирается останавливаться. Напротив, компания хочет внедрить ИИ в поиск — обещают, что он сможет отвечать на каверзные вопросы по программированию, медицине и даже анализировать фото. Звучит многообещающе, но проблема в том, что недочеты все еще случаются. А когда дело касается здоровья или учебы, цена ошибки высока.

Смешно, конечно, когда ИИ пишет про барсуков, но если задуматься — немного страшно. Пока искусственный разум умеет красиво говорить, но не всегда знает, о чем.

Ранее мы писали о том, как нейросеть Google поможет расшифровать язык дельфинов.