Нейросети стали чаще давать фейковые ответы

Исследователи провели сравнительный анализ самых популярных чат-ботов. В частности, они выяснили, что чаще всего нейросети ошибаются при общении на русском и китайском языках.
Автор Наука Mail
Чат-бот Grok
Чат-боты стали все чаще обманывать российских и китайских пользователей Источник: Unsplash

Популярные чат-боты стали все чаще давать неверные ответы на запросы пользователей. В частности, это связано с процессом «дообучения» нейросетей. Это «дообучение» проходит на основе данных, сгенерированных самими нейросетями, из-за чего увеличивается процент ошибок, пишет Axios.

Согласно исследованию, проведенному американской компанией NewsGuard, за последнее время доля ложных ответов от чат-ботов выросла с 18 до 35%. Причем больше всего неверных ответов нейросетей приходится на пользователей, общающихся с чат-ботами на русском и китайском языках — больше чем в половине случаев ИИ либо выдает фейки, либо заходит в тупик.

Исследователи провели эксперимент, чтобы выяснить, могут ли нейросети проверять факты, и насколько легко их обмануть ложной информацией. Они проверили несколько известных ИИ-моделей, давая каждой по 10 специально придуманных неправдивых утверждений о бизнесе, брендах и политике.

Хуже всего показал себя чат-бот Pi, у которого количество ошибочных ответов выросло до 57%. Perplexity тоже сильно ухудшила результат — с 0% до 47% ложных ответов. Другие модели также стали чаще ошибаться, хотя и в меньшей степени. Так, Grok ошибается в 33% случаев, ChatGPT — 17%, Claude — 10%.

Нейросеть ChatGPT
Больше всего неверных ответов дает пользователям нейросеть PiИсточник: Unsplash

Аналитики NewsGuard считают, что нейросети стали чаще ошибаться, потому что теперь они стараются отвечать на все вопросы, даже если не уверены в правдивости информации. Раньше они избегали ответов на 31% запросов, сомневаясь в их достоверности.

Еще одна проблема — встроенный веб-поиск, который не всегда проверяет надежность источников. Кроме того, злоумышленники пытаются дрессировать ИИ, публикуя много специально написанных ложных материалов, чтобы поисковые системы выдавали их в качестве ответов. Это увеличивает вероятность того, что нейросети будут распространять дезинформацию.

Сейчас все больше контента создается нейросетями. Они могут генерировать что угодно и на любую тему. Из-за того, что чат-боты стали реже отказываться отвечать, они учатся на своих же ответах. Эксперты считают, что исправить ситуацию можно, если снова начать строже отбирать вопросы, на которые могут отвечать ннейросети, и проверять источники информации. Важно также сравнивать ответы с базами данных, содержащими известные ложные утверждения.

Ошибки, которые допускают нейросети, могут иметь серьезные последствия. Это может быть что угодно — от запуска программы, которая удалит важные данные, до приема лекарств, которые навредят здоровью. К сожалению, подобные случаи происходят все чаще и чаще.

Ранее Наука Mail сообщала о том, как ученые научили ИИ искать направленную связь между сигналами.