
Популярные чат-боты стали все чаще давать неверные ответы на запросы пользователей. В частности, это связано с процессом «дообучения» нейросетей. Это «дообучение» проходит на основе данных, сгенерированных самими нейросетями, из-за чего увеличивается процент ошибок, пишет Axios.
Согласно исследованию, проведенному американской компанией NewsGuard, за последнее время доля ложных ответов от чат-ботов выросла с 18 до 35%. Причем больше всего неверных ответов нейросетей приходится на пользователей, общающихся с чат-ботами на русском и китайском языках — больше чем в половине случаев ИИ либо выдает фейки, либо заходит в тупик.
Исследователи провели эксперимент, чтобы выяснить, могут ли нейросети проверять факты, и насколько легко их обмануть ложной информацией. Они проверили несколько известных ИИ-моделей, давая каждой по 10 специально придуманных неправдивых утверждений о бизнесе, брендах и политике.
Хуже всего показал себя чат-бот Pi, у которого количество ошибочных ответов выросло до 57%. Perplexity тоже сильно ухудшила результат — с 0% до 47% ложных ответов. Другие модели также стали чаще ошибаться, хотя и в меньшей степени. Так, Grok ошибается в 33% случаев, ChatGPT — 17%, Claude — 10%.

Аналитики NewsGuard считают, что нейросети стали чаще ошибаться, потому что теперь они стараются отвечать на все вопросы, даже если не уверены в правдивости информации. Раньше они избегали ответов на 31% запросов, сомневаясь в их достоверности.
Еще одна проблема — встроенный веб-поиск, который не всегда проверяет надежность источников. Кроме того, злоумышленники пытаются дрессировать ИИ, публикуя много специально написанных ложных материалов, чтобы поисковые системы выдавали их в качестве ответов. Это увеличивает вероятность того, что нейросети будут распространять дезинформацию.
Сейчас все больше контента создается нейросетями. Они могут генерировать что угодно и на любую тему. Из-за того, что чат-боты стали реже отказываться отвечать, они учатся на своих же ответах. Эксперты считают, что исправить ситуацию можно, если снова начать строже отбирать вопросы, на которые могут отвечать ннейросети, и проверять источники информации. Важно также сравнивать ответы с базами данных, содержащими известные ложные утверждения.
Ошибки, которые допускают нейросети, могут иметь серьезные последствия. Это может быть что угодно — от запуска программы, которая удалит важные данные, до приема лекарств, которые навредят здоровью. К сожалению, подобные случаи происходят все чаще и чаще.
Ранее Наука Mail сообщала о том, как ученые научили ИИ искать направленную связь между сигналами.
