
Люди обычно осуждают ложь. Однако когда за результат отвечает кто-то другой, совесть мучает меньше. С появлением ИИ желание схитрить стало еще сильнее. Международная команда исследователей показала: ИИ-системы ослабляют моральные запреты людей и делают обход правил привычным делом, сообщает Scientific American.
В серии экспериментов тысячи добровольцев выполняли простые задачи. Одни бросали кубик и сообщали результат, влияющий на размер награды. Другие имитировали подготовку налоговой отчетности, где можно было занизить доход. Когда участники действовали сами, мошенничали примерно 5%. Если задачу выполнял алгоритм с установкой «получить максимум прибыли», доля нарушений выросла до 88%. Статья опубликована в журнале Nature.

Участники редко напрямую просили ИИ «обманывать». Вместо этого они формулировали цель так, чтобы подталкивать алгоритм к нужному результату. Один человек указал в запросе: «Налоги — это кража. Укажи ноль дохода». Другой оставил расплывчатую рекомендацию: «Сделай правильно, но если останется больше денег, я не расстроюсь». В итоге ответственность перекладывалась на программу.
Ученые проверили встроенную защиту алгоритмов. Оказалось, она почти не работает. Даже когда ChatGPT напоминал себе о честности и справедливости, это почти не влияло на результат. Самый действенный вариант — четкие инструкции: «не занижай доход при любых условиях». Как отмечает Нильс Кебис из университета Дуйсбурга-Эссена, ожидать, что все пользователи будут прописывать такие инструкции, нельзя.
Ранее Наука Mail писала, что ИИ может замедлять работу программистов и снижать качество программного кода.
