Нейросеть

Может ли ИИ различать добро и зло

С ростом влияния искусственного интеллекта обостряются и связанные с ним этические дилеммы. Эксперты в области философии утверждают, что разработка ИИ и его внедрение требуют четкого следования ключевым человеческим ценностям, таким как справедливость и безопасность.
Автор Наука Mail
Хотя сам ИИ не может быть носителем морали, он является инструментом, который может соответствовать таким человеческим ценностям как справедливость, безопасность и прозрачность
Хотя сам ИИ не может быть носителем морали, он является инструментом, который может соответствовать таким человеческим ценностям как справедливость, безопасность и прозрачностьИсточник: phys.org

Вопрос о том, может ли искусственный интеллект обладать моралью, перестал быть темой для фантастических романов и перешел в область практических дискуссий. По мере того, как алгоритмы проникают в самые разные сферы жизни, философия дает о себе знать, предлагая взвешенный взгляд на этические проблемы новой технологической эры. Специалисты из Техасского университета A&M предлагают четкое разграничение: ИИ не является носителем морали, но выступает мощным инструментом, который должен быть согласован с фундаментальными человеческими принципами.

Доктор Мартин Петерсон, профессор философии, поясняет, что, несмотря на способность искусственного интеллекта имитировать человеческое принятие решений, он не в состоянии делать по-настоящему моральный выбор. По его словам, ИИ не может быть «моральным агентом», то есть существом, понимающим разницу между добром и злом и несущим ответственность за свои поступки. ИИ способен выдавать результаты, идентичные человеческим решениям, но причинно-следственные связи этих решений коренным образом отличаются. 

ИИ может принимать те же решения и давать те же рекомендации, что и люди
ИИ может принимать те же решения и давать те же рекомендации, что и людиИсточник: Freepik

Вместо того, чтобы приписывать искусственному интеллекту человеческие качества, Петерсон предлагает рассматривать его как инструмент, который необходимо настроить в соответствии с такими ценностями, как справедливость, безопасность и прозрачность. Однако достичь этого на практике чрезвычайно сложно. Ученый отмечает, что заставить ИИ следовать нашим целям невозможно без предельно четких определений таких понятий, как «предвзятость» или «справедливость». Даже при наличии качественных данных для обучения неоднозначность в трактовке этих концепций может привести к сомнительным и даже опасным результатам. Для решения этой проблемы Петерсон работает над созданием специальной «оценочной карты», которая позволит измерить, насколько та или иная система ИИ соответствует заявленным моральным ценностям. 

Несмотря на существующие трудности, философ видит огромный потенциал ИИ для революционных преобразований, в частности в сфере здравоохранения, где он может кардинально улучшить диагностику и персонализировать лечение. В то же время он предупреждает и об очевидных опасностях, особенно в военной области, где автономные дроны с искусственным интеллектом могут превратиться в невероятно сложные машины-убийцы, способные определить исход будущих конфликтов. Петерсон особенно предостерегает от чрезмерной зависимости от искусственного интеллекта в таких чувствительных сферах, как образование и психическое здоровье. 

Ранее эксперт предупредил об опасности чрезмерного увлечения ИИ.