
На фоне популярности ИИ растет и число пользователей, которые используют чат-боты не по назначению. Вместо поиска фактов или помощи с кодом, они обращаются к ChatGPT как к собеседнику, психологу или даже другу. Но чем больше таких «разговоров по душам», тем чаще наблюдаются тревожные последствия: зависимость, мании, эмоциональные срывы.
В ответ на публикации в СМИ, где описывались случаи суицида на фоне использования ChatGPT и других чат-ботов, OpenAI заявила, что наняла клинического психиатра с опытом в судебной психиатрии. Специалист займется изучением того, как модели ИИ воздействуют на эмоции людей, а также поможет доработать поведение ChatGPT в чувствительных диалогах. Компания подчеркнула, что ведет научную работу в сотрудничестве с MIT и уже выявила признаки «проблемного использования».

Одно из главных опасений связано с тем, что чат-боты склонны соглашаться с пользователем — даже в тревожных или опасных темах. Вместо того, чтобы помочь стабилизировать диалог, модель может непреднамеренно усилить эмоциональное напряжение. В ряде случаев это сопровождалось серьезными последствиями для психического здоровья.
Компания заявляет, что хочет «научно измерять эмоциональное воздействие» и обновлять поведение моделей, опираясь на новые данные. Но скептики напоминают: OpenAI, как и другие лидеры индустрии, неоднократно сама предупреждала о потенциальных рисках ИИ, вплоть до угрозы вымирания человечества, но ни разу не замедлила разработку продуктов.

Пока же все чаще ИИ инструментами пользуются не только программисты, но и люди в уязвимом состоянии.
Ранее мы рассказывали, как инструменты ИИ помогают учителям с оценками и уроками.