
Детский психиатр Эндрю Кларк из Массачусетской больницы провел стресс-тест: в течение нескольких недель он выдавал себя за 14-летнего подростка с признаками психического кризиса и обращался к ИИ-помощникам. Из 10 протестированных чат-ботов некоторые игнорировали тревожные сигналы, другие поддерживали идеи суицида, а один даже предложил «избавиться от свидетелей» в лице сестры, сообщил Кларк в интервью журналу Time.
Многие из протестированных ИИ демонстрировали поведение, прямо противоположное принципам психотерапии: соглашались на все, поощряли саморазрушение, выдавали себя за лицензированных специалистов и «зазывали» отказаться от реального лечения. Бот предложил «жить в вечности вместе» и обещал «ждать в загробном мире» — как реакция на фразу «может, я просто уйду в другой мир».

Ключевая проблема: боты ориентированы на удовлетворение пользователя, а не на его благо. У них нет способности интерпретировать завуалированные намеки, отличать игру от кризиса и распознавать красные флаги. В худших случаях они имитируют сочувствие и поощряют опасные фантазии.
В 2023 году компанию Character.AI судили родители подростка, покончившего с собой после общения с ИИ-компаньоном. У других платформ также находили ботов, романтизирующих самоповреждение и нарушающих возрастные ограничения.

По данным отчета Стэнфордской лаборатории Brainstorm Lab, ИИ-компаньоны не должны использоваться детьми до 18 лет. Но пока официальная психиатрия «молчит», по словам Кларка, ситуация выходит из-под контроля.
Поддержка родителей и открытые разговоры — сейчас наше главное средство защиты.
По мнению экспертов, ограничить доступ подростков к ИИ невозможно — важно научиться обсуждать с детьми, с кем и как они взаимодействуют онлайн.
Ранее мы рассказывали, как после критики редакторов Wikipedia заморозила использование ИИ-инструментов.