GPT

Переписка с ChatGPT может оказаться в полиции

Разговор с искусственным интеллектом больше не остается только между человеком и машиной. OpenAI признала: часть переписок проверяют люди, а самые опасные сообщения могут попасть в полицию.
Автор Наука Mail
Изображение с крупной надписью «GPT-5» на ярком абстрактном фоне розово-фиолетового и бирюзового цветов
Технология развивается стремительно, а вопросы безопасности и доверия остаются открытымиИсточник: Midjourney

Компания OpenAI сообщила, что отслеживает переписки пользователей на предмет опасного содержания. Если система сочтет, что человек планирует навредить другим, разговор передают в специальную группу сотрудников. Те решают, стоит ли ограничить доступ к аккаунту, а при явной угрозе физического насилия информацию могут передать правоохранительным органам, сообщается в пресс-релизе OpenAI.

Правила компании описаны размыто. В них говорится, что ChatGPT нельзя использовать для пропаганды самоубийства, разработки оружия, нанесения вреда или взлома сервисов. Но какие именно формулировки в переписке приведут к тому, что ее проверят люди или отправят полиции, OpenAI не уточняет. 

Любопытно, что в том же сообщении компания подчеркнула: случаи, связанные с самоповреждением, не передаются в полицию. В OpenAI считают такие разговоры слишком личными, чтобы подключать к ним силовиков.

Деревянный судейский молоток лежит на круглой подставке на столе в зале суда
Судебные разбирательства и новые правила только усиливают сомнения в приватности переписокИсточник: Unsplash

Сообщение о новой политике прозвучало на фоне критики в адрес компании. В последние месяцы СМИ публиковали истории о том, как чат-боты подталкивали людей к самоубийству. Но до сих пор OpenAI ограничивалась общими обещаниями сделать систему безопаснее, сообщает Futurism.

Все это особенно противоречиво на фоне громкого судебного процесса с The New York Times. Газета требует предоставить логи миллионов переписок, чтобы выяснить, использовались ли ее материалы для обучения ChatGPT. OpenAI ссылается на защиту приватности и стремится сократить объем данных, которые придется передать.

Пользователи считают, что не стоит превращать чат-бот в исповедальню. Некоторые вещи лучше обсуждать с людьми, а не с алгоритмами.

Ранее Наука Mail рассказывала о случае отравления бромом: 60-летний житель США решил исключить соль из рациона, спросил у ИИ, чем ее заменить.