
Компания OpenAI сообщила, что отслеживает переписки пользователей на предмет опасного содержания. Если система сочтет, что человек планирует навредить другим, разговор передают в специальную группу сотрудников. Те решают, стоит ли ограничить доступ к аккаунту, а при явной угрозе физического насилия информацию могут передать правоохранительным органам, сообщается в пресс-релизе OpenAI.
Правила компании описаны размыто. В них говорится, что ChatGPT нельзя использовать для пропаганды самоубийства, разработки оружия, нанесения вреда или взлома сервисов. Но какие именно формулировки в переписке приведут к тому, что ее проверят люди или отправят полиции, OpenAI не уточняет.
Любопытно, что в том же сообщении компания подчеркнула: случаи, связанные с самоповреждением, не передаются в полицию. В OpenAI считают такие разговоры слишком личными, чтобы подключать к ним силовиков.

Сообщение о новой политике прозвучало на фоне критики в адрес компании. В последние месяцы СМИ публиковали истории о том, как чат-боты подталкивали людей к самоубийству. Но до сих пор OpenAI ограничивалась общими обещаниями сделать систему безопаснее, сообщает Futurism.
Все это особенно противоречиво на фоне громкого судебного процесса с The New York Times. Газета требует предоставить логи миллионов переписок, чтобы выяснить, использовались ли ее материалы для обучения ChatGPT. OpenAI ссылается на защиту приватности и стремится сократить объем данных, которые придется передать.
Пользователи считают, что не стоит превращать чат-бот в исповедальню. Некоторые вещи лучше обсуждать с людьми, а не с алгоритмами.
Ранее Наука Mail рассказывала о случае отравления бромом: 60-летний житель США решил исключить соль из рациона, спросил у ИИ, чем ее заменить.
