
Компания OpenAI запретила своей нейросети ChatGPT давать пользователям рекомендации, связанные со здоровьем и юридическими вопросами. На это обратили внимание пользователи Reddit и журналисты.
Разработчик обновил политику использования бота и наложил ограничения на распространение некоторой информации:
- персонализированных рекомендаций, которые требуют профессиональной лицензии — в первую очередь медицинских и юридических советов;
- интерпретации медицинских/анатомических изображений (рентген, МРТ, КТ, фото кожных поражений и т. п.)
Эти правила теперь действуют для всех продуктов OpenAI. Теперь чат-бот может выдать только общие сведения по тому и другому вопросу. При попытке запроса по конкретному случаю система выдает отказ.

По словам пользователей, перестали действовать даже традиционные хитрости, когда модель просят рассмотреть ситуацию «гипотетически».
В OpenAI не делали официальных заявлений на этот счет и никак не комментировали изменение политики.
Отметим, что в августе 2025 года в ChatGPT ввели ограничения на советы о расставании со своими романтическими партнерами.
Ранее Наука Mail рассказывала о том, почему ChatGPT плохо имитирует людей.
