Нейросети сейчас — часть повседневной жизни. Они помогают в работе, учебе и творчестве, однако общение с искусственным интеллектом не является абсолютно безопасным.
Кандидат технических наук, доцент кафедры «Информационные технологии и автоматизированные системы» Пермского Политеха Даниил Курушин объяснил, с чем стоит быть осторожнее при использовании ChatGPT.
ChatGPT сохраняет все диалоги для анализа и улучшения системы, присваивая каждому сеансу уникальный идентификатор. Эти данные помогают разработчикам совершенствовать алгоритмы. Однако за коммуникациями с нейросетью скрываются риски: возможен сбор информации третьими лицами — сотрудниками спецслужб или мошенниками. Поскольку доказать или опровергнуть утечку данных сложно, эксперт советует исходить из наихудшего сценария: любая информация, переданная через интернет-сервисы, потенциально может стать доступной неограниченному кругу лиц.

Конфиденциальные данные в процессе общения с ChatGPT рискуют быть перехваченными злоумышленниками. Для этого могут использоваться не только нейросети, но и фишинговые чаты — мошеннические схемы в мессенджерах, социальных сетях, играх и приложениях. Доверять коммерческие тайны, персональные или банковские данные боту тоже не стоит. Разглашение некоторых сведений может привести к юридической ответственности, в том числе, уголовной: о нарушении могут узнать правоохранительные органы.
Даже нейтральные бытовые беседы теоретически могут использоваться для сбора статистических данных об интересах пользователей. Однако эта практика уже широко распространена через системы интернет-поиска и социальные сети, поэтому представляет сравнительно меньший риск по сравнению с передачей конфиденциальных данных.
Еще одно предостережение — проверять ответы системы. Использовать нейросеть следует только в тех областях, где вы можете подтвердить достоверность информации. В остальных случаях надежнее обращаться к экспертным источникам.
Ранее Наука Mail писала о том, что нейросети чаще стали давать фейковые ответы.
