Искусственный интеллект

В НИУ ВШЭ предложили поэтапный план безопасного внедрения ИИ в университеты

Исследователь из НИУ ВШЭ в Санкт-Петербурге разработал поэтапную схему для безопасного и эффективного внедрения больших языковых моделей в университетскую среду. Этот подход, основанный на методе анализа проблем «рыбья кость», позволяет заранее выявлять уязвимости и выстраивать работу с искусственным интеллектом так, чтобы минимизировать риски и для учебного процесса, и для конфиденциальности данных.
Автор Наука Mail
Проблемы с приватностью данных можно решить, внедрив надежные протоколы безопасности и методы анонимизации
Проблемы с приватностью данных можно решить, внедрив надежные протоколы безопасности и методы анонимизацииИсточник: Komanda AI

За последние два года большие языковые модели кардинально изменили подходы к обучению и оценке знаний в высших учебных заведениях. Согласно последним данным, около 87% студентов уже активно используют искусственный интеллект в своей учебе. Это привело к наступлению так называемой «постплагиатной» эпохи, когда традиционные схемы контроля знаний перестали работать эффективно. Однако университетские регламенты и инфраструктура часто не успевают за стремительно меняющейся практикой, создавая серьезные риски. Модели могут «галлюцинировать», выдавая неточные ответы, а массовое использование ИИ-инструментов порождает множество технических и организационных задач.

Доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ Андрей Терников проанализировал типичные причины сбоев больших языковых моделей в университетах. Для своего исследования он применил диаграмму Исикавы, известную как «рыбья кость». Этот метод позволил разложить сложную проблему на шесть ключевых групп факторов: «Материалы», «Методы», «Машины», «Среда», «Люди» и «Измерения».

Для каждой из этих ветвей автор подробно описал характерные сбои, их потенциальное влияние на учебный процесс и предложил конкретные меры профилактики. Данный подход охватывает весь жизненный цикл работы с технологией — от создания университетских регламентов и развития инфраструктуры до обучения персонала и вовлечения студентов, при этом не требуя значительных единовременных ресурсов.

Компания студентов общается за столом
Подход охватывает весь цикл: университетские регламенты, инфраструктуру, обучение персонала и вовлечение студентовИсточник: Freepik

Практическая реализация плана строится на четырех последовательных шагах. Первым делом университет должен провести быстрый аудит, чтобы понять, где и как ИИ уже используется, какие данные обрабатываются, и для каких курсов отсутствуют четкие правила. Следующим этапом становится введение минимальных стандартов, включающих положения в учебных программах о допустимой помощи искусственного интеллекта и протоколы работы с персональными данными. После этого запускаются ограниченные пилотные проекты на типовых курсах, где в контролируемой «песочнице» проверяются методики оценивания и собирается обратная связь. Финальный шаг — масштабирование успешных практик с закреплением ответственности за академическими руководителями и ИТ-подразделениями.

Наша задача — перейти от общих обсуждений ИИ к четкому плану, где определены приоритеты, роли и контрольные точки. Следование этому плану позволяет вузам снижать риски и достигать измеримых результатов для студентов и преподавателей. Этот поэтапный и управляемый подход адаптируется под разные программы и масштабы. Он способствует созданию прозрачных правил, повышает доверие к оценкам и формирует культуру ответственного применения ИИ.
Андрей Терников
исследователь из НИУ ВШЭ в Санкт-Петербурге

Ранее мы рассказывали, что ИИ впервые стал призером международной олимпиады по математике.