
Ученые из американского университета штата Мэн сравнили, насколько эффективно искусственный интеллект и врачи-клиницисты справляются с постановкой диагнозов в сложных и деликатных медицинских случаях. В исследовании проанализировали более 7000 анонимных запросов пациентов из США и Австралии, что позволило выявить как сильные, так и слабые стороны ИИ в медицине.
Одним из ключевых выводов исследования стало то, что ИИ демонстрирует высокую точность в ответах на фактологические и процедурные вопросы, часто соответствуя экспертным стандартам. Однако когда дело касалось объяснений «почему» и «как», алгоритмы уступали врачам. Кроме того, ответы ИИ оказались менее стабильными: при повторных запросах на одну и ту же тему система могла давать противоречивые рекомендации. Это вызывает серьезные опасения, особенно если речь идет о здоровье пациентов.

Еще одним важным аспектом стало отсутствие эмоциональной вовлеченности в ответах ИИ. Врачи-люди адаптируют свои объяснения в зависимости от ситуации, используя более простой язык для пациентов без медицинского образования и проявляя эмпатию в сложных случаях, таких как психические расстройства или неизлечимые заболевания. ИИ же чаще оперирует клиническими терминами, что может создавать барьеры в общении с пациентами.
Исследование проводилось на фоне растущего дефицита медицинских кадров в США. По данным управления по ресурсам и услугам здравоохранения, к 2037 году в сельских районах страны ожидается нехватка 42% врачей первичного звена. При этом спрос на медицинские услуги продолжает расти, особенно среди пожилого населения.
Искусственный интеллект мог бы частично решить эту проблему, взяв на себя рутинные задачи и снизив нагрузку на врачей. Однако эксперты предупреждают: внедрение ИИ должно сопровождаться строгими этическими стандартами и контролем. В противном случае технология может усугубить неравенство в доступе к медицине или даже навредить пациентам из-за ошибок алгоритмов.

Одной из главных проблем остается ответственность за ошибки. Если диагноз, поставленный ИИ, окажется неверным, кто будет виноват — разработчики алгоритма, врачи или система здравоохранения? Кроме того, конфиденциальность данных пациентов требует особого внимания, особенно с учетом роста кибератак на медицинские учреждения.
Еще один важный аспект — адаптация ИИ к разным системам здравоохранения. Исследование показало, что в Австралии, где действует модель всеобщего медицинского обслуживания, пациенты более удовлетворены качеством помощи, чем в США, где стоимость лечения значительно выше. Это означает, что алгоритмы должны учитывать не только медицинские, но и культурные, экономические и правовые особенности разных стран.
Результаты исследования подтверждают, что ИИ может стать ценным инструментом в руках врачей, но не заменит их полностью. Алгоритмы способны ускорить диагностику, снизить нагрузку на медиков и улучшить доступ к медицинской информации. Однако без человеческого контроля, эмпатии и этических стандартов их применение может принести больше вреда, чем пользы.
Ранее на конференции ЦИПР-2025 госкорпорация «Ростех» представила сканер OneCell Scan 3.0 с искусственным интеллектом. Эта разработка уже помогла врачам поставить более 1,5 млн диагнозов, включая случаи раннего выявления онкологических заболеваний.