Исследование, опубликованное в журнале Radiology, показало, что ни опытные рентгенологи, ни современные большие языковые модели не способны отличить рентгеновские снимки‑дипфейки (созданные искусственным интеллектом) от настоящих.

В исследовании участвовали 17 рентгенологов из 6 стран (США, Франция, Германия, Турция, Великобритания, ОАЭ) со стажем от 0 до 40 лет. Им предложили оценить 264 рентгеновских снимка — половину подлинных, половину сгенерированных ИИ.
Первый набор включал изображения разных анатомических областей (реальные и созданные ChatGPT), второй — снимки грудной клетки (реальные и сгенерированные моделью RoentGen).
Без подсказки лишь 41% рентгенологов смогли спонтанно распознать ИИ‑снимки, а после предупреждения их точность выросла до 75%. Мультимодальные модели (GPT‑4o, GPT‑5, Gemini 2.5 Pro, Llama 4 Maverick) показали точность от 57% до 85%. Даже ChatGPT‑4o, использованный для создания дипфейков, не распознал их все, хотя справился лучше остальных.

Рентгенологи распознавали синтетические рентгеновские снимки грудной клетки (созданные моделью RoentGen) с точностью от 62% до 78%, а модели ИИ — от 52% до 89%.
Стаж работы рентгенолога не влиял на точность распознавания, но специалисты по заболеваниям опорно‑двигательного аппарата показали заметно лучшие результаты, чем другие радиологи.
Исследование выявило характерные черты синтетических рентгеновских снимков: они часто выглядят слишком идеально — с чрезмерно гладкими костями, неестественно прямым позвоночником, излишне симметричными легкими, однородным рисунком кровеносных сосудов и неестественно «чистыми» переломами, обычно расположенными только с одной стороны кости.
Ранее Наука Mail рассказывала о том, что российские ученые создали кристаллы для безопасного рентгена.

