Искусственный интеллект в медицине
между хайпом и реальностью
Рецензия врача на популярную статью
О чём речь
На Хабре опубликована статья «Искусственный интеллект в медицине: сферы, технологии
и перспективы» от компании FirstVDS (август 2022) [1].
Текст добротный, структурированный, с примерами конкретных продуктов.
Для технической аудитории — хорошее введение в тему.
Однако статья написана не врачами и для не-врачей. Это создаёт специфические
искажения: технологический оптимизм преобладает над клинической осторожностью.
Как практикующий врач с более чем сорокалетним стажем, позволю себе комментарий.
Что в статье хорошо
Честность в ограничениях. Авторы прямо пишут: «создания полноценных роботов-
хирургов в ближайших планах разработчиков пока нет». Это трезвая оценка. Компания
Babylon Health «прямо заявляют, что их компьютерный ассистент не ставит диагноз» — и
это правильно.
Конкретные примеры. Не абстрактные обещания, а названия компаний, продуктов,
областей применения. Читатель может проверить информацию самостоятельно.
Правильная иерархия. ИИ как ассистент, не как замена врача. Это ключевое понимание,
которое часто теряется в хайпе.
Терминологическая путаница: роботы — это не ИИ
Статья начинается с хирургических роботов и приводит впечатляющую статистику:
«более 5 тысяч роботов... более чем в 1 млн операций». Проблема в том, что
хирургические роботы типа Da Vinci — это не искусственный интеллект. Это
телеманипуляторы.
Хирург сидит за консолью и управляет инструментами. Робот не принимает решений, не
анализирует ткани, не выбирает тактику. Он повторяет движения человека с большей
точностью и меньшим тремором. Это важное различие: инструмент vs. система принятия
решений.
Робот-краб размером 0,5 мм — красивая инженерная работа. Но до клинического
применения — десятилетия. Упоминание его в контексте «ИИ в медицине» — это
научпоп-хайп, не медицинская реальность.
Проблема цифр: откуда взялось «пятикратное снижение
осложнений»?
Статья утверждает: «использование роботов с искусственным интеллектом в качестве
ассистентов привело к пятикратному снижению осложнений». Источник —
«исследование, в котором приняли участие 379 пациентов».
Любой врач, читавший медицинскую литературу, насторожится. Пятикратное снижение
осложнений — это революция. Такие результаты требуют многоцентровых
рандомизированных исследований с тысячами пациентов, длительным наблюдением,
независимой верификацией.
379 пациентов в 9 операционных — это пилотное исследование. Возможно, хорошее.
Но экстраполировать его на «ежегодную экономию в 40 миллиардов долларов» — это
маркетинг, не наука.
Для сравнения: метаанализ Университета Осаки (2024), охвативший 83 научные статьи за
6 лет, показал, что точность диагностики у опытных врачей на 15,8% выше, чем у систем
ИИ [2]. Это уже серьёзные данные.
Что осталось за кадром
Предвзятость данных (bias)
ИИ обучается на исторических данных. Исторически медицина собирала больше данных
о белых мужчинах. Результат: современные ИИ-системы дают более точные
рекомендации для этой группы, хуже — для женщин и представителей других рас [3].
Это не теоретическая проблема. Это означает, что алгоритм, обученный на данных
кардиологических отделений США, будет хуже работать для пациентки из Казахстана.
Проблема «чёрного ящика»
Статья мельком упоминает, что Alphabet «до сих пор не знают, что конкретно изучают их
модели машинного обучения». Это ключевая проблема. Если ИИ ставит диагноз, но не
может объяснить почему — как врачу проверить его правильность? Как пациенту
обжаловать решение?
Юридическая ответственность
Кто отвечает, если ИИ ошибся? Врач, который доверился рекомендации? Разработчик
алгоритма? Клиника, внедрившая систему? Наффилдский совет по биоэтике
(Великобритания) включил этот вопрос в список ключевых этических проблем ИИ в
медицине [4]. Ответа пока нет.
Реальная точность
Статья говорит о точности «до 95%». Данные Минздрава России скромнее: средняя
точность диагностики с помощью ИИ — 87% [5]. При этом диагностические ошибки
врачей допускаются в 10–20% случаев, и 30% из них угрожают жизни [6]. ИИ не решает
эту проблему магически — он добавляет ещё один источник потенциальных ошибок.
Опасные обещания: самодиагностика по фото
Статья описывает SkinVision — приложение, которое «позволяет обнаруживать рак кожи
на ранней стадии по фотографиям, сделанным на телефон».
Звучит прекрасно. Реальность сложнее.
Пациент фотографирует родинку. Приложение говорит «норма». Пациент успокаивается и
не идёт к дерматологу. Через год — меланома с метастазами. Кто виноват?
Проблемы самодиагностики:
• Качество фото зависит от освещения, камеры, угла съёмки
• Пациент может сфотографировать не ту родинку
• Меланома может выглядеть «безобидно» на ранних стадиях
• Ложноотрицательный результат опаснее, чем отсутствие диагностики
Дерматоскопия в руках специалиста — это не просто «посмотреть на родинку». Это
оценка структуры, границ, сосудистого рисунка, сравнение с предыдущими осмотрами,
учёт анамнеза. Алгоритм видит пиксели. Врач видит пациента.
Российский контекст
Статья мало говорит о России. Между тем, по данным 2024 года, около 1800 медицинских
организаций в 72 регионах внедрили системы анализа изображений на основе ИИ [5].
Рынок оценивается в 12 млрд рублей с прогнозом роста до 78 млрд к 2030 году [7].
Есть отечественные разработки: Webiomed (прогнозная аналитика), DIMA (поддержка
врачебных решений), Pirogov.AI (эндоскопическая диагностика). Это реальные продукты,
зарегистрированные Росздравнадзором.
Но есть и проблемы: недостаточная цифровизация первичного звена, разрозненность
медицинских данных, отсутствие единых стандартов. ИИ требует больших данных. Если
данные неполные, ошибочные или несовместимые — алгоритм унаследует все их
недостатки.
Чего реально ждать от ИИ в медицине
Рутинные задачи. Анализ больших массивов изображений, первичный скрининг,
сортировка срочных случаев. Здесь ИИ уже работает и приносит пользу.
Второе мнение. Не замена врача, а дополнительная проверка. «Алгоритм обратил
внимание на это — стоит посмотреть внимательнее».
Документооборот. Автоматизация заполнения историй болезни, направлений, рецептов.
Меньше рутины — больше времени на пациента.
Разработка лекарств. Анализ молекулярных структур, предсказание взаимодействий.
Здесь ИИ может ускорить процесс на годы.
Персонализация терапии. Подбор дозировок с учётом индивидуальных особенностей
пациента. Статья правильно описывает подход PPD — это перспективное направление.
Заключение
Статья на Хабре — неплохое введение в тему для технической аудитории. Но она
написана с позиции технологического энтузиазма, а не клинической практики.
ИИ в медицине — это инструмент. Хороший инструмент в руках профессионала
улучшает результат. Тот же инструмент в руках дилетанта или без контроля — опасен.
Пациент, который «диагностирует» себя по приложению вместо визита к врачу, рискует
больше, чем экономит. Врач, который слепо доверяет рекомендации алгоритма, перестаёт
быть врачом.
Будущее медицины — не «ИИ вместо врача», а «врач + ИИ». И главным в этой связке
должен оставаться человек.
Технологии развиваются быстро. Этика, право и здравый смысл должны успевать за
ними.
Литература
1. FirstVDS. Искусственный интеллект в медицине: сферы, технологии и перспективы //
Хабр. 2022. URL: habr.com/ru/companies/first/articles/682516/
2. Takita H., Ueda D. et al. Diagnostic accuracy of AI in clinical medicine: meta-analysis. Osaka
University, 2024.
3. Financial Times. AI in healthcare shows bias towards white males. September 2025.
4. Nuffield Council on Bioethics. Artificial intelligence in healthcare and research. UK, 2023.
5. Минздрав России. Внедрение ИИ в медицинских организациях. Платформа
искусственного интеллекта, 2024.
6. Forbes Russia. Как искусственный интеллект меняет будущее медицины. 2023.
7. Forbes Healthcare. Дорого и сложно: что тормозит внедрение ИИ в медицину. 2025.
8. Кошечкин К.А., Хохлов А.Л. Этические проблемы внедрения искусственного
интеллекта в здравоохранении // Медицинская этика. 2024. №1. С. 12–19.
© Валерий Нестеров, 2025
Свидетельство о публикации №125122105491