Вторая пара глаз. Как искусственный интеллект стал помощником врача

Вторая пара глаз. Как искусственный интеллект стал помощником врача

Мы привыкли, что камеры узнают наши лица, кассы — взвешивают яблоки, а телефоны — распознают отпечатки пальцев. Теперь этот взгляд обернулся внутрь человека. В больницах и лабораториях алгоритмы анализируют медицинские снимки — от рентгенов до МРТ — и всё чаще замечают то, что раньше требовало пристального взгляда врача. Машины видят опухоли раньше человека, считают клетки быстрее лаборанта и становятся частью новых стандартов диагностики по всему миру. Компьютерное зрение вошло в медицину так тихо, что мы и не заметили, когда камеры начали помогать докторам.

Машина с глазами

Основу медицинских ИИ-систем составляют сверточные нейронные сети (CNN) — особый тип алгоритмов, которые разбивают снимок на тысячи числовых признаков: контраст, форму, плотность, границы тканей. Чем дольше обучается нейронная сеть и чем больше датасет, тем выше точность результатов. Затем они сравнивают эти параметры с миллионами других изображений, где врачи уже отметили: здесь норма, а здесь начинается патология. Так машина выделяет участки, на которые стоит обратить внимание, зачастую раньше, чем их замечает глаз.

Для врача это может быть едва уловимая тень, для машины — знакомый узор, встречавшийся в десятках похожих случаев. Сегодня такие технологии уже стали частью повседневной работы: они сортируют поток снимков, отмечают возможные отклонения и позволяют врачу сосредоточиться на действительно важном.

Первый диагноз

Первые попытки научить компьютер «видеть» медицинские изображения начались еще в 1960-х, но практическое применение программы нашли лишь в 1990-х. Тогда система могла лишь подсветить подозрительное место на рентгене (первые такие решения — CAD-системы для маммографии, одобренные FDA в 1998 году), а решение всё равно принимал человек. Это была скорее электронная линейка, чем напарник.

Настоящий скачок произошел двадцать лет спустя, когда компьютеры получили достаточно памяти и мощности, чтобы анализировать миллионы изображений. Алгоритмы начали замечать не просто контуры, а закономерности: как выглядят опухоли на разных стадиях, чем воспаление отличается от отёка, где проходит граница между нормой и патологией.

К середине 2010-х технология наконец вышла за пределы лабораторий. Google, IBM, Fujifilm и десятки стартапов начали обучать свои модели на огромных медицинских архивах. В России появились Botkin.AI и Третье мнение — первые проекты, которые встроили искусственный интеллект в реальную работу клиник.

Переломным моментом стал 2018 год, когда американское агентство FDA одобрило систему IDx-DR, способную самостоятельно выявлять диабетическую ретинопатию по снимкам глазного дна. Впервые машине официально доверили поставить диагноз. С этого момента искусственный интеллект перестал быть экспериментом и стал инструментом врача.

Новый импульс развитию дала пандемия COVID-19, когда системы компьютерного зрения для анализа КТ лёгких получили массовое и ускоренное внедрение во многих странах, в том числе в России. Алгоритмы применяли во время пандемии коронавируса: они помогали оценить результаты КТ больных и тем самым снижали нагрузку на врачей. За 30 секунд такой алгоритм мог обработать до 400 снимков — это намного больше, чем успел бы человек.

Видеть то, что ускользает

Радиология, дерматология, офтальмология и патология — четыре направления, где алгоритмы уже стали частью рутинной диагностики.

В радиологии программы помогают разбирать большие серии КТ и МРТ, отмечая участки, где может скрываться опухоль, кровоизлияние или тромб. Для врача это как встроенный второй взгляд: система не ставит диагноз, но указывает, где стоит приглядеться. Такие инструменты особенно ценны при раннем выявлении рака лёгких или инсульта — там, где счет идет на минуты.

В дерматологии компьютерное зрение стало основой цифровых дерматоскопов. Программа анализирует снимок родинки, измеряет цвет, форму, асимметрию и сравнивает с тысячами уже подтвержденных случаев. Алгоритмы всё чаще используют как предварительный фильтр, позволяющий врачу сосредоточиться на тех пациентах, у кого риск действительно высок.

В офтальмологии ИИ анализирует снимки глазного дна и выявляет первые признаки диабетической ретинопатии — тонкие сосудистые изменения, которые человек не заметит даже под микроскопом. Такие системы уже помогают в массовом скрининге, особенно у пациентов с диабетом.

В цифровой патологии алгоритмы обрабатывают изображения биопсийных срезов. Они подсчитывают клетки, определяют структуру ткани, а главное — ищут малозаметные отличия, по которым можно судить о типе и агрессивности опухоли. Это помогает стандартизировать работу лабораторий, ускоряет верификацию и снижает риск субъективных ошибок.

Гонка за зрением

Компьютерное зрение — одно из самых быстрорастущих направлений медицины. По оценке Grand View Research, в 2024 году мировой рынок этой технологии составлял около $2,7 млрд, а к 2030 году может превысить $15 млрд. Аналитики MarketsandMarkets дают схожие прогнозы, оценивая рост более чем в четыре раза за шесть лет. В Европе лидируют Германия и Нидерланды: здесь оцифровка биопсийных слайдов и автоматическое выделение подозрительных зон уже стали нормой. В Финляндии и Швеции алгоритмы помогают радиологам, которых хронически не хватает.

В Азии темпы ещё выше. Китайские компании Infervision, Deepwise и Yitu внедряют системы анализа рентгеновских снимков и КТ сразу в сотнях больниц, а японская Fujifilm встроила подсказки прямо в эндоскопы: если камера замечает полип, на экране вспыхивает предупреждение.

По данным VisionLabs, весь российский рынок компьютерного зрения составил 22,6 млрд рублей по итогам 2024 года, из которых на медицинские решения пришлось лишь 0,48 млрд рублей — меньше 3%. К 2030 году общий рынок может вырасти до 49,6 млрд рублей, а медицинский сегмент — до нескольких миллиардов при сохранении нынешней доли.

Отдельного реестра ИИ-систем в России нет, но медицинские программы, использующие компьютерное зрение, проходят регистрацию через Государственный реестр медицинских изделий. Среди наиболее известных решений — Botkin.AI, «Третье мнение», Webiomed и Care Mentor AI. Эти системы уже применяются в клиниках Москвы, Петербурга, Татарстана, Самары и других регионов.

В Москве действует программа ускоренного тестирования медицинских алгоритмов анализа изображений — так называемый «зеленый коридор». Она позволяет разработчикам систем компьютерного зрения проходить клиническую апробацию и валидацию решений на базе городских больниц в более короткие сроки.

Где сбивается фокус

Иногда искусственный интеллект ошибается не потому, что «глупый», а потому что видит мир иначе. Его обучали на снимках одной больницы, а в другой — другое оборудование, другие настройки, иной контраст. Модель путается, выхватывая не болезнь, а случайную деталь кадра — подпись, метку, текстуру пленки.

Источником ошибок бывают и сами данные: смазанные снимки, редкие диагнозы, перекос по возрасту или полу. Поэтому перед внедрением каждую систему приходится проверять и настраивать под местные протоколы — как линзу, которую фокусируют, прежде чем начать снимать.

Но чаще всего сбоят не алгоритмы, а люди. Молодые врачи склонны доверять машине безоговорочно, опытные — напротив, игнорируют её подсказки. Баланс достигается там, где модель умеет показать, почему она решила, что на этом участке стоит насторожиться, и с какой степенью уверенности. Когда объяснение становится частью интерфейса, человек и алгоритм работают уже не как соперники, а как команда.

Завтрашний взгляд

Камеры, которые раньше просто «смотрели», теперь учатся думать на шаг вперед. Алгоритмы уже не ограничиваются поиском пятен и теней, а они пытаются предсказать, как болезнь поведет себя дальше. Станет ли узел опасным, как ткань ответит на лечение, где может начаться рецидив. В Johns Hopkins Medicine рассказывают, что такие системы уже помогают радиологам в повседневной работе.

Следующее направление — объединение данных. Алгоритмы начинают сопоставлять снимки с результатами анализов, историей болезни и даже генетикой. Это не просто «умная камера», а модель, которая видит пациента целиком.

Аппаратная часть не отстает. В операционных появляются камеры, которые подсказывают хирургу, где проходит сосуд, и предупреждают, если движение выходит за пределы протокола. А крупнейшие технологические компании уже делают ставку на медицину: по данным Business Insider, Nvidia и Amazon называют здравоохранение одним из ключевых направлений развития ИИ.

Сегодня на переднем плане — генеративные модели, включая диффузионные. В отличие от классических алгоритмов, которые ищут закономерности, они умеют создавать новые медицинские изображения: дополнять редкие выборки, моделировать редкие сценарии и проверять, как могла бы измениться опухоль после терапии.

Друзья, а мы продолжаем следить за развитием медицины и за открытиями ученых, подписывайтесь! Телеграм-канал, Дзен

1
Начать дискуссию