В Госдуме обсудили, что мешает масштабированию ИИ в здравоохранении
Генеративный ИИ и «серые зоны» регулирования
Несмотря на формирование базовых механизмов допуска ИИ в медицине, нормативное поле остается фрагментированным. Как отметил Вадим Ваньков, в отрасли уже действует «правило двух ключей» – регистрационное удостоверение и реестр отечественного ПО. Это позволяет контролировать медицинские изделия с ИИ, однако значительная часть решений выпадает из этой логики и фактически используется вне четких правил.
По словам спикеров, наиболее наглядно демонстрируют этот разрыв генеративные модели: они уже активно применяются, но не встроены в существующую систему контроля и формируют «серую зону» без единых требований.
Ректор Высшей школы организации и управления здравоохранением Гузель Улумбекова отметила, что при формировании регулирования важно учитывать международный опыт и не тормозить развитие технологий. По ее словам, отсутствие понятных правил усиливается недоверием и недостатком знаний у пользователей, а также эффектом «черного ящика», из-за которого сложнее оценивать решения и применять их на практике.
Сложность вывода продуктов на рынок
Даже в регулируемом сегменте остаются барьеры, связанные с оценкой эффективности. По словам Игоря Иванова, алгоритм, который работает на небольших данных, может совсем по-другому вести себя на больших массивах в реальной клинической практике.
Участники обсуждения считают, что это создает системную проблему – текущие процедуры регистрации не всегда позволяют оценить поведение системы в реальных условиях. В результате возникает необходимость постоянного мониторинга и переоценки решений уже после внедрения, а также доработки подходов к допуску технологий на рынок.
Данные и инфраструктура
Ключевым ограничением остается инфраструктура. «Если негде хранить данные, ни о каком искусственном интеллекте речи идти не может», – заявил Вадим Ваньков.
Кроме того, эксперты отметили, что рост числа цифровых исследований и медицинских данных уже опережает возможности хранения и обработки, особенно в регионах. Это касается не только хранилищ, но и каналов связи, вычислительных мощностей и стоимости оборудования, которая существенно выросла. В результате даже при наличии готовых решений их внедрение упирается в базовые технологические ограничения.
Экономика внедрения
На примере Москвы Юрий Васильев отметил, что экономический эффект достигается не столько за счет самой технологии, сколько за счет изменения процессов. По его словам, «создать искусственный интеллект достаточно просто, а вот внедрить его – гораздо сложнее».
В практике московской системы ИИ используется как инструмент первичной сортировки: алгоритмы разделяют исследования на норму и патологию, причем врач подключается только к случаям с отклонениями. Это позволяет перераспределить поток и снизить нагрузку на специалистов.
Экономический эффект уже подтверждается на практике. Так, по словам Васильева, внедрение ИИ в маммографии позволило сэкономить 138 млн рублей, а автоматическая сортировка исследований – еще 135 млн рублей за 11 месяцев. Участники круглого стола подчеркнули, что такие результаты достигаются не за счет самой технологии, а за счет перестройки процессов – точечное внедрение без изменений в организации работы такого эффекта не дает.
Одним из ключевых ограничений остается действующая модель закупок. Васильев считает, что 44-ФЗ не адаптирован под закупку решений с использованием искусственного интеллекта. Дополнительную сложность создает и то, что такие системы со временем могут менять свои характеристики, тогда как регулирование предполагает фиксированные параметры продукта.
Ответственность и правовая неопределенность
Вице-президент фонда «Вместе против рака», председатель Совета учредителей АНО «Национальный аналитико-экспертный центр здравоохранения» Полина Габай отметила, что действующая модель фактически не изменилась – юридическая ответственность за итоговое решение по-прежнему полностью лежит на враче, даже при использовании ИИ.
Спикеры указали на возникающее противоречие: с одной стороны, врач обязан перепроверять рекомендации системы, с другой – вынужден учитывать их в работе. В результате ИИ становится частью процесса принятия решений, но без перераспределения ответственности между участниками.
Также обсуждалось, что в текущем регулировании не определена роль разработчиков и поставщиков решений, а сами механизмы компенсации возможного вреда остаются непроработанными. Эксперты сошлись во мнении, что по мере расширения применения ИИ потребуется пересмотр модели ответственности, включая более четкое разграничение ролей и, возможно, внедрение дополнительных инструментов – например, страхования или компенсационных механизмов.
Неконтролируемое использование ИИ пациентами
В ходе мероприятия участники обратили внимание на рост использования ИИ вне клинической системы и связанные с этим риски. В связи с этим прозвучала необходимость разработки критериев психологической безопасности и более четкого регулирования решений, напрямую взаимодействующих с пациентами.
Генеральный директор НМИЦ психиатрии им. В.П. Сербского Светлана Шпорт привела примеры, когда пациенты отказывались от медицинской помощи в пользу рекомендаций ИИ и поступали уже в тяжелом состоянии. По ее словам, такие случаи показывают, что технологии начинают напрямую влиять на поведение пациентов и уровень доверия к врачам.
Сопредседатель Всероссийского союза пациентов Ян Власов подчеркнул, что пациенты все чаще используют ИИ для самодиагностики и выбора лечения. В результате ИИ начинает восприниматься как альтернативный источник решений, что усиливает риски ошибок при лечении.
В последние годы регулирование искусственного интеллекта в России переходит к более системной модели. В 2025 году был принят Кодекс этики применения ИИ в здравоохранении, а в начале 2026 года утверждены поручения по формированию государственной политики в этой сфере. Дополнительным шагом стало создание комиссии при Президенте РФ по вопросам развития ИИ, которая займется координацией подходов к регулированию, развитию технологий и их внедрению в различные отрасли, включая здравоохранение. Одновременно регионам рекомендовано сформировать собственные комиссии, что должно усилить управляемость внедрения ИИ на местах.
Подписывайтесь на наши каналы в MAX: Vademecum и Vademecum Live