Top.Mail.Ru
Понедельник, 16 февраля, 2026

ИИ под давлением регулятора: как закон ЕС меняет правила игры для фармы и медтеха

Компании из сферы здравоохранения сталкиваются с новой реальностью: европейский "Закон об ИИ" ужесточает правила, обещая защиту граждан, но в то же время может препятствовать прогрессу в отрасли

Время на прочтение: 4 мин

Также по теме

В 2024 году Евросоюз утвердил всеобъемлющий Закон об искусственном интеллекте (EU AI Act) — первую в мире регуляторный документ, призванный системно контролировать развитие и применение ИИ-технологий. Закон уже называют историческим: он классифицирует ИИ по уровням риска и накладывает разные требования к разработке, внедрению и мониторингу систем в зависимости от их потенциального воздействия на права и безопасность человека. Однако в индустрии наук о жизни — особенно среди разработчиков медицинских ИИ-систем и фармтехнологий — отношение к новому регламенту неоднозначное.

ИИ-технологии под запретом или под контролем

EU AI Act (Регламент (ЕС) 2024/1689), опубликованный в июле 2024 года, делит ИИ-системы на четыре категории: неприемлемый, высокий, ограниченный и минимальный риск. Под запрет сразу попадают ИИ, способные манипулировать поведением человека, нарушать право на неприкосновенность личности или использовать биометрическую идентификацию в публичных пространствах в режиме реального времени.

Высокий риск включает ИИ в медицине, образовании, безопасности и правосудии — и именно к этой категории относятся большинство решений, применяемых в фарме и здравоохранении. Для таких систем предусмотрены особые требования к прозрачности, контролю за качеством данных и процессами валидации. Разработчикам ИИ-моделей общего назначения также придётся соблюдать дополнительные технические и организационные меры. Все требования вводятся поэтапно — начиная с февраля 2025 года, с полной имплементацией для ИИ высокого риска к августу 2027 года.

Нарушение нового регламента чревато значительными штрафами: до 35 млн евро или 7% от глобального годового оборота компании.

Фарминновации сталкиваются с регулированием

На фоне широкого внедрения ИИ в цепочки разработки и вывода препаратов — от генерации молекул до персонализации терапии и подбора пациентов — EU AI Act становится ключевым фактором стратегического планирования. Фармацевтические гиганты, такие как Eli Lilly, Sanofi и BioNTech уже глубоко интегрировали ИИ в свои процессы R&D. NVIDIA активно инвестирует в партнёрства с биотехнологическими стартапами, такими как Gain Therapeutics, для развития специализированных платформ вроде Magellan, ускоряющих поиск новых лекарств.

Но теперь эти же компании должны пересматривать архитектуру своих ИИ-решений с учётом новых норм. Как отмечается в отчёте GlobalData, организации, которые разрабатывают и внедряют ИИ-системы в здравоохранении, автоматически попадают под зону высокого риска и обязаны формализовать процессы валидации, аудита и контроля качества. При этом заказчики, использующие такие системы, будут нести меньшую регуляторную нагрузку, чем поставщики и разработчики.

MDR + AI Act: конфликт или синхронность

Регламент по медицинским изделиям (MDR), принятый в ЕС в 2017 году и внедряемый поэтапно до 2027 года, уже сегодня регулирует обращение цифровых решений в медицине. Для ИИ-продуктов, обладающих функциями медицинского назначения, требуется получение CE-маркировки как подтверждение соответствия европейским требованиям безопасности и эффективности.

По словам Фернандо Бенито, директора по технологиям Custom Surgical, AI Act «выравнивается» с MDR, создавая общую архитектуру регулирования. Это может повысить доверие потребителей и облегчить прохождение сертификационных процедур. Однако, как отмечает Леон Доорн, глава комитета по ИИ в медизделиях при NEN (Институт стандартизации Нидерландов), между двумя регламентами остаются несогласованности. В частности, риск-ориентированный подход, лежащий в основе AI Act, пока не включён в перечень гармонизированных стандартов MDR, что создаёт дополнительные сложности для разработчиков гибридных решений.

Стартапы под давлением

Новый закон особенно критично воспринимается технологическими стартапами. По мнению экспертов, крупные американские компании смогут выстроить стратегию «двойного вывода на рынок»: сначала запустить продукт в США или других странах с более мягкой регуляторикой, а затем адаптировать его под требования ЕС. В то же время европейские команды будут вынуждены проектировать решения сразу под сложные рамки AI Act + MDR + GDPR, что может существенно удлинить время вывода продукта на рынок и повлиять на инвестиционную привлекательность.

«Если раньше стартапы могли действовать по принципу “покажи MVP и запускай”, теперь им придётся встраивать compliance-процедуры на раннем этапе — иначе выход на рынок в ЕС станет недостижимым»

Стандарт цифровой этики

Несмотря на критику, многие считают, что AI Act может повторить путь GDPR, став новым «золотым стандартом» цифровой этики. В GlobalData отмечают, что единая нормативная база повышает прозрачность, снижает репутационные риски и создаёт предсказуемые условия для международных игроков. Уже сейчас крупные фармкомпании рассматривают соблюдение AI Act как элемент ESG-повестки и фактор формирования доверия у потребителей и партнёров.

«Когда был опубликован GDPR, он тоже считался “только европейским”, но теперь стал глобальным. AI Act может повторить этот путь — и те, кто адаптируется раньше, получат преимущество».

Различия в регуляции ИИ между регионами мешают обучению моделей на международных выборках. Европейские требования более жёсткие по сравнению с США и Китаем, что создаёт вызов для компаний, работающих сразу на нескольких рынках. Однако, как отмечает Доорн, история с GDPR показала: европейские правила могут стать де-факто глобальным стандартом. Если и AI Act пойдёт тем же путём, то ранняя адаптация может принести стратегические дивиденды.


Новый регламент создаёт парадокс: с одной стороны, он усиливает защиту прав граждан, повышает прозрачность и доверие к технологиям. С другой — может оттолкнуть инновации в сторону более мягко регулируемых юрисдикций. Исход зависит от того, как быстро будут выработаны прикладные руководства, и насколько гибко они смогут учитывать реальные сценарии в фарме и медтехе.

Как бы ни развивалась ситуация, ясно одно: компании, которые уже сейчас учатся работать в соответствии с требованиями AI Act, получают фору в формировании доверия на рынке. А значит — и в построении долгосрочных цифровых решений в медицине, способных выдержать проверку временем и регулированием.

В этом контексте некоторые эксперты видят возможность и для России. Компаниям, планирующим выход на международные рынки с ИИ-решениями — будь то алгоритмы анализа изображений, платформы для клинической аналитики или цифровые терапевтические продукты — уже сейчас стоит отслеживать требования AI Act. Это позволит минимизировать задержки при регистрации и повысить вероятность международной коммерциализации.

spot_img

Популярные

ЧИТАЙТЕ ТАКЖЕ