Top.Mail.Ru
Пятница, 16 января, 2026

Google убрал медицинские ИИ-подсказки по после выявления опасных рекомендаций

Автоматические медицинские пояснения в поиске Google оказались способны вводить пользователей в заблуждение и создавать риски для пациентов

Время на прочтение: 2 мин

Также по теме

Google временно удалил часть автоматически сгенерированных медицинских сводок из функции AI Overviews после журналистского расследования, выявившего серьёзные ошибки в интерпретации клинических данных. История вновь обострила дискуссию о границах применения генеративного ИИ в медицинской информации, особенно в условиях, когда всё больше людей ищут ответы на вопросы о здоровье через поисковые системы.

Поводом для корректировок стала публикация британского издания The Guardian, на которую обратили внимание и другие медиа. Журналисты протестировали, как AI Overviews — функция Google, формирующая краткие ответы на основе ИИ прямо в результатах поиска — обрабатывает запросы о нормальных значениях показателей работы печени в анализах крови. В ряде случаев система выводила «сырые» референсные диапазоны без какого-либо контекста, не учитывая возраст, пол, этническое происхождение, сопутствующие заболевания или приём лекарств. Для пользователя без медицинской подготовки такие ответы могли выглядеть как однозначное подтверждение нормы или патологии.

По словам Ванессы Хебдич, директора по коммуникациям и политике British Liver Trust, подобные сводки являются «опасными и тревожными». Она подчеркнула, что интерпретация печёночных проб требует комплексного клинического анализа, а серьёзные заболевания печени могут развиваться даже при формально «нормальных» показателях.

В такой ситуации пациент, получивший успокаивающий ответ от поисковой системы, рискует отказаться от дальнейшего обследования или консультации врача.

Расследование выявило и другие проблемные примеры. В одном случае AI Overviews рекомендовал пациентам с раком поджелудочной железы избегать жирной пищи — совет, который противоречит клиническим рекомендациям, где, напротив, часто требуется высококалорийная диета из-за нарушений пищеварения. В другом — система распространяла некорректную информацию о скрининговых тестах на онкологические заболевания у женщин.

После публикаций Google подтвердил, что часть подобных сводок была удалена. Однако, как отмечают эксперты, проблема не решена полностью. Небольшие изменения формулировок запросов — например, использование профессиональных аббревиатур — по-прежнему могут запускать AI Overviews с теми же структурными недостатками. Компания не раскрывает деталей внесённых изменений, ограничиваясь заявлениями о «широких улучшениях», направленных на устранение дефицита контекста. Представители Google также подчёркивают, что значительная часть медицинских ответов формируется на основе «качественных источников» и проверяется клиницистами.

Тем не менее этот кейс усилил обеспокоенность вокруг использования ИИ как источника медицинской информации для широкой аудитории. В условиях перегруженных систем здравоохранения и ограниченного доступа к врачам пользователи всё чаще обращаются к поисковым системам в моменты тревоги, ожидая быстрых и понятных ответов. Именно в таких сценариях ошибки или упрощения, допущенные алгоритмами, могут иметь наибольшие последствия.

Скандал вокруг AI Overviews вписывается в более широкий контекст растущего давления на технологические компании, внедряющие ИИ-решения в чувствительные области, включая здравоохранение. Регуляторы, профессиональные медицинские сообщества и пациентские организации всё чаще указывают, что генеративные модели, не обладающие клиническим мышлением и ответственностью, должны использоваться лишь как вспомогательный инструмент, а не как замена профессиональной медицинской оценки.

История с Google показала, что даже при доступе к авторитетным источникам и участии экспертов по качеству данных ключевым риском остаётся сама логика генеративного ИИ — стремление выдавать универсальный, упрощённый ответ там, где в реальной медицине не существует «нормы без контекста».

spot_img

Популярные

ЧИТАЙТЕ ТАКЖЕ