Обзоры искусственного интеллекта Google предоставили неверную медицинскую информацию. Функция убрана из некоторых запросов

Обзоры искусственного интеллекта Google предоставили неверную медицинскую информацию. Функция убрана из некоторых запросов

Google только что удалил некоторые из своих AI-обзоров, автоматических сводок из результатов поиска, после расследования The Guardian. Выяснилось, что система утечка потенциально смертельной медицинской информации. Это еще один удар по флагманской функции компании Mountain View, которая создает пользователям больше проблем, чем решений. Дело становится серьезным, когда ИИ перестает давать советы, как добавлять клей в пиццу, и начинает влиять на медицинские решения миллионов людей.

Искусственный интеллект Google предоставил ложную информацию об анализах печени, из-за чего тяжелобольные люди могли считать свои результаты нормальными и игнорировать медицинские рекомендации.

Apple планирует революцию в приложении «Здоровье», представив виртуального врача с использованием искусственного интеллекта

В январе 2026 года издание British Guardian провело расследование, которое выявило фундаментальные недостатки в том, как Google AI Reviews обрабатывает запросы о состоянии здоровья. Самым серьезным случаем было неправильное сообщение референтных диапазонов функциональных тестов печени. Система выбрасывала массу цифр без контекста, без учета пола, возраста, национальности или этнического происхождения пациента. Эксперты из Британского фонда печени назвали это «опасным» и «тревожным», поскольку тяжелобольные люди могут счесть аномальные результаты нормальными и игнорировать дальнейшую медицинскую помощь. Хуже того, ИИ посоветовал пациентам с раком поджелудочной железы избегать жирной пищи, что прямо противоположно тому, что рекомендуют онкологи. В Великобритании по борьбе с раком поджелудочной железы ясно дали понять, что следование таким советам может лишить пациентов достаточного количества калорий и помешать им получить жизненно важную химиотерапию или хирургическое вмешательство.

Британские врачи массово используют ИИ. Отсутствие надзора и последовательных правил может повлиять на безопасность пациентов.

В ответ Google удалил обзоры AI для некоторых запросов, но The Guardian быстро обнаружила, что небольшие вариации одних и тех же фраз по-прежнему приводят к появлению неверных сводок. Проблема лежит глубже, чем несколько неточных результатов. Это заложено в самой архитектуре системы. Как мы писали в сентябре 2025 года при анализе влияния обзоров AI на органический трафик, эта функция существенно изменила способ потребления пользователями информации из поисковой системы. Теперь мы видим, что это не только меняет CTR и поведение, но и представляет реальный риск для здоровья. Обзоры AI работают на предположении, что страницы с высоким рейтингом содержат точную информацию, но алгоритм ранжирования Google уже много лет борется с проблемой SEO-оптимизированного контента и спама. Теперь система вводит эти ненадежные результаты в языковую модель, которая затем суммирует их авторитетным тоном, который может ввести в заблуждение. Даже когда ИИ черпает данные из точных источников, модель может делать неправильные выводы на основе данных.

Половина пациентов с редкими заболеваниями годами ждут диагноза. Модель искусственного интеллекта popEVE ученых из Гарварда может изменить ситуацию

Это не первый скандал вокруг этой функции. В мае 2024 года AI Reviews посоветовала пользователям добавлять клей в пиццу и есть камни. Затем Google быстро ограничил видимость этой функциональности. Но сейчас ставки гораздо выше. Такие организации, как Информационный форум пациентов и Мария Кюри, бьют тревогу. Люди ищут медицинскую информацию во времена кризиса и неопределенности, и неточные сводки, созданные ИИ, в верхней части результатов могут нанести реальный вред. У Google 91 процент. долю на мировом рынке поисковых систем, поэтому ее ответственность пропорциональна этому доминированию. Компания заявляет, что постоянно измеряет и оценивает качество сводок и что ее внутренняя команда врачей изучила зарегистрированные случаи и обнаружила, что многие из них точны. Проблема в том, что даже если «многие» правы, неправильные могут стоить чьей-то жизни. Пользователи уже обнаружили, что вставка нецензурных слов в запросы полностью отключает обзоры AI. Возможно, это лучшая стратегия, пока Google не решит самые важные проблемы с помощью своего «полезного» и «надежного» ИИ.

Источник: Гардиан

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии