Врач Шабалина разъяснила, для чего введен ГОСТ для ИИ в медицинской сфере
В России введён государственный стандарт для искусственного интеллекта (ИИ) в медицинской сфере. Вступивший в силу документ впервые вводит термины, определения и классификацию для систем ИИ, применяемых в здравоохранении.
Этот стандарт призван обеспечить регулирование, стандартизацию и соблюдение этических норм при использовании ИИ в медицинской сфере. Он направлен на защиту пациентов, поддержание высокого уровня медицинских услуг и снижение рисков, связанных с ошибками или злоупотреблением.
Согласно новому ГОСТу, все системы ИИ в медицине делятся на две категории:
- Медицинские изделия с ИИ: это системы, которые используются для профилактики, диагностики, лечения, реабилитации и мониторинга состояния пациента. Эти автономные системы могут проводить медицинские исследования и принимать решения, влияющие на здоровье человека, что требует от них высокого уровня надежности и точности.
- Сервисы на основе ИИ: к этой категории относятся голосовые помощники, чат-боты и сервисы видеоаналитики. Они предоставляют информацию и рекомендации, но не выполняют медицинских процедур.
Иммунолог-аллерголог высшей категории Оксана Шабалина рассказала 360.ru, что ИИ не несёт юридической ответственности за свои рекомендации, в отличие от медицинских специалистов, и часто выдаёт общие советы, основанные на обобщённой информации из интернета. Это может быть полезно для получения базовых рекомендаций, но не заменяет профессиональную медицинскую консультацию.
Шабалина отмечает, что пациенты могут столкнуться с проблемами, если будут полагаться только на ИИ. Например, ИИ не учитывает индивидуальные особенности пациента, такие как наличие сопутствующих заболеваний (коморбидность). Это может привести к неправильному выбору лекарств и ухудшению состояния здоровья.
Врач же всегда учитывает все аспекты здоровья пациента, включая индивидуальные особенности и сопутствующие заболевания. Это позволяет избежать ошибок и выбрать наиболее эффективное лечение.
Кроме того, врач может предложить психологическую поддержку и направить пациента к другим специалистам, если это необходимо. Это особенно важно для пациентов, которые могут испытывать стресс или тревогу из-за своего состояния.
Кстати, недавно OpenAI и Google запретили GPT-чатам предоставлять юридические и медицинские консультации на основе пользовательского опыта. Российский голосовой помощник "Алиса", получив запрос на рекомендации, например, при аллергии, также направит пользователя к врачу с объяснением, почему не следует обращаться за лечением к искусственному интеллекту.