Чат-бот предлагает пройти тест из 20 вопросов. С помощью него разработчики и пользователи ИИ могут определить свой уровень осведомленности о возможных этических рисках, связанных с разработкой, внедрением и использованием ИИ-систем в медицинских целях.
Для создания технологии команда проанализировала российские и международные документы, а после дала определение ключевых принципов профессиональной медицинской этики (автономия, благодеяние, справедливость, ненанесение вреда и забота). Затем специалисты с помощью глубинного полуструктурированного интервью среди врачей и разработчиков ИИ конкретизировали принципы и дополнили их новыми.
Разработчики ожидают, что индекс будет востребован этическими комиссиями, судебно-медицинским экспертным сообществом и другими организациями, ответственными за оценку и сертификацию ИИ.
«Разработка данного индекса стала важным шагом на пути обеспечения этичного использования ИИ в медицине. Мы надеемся, что наша разработка будет небесполезной для медицинского сообщества, обеспокоенного, как показывают наши исследования, возможными негативными именно этическими последствиями широкого внедрения ИИ в медицинскую практику», – подчеркивает руководитель проекта, профессор, заместитель директора Центра трансфера и управления социально-экономической информацией НИУ ВШЭ Анастасия Углева.
В октябре 2024 года Федеральное агентство по техническому регулированию и метрологии (Росстандарт) утвердило ГОСТ «Системы поддержки принятия врачебных решений с применением искусственного интеллекта. Основные положения». Госстандарт разработан для обеспечения приверженности врачей клиническим рекомендациям и повышения качества медпомощи. Документ вступит в силу с 1 января 2025 года.