Исследователи из Европы забили тревогу по поводу опасных ошибок, которые может выдавать Microsoft Copilot в ответах на медицинские вопросы.
В ходе эксперимента, ИИ ответил на 500 запросов, связанных с популярными медицинскими препаратами и диагнозами, и результаты оказались тревожными.
В 24% случаев ответы не соответствовали установленным медицинским знаниям, а 3% оказались полностью ошибочными. Примерно 42% ответов могли привести к умеренному или легкому вреду, а 22% — к серьёзным травмам или даже смерти.
Исследование подчёркивает, что на ИИ, вроде Microsoft Copilot, нельзя полагаться в вопросах медицины.
Хотя такие системы могут стать первым источником информации для людей без доступа к квалифицированным врачам, они также несут огромные риски из-за потенциально опасных ошибок.