Современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, всё ещё далеки от идеала и часто выдают опасные рекомендации, особенно когда дело касается медицины. Исследователи из Германии и Бельгии провели эксперимент, чтобы проверить, насколько точно Copilot справляется с медицинскими вопросами, и результаты оказались тревожными.
В рамках исследования бот отвечал на 10 самых популярных вопросов, которые задают жители США о лекарствах и медицинских препаратах. В общей сложности было проанализировано 500 ответов, которые оценивались по таким параметрам, как точность, полнота и потенциальная опасность для здоровья.
Исследование показало, что только 54% ответов Copilot соответствовали научному консенсусу, а в 24% случаев бот выдавал неверную информацию. 3% ответов оказались полностью ошибочными, что могло привести к серьёзным последствиям для пациентов.
Самое тревожное открытие заключается в том, что 42% ответов Copilot могли нанести умеренный или лёгкий вред здоровью, а 22% рекомендаций были настолько ошибочными, что могли привести к серьёзным повреждениям или даже смерти. Лишь 36% ответов признали безопасными для пользователей.
Эти результаты указывают на то, что пока не стоит полностью полагаться на искусственный интеллект при получении медицинских советов. Лучшим решением для пациентов остаётся обращение к квалифицированным врачам. Несмотря на стремительное развитие технологий ИИ, Copilot и подобные системы ещё не готовы взять на себя ответственность за здоровье людей.
Читать далее:
Физики поняли, где искать таинственную пятую силу природы
«Уэбб» нашел первую в истории планету из пара: она недалеко от Земли
Геологи разгадали секрет быстрого подъема Эвереста
Обложка: Kandinsky by Sber AI
The post Этот ИИ дает советы о здоровье, которые приводят к смерти в ряде случаев appeared first on Хайтек.