Эксперты, исследующие достижения в области искусственного интеллекта, предупреждают, что модели ИИ могут создать улучшенные патогены и стать причиной крупной эпидемии или даже пандемии. Об этом 28 августа заявило издание Fox News.
«Мы предлагаем правительствам законодательно установить обязательные правила, которые не позволят продвинутым моделям ИИ, занятым в сфере биологии, вносить существенный вклад в то, что может вызвать крупномасштабные опасности, такие как создание новых или усовершенствованных патогенов, которые смогут вызвать крупные эпидемии или даже пандемии», — цитирует издание ученых.
По мнению исследователей, современные ИИ близки к способности придумать новые способы модифицировать известные патогены. Поясняется, что биологическая модель, способная разработать безвредный вирусный вектор для доставки генной терапии, может быть использована для разработки более патогенного вируса, способного уклоняться от иммунитета, вызванного вакциной.
Риск возникновения подобной ситуации может возникнуть в течение ближайших 20 лет, добавили специалисты.
Ранее, 2 августа, агентство Bloomberg сообщило, что чат-боты с искусственным интеллектом в состоянии помочь пользователям создать биологическое оружие. До этого, в мае 2023 года, британский ученый Стюарт Рассел заявил, что появление и развитие ИИ может грозить человечеству катастрофой. По словам ученого, бесконтрольные разработки в области ИИ привели к такому прогрессу, которого исследователи даже не ожидали.