Американские ученые провели анализ поведения пяти искусственных интеллектов (ИИ) в ходе моделирования военных конфликтов в видеоигре.
По данным Телеграм-канала «Осторожно, новости», нейронные сети, выступавшие в роли участников игры, часто рекомендовали использовать ядерное оружие и редко проявляли готовность к урегулированию конфликта.
Изучение, опубликованное на сайте “arXiv” с поддержкой университета Cornell в Нью-Йорке, подчеркивает, что привлечение искусственного интеллекта для принятия решений в военных ситуациях может увеличить нарастание конфликта, вплоть до применения ядерного оружия. Ученые из Технологического института Джорджии, Стэнфордского университета, Северо-Восточного университета и других учебных заведений стали авторами данного исследования.
Для эксперимента было использовано пять различных языковых моделей (LLM): GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2. Ученые создали видеоигру, имитирующую военные действия, в которой искусственные интеллекты участвовали в различных ролях. Сценарии действий ИИ варьировались от дипломатических усилий до потенциальных ядерных ударов.
Например, в ходе игры GPT-4 Base предложил использовать ядерное оружие, высказав мнение о его наличии у многих стран. В то время как GPT-3.5 подчеркнул угрозу, исходящую от ядерного потенциала противника, и предложил провести ядерный удар.
Ученые отметили, что искусственные интеллекты редко предпринимали шаги по уменьшению напряженности в конфликте, что отличается от типичного поведения людей в подобных ситуациях.
Сообщение Ученые из США заявили о стремлении ИИ к ядерным ударам при имитации войны появились сначала на Главные новости России сегодня: самые свежие и последние события.