В Пентагоне создана оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» войдёт в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавит член управления алгоритмической войны CDAO капитан Ксавьер Луго.
Как заявили в Минобороны США созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность».
«Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс.
«Хотя технология генеративного искусственного интеллекта не является новой, популярность генеративного искусственного интеллекта за последние несколько месяцев резко возросла в технологическом пространстве из-за его применения в таких проектах, как ChatGPT. Эта технология обучена на огромных наборах данных и может генерировать аудио, текст, изображения и другие типы контента. Сейчас министерство обороны ищет способы использования генеративного искусственного интеллекта для сбора разведывательной информации и будущих военных действий. Но хотя эта технология может предложить новые возможности для министерства обороны, министерство также должно учитывать риски, которым технология может его подвергнуть», – отмечает военный портал Breaking Defence.
В июне министр ВВС США Фрэнк Кендалл объявил, что попросил научно-консультативный совет ВВС изучить потенциальное воздействие технологии ChatGPT. «Я попросил свой научно-консультативный совет сделать с ИИ две вещи. Взглянуть на генеративные технологии искусственного интеллекта, такие как ChatGPT, и подумать об их военном применении, и собрать небольшую команду, чтобы сделать это довольно быстро», – сказал Кендалл.
Генеративный ИИ относится к категории алгоритмов ИИ, генерирующих новые результаты на основе данных, на которых они были обучены, чем они и отличаются от гораздо более простых алгоритмов машинного обучения, которые просто берут структурированные данные и выдают наиболее вероятный статистический результат. Публичные инструменты генеративного ИИ включают в себя так называемые большие языковые модели типа ChatGPT, которые могут сгенерировать новый текст, практически неотличимый от написанного человеком. Эти модели уже используются для написания эссе, бизнес-планов и даже научных статей.
«Но эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют», – отмечает известный военный обозреватель Патрик Такер.
Объяснять, чем чреваты галлюцинации ИИ в случае его применения в военных целях, нет необходимости.
Один из пионеров этого направления Джеффри Хинтон в мае этого года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с генеративным искусственным интеллектом.
«В 2012 году доктор Хинтон и двое его аспирантов из университета Торонто создали технологию, которая стала интеллектуальной основой для создания искусственного интеллекта – системы, которую крупнейшие компании технологической отрасли считают ключом к их будущему. Однако… он официально присоединился к растущему хору критиков, которые говорят, что эти компании приближаются к опасной черте со своей агрессивной кампанией по созданию продуктов, основанных на генеративном искусственном интеллекте, технологии, которая лежит в основе популярных чат-ботов, таких как ChatGPT», – сообщила The New York Times.
«Трудно понять, как вы можете помешать плохим парням использовать его [генеративный ИИ] для плохих целей», – указывает Хинтон, подчёркивая, что генеративный ИИ может способствовать распространению дезинформации, сокращению рабочих мест и даже представлять угрозу человечеству в долгосрочной перспективе.
Хинтон считает, что по мере того, как системы ИИ становятся более мощными, растёт и связанный с ними риск. «Посмотрите, как это было пять лет назад и как сейчас, – отмечает он. – Возьмите разницу и распространите её в будущее. Это страшно».
Хинтон особо беспокоится о разработках автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении, и о том, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией.
Джеффри Хинтон рассказал, что когда его спрашивали, как может он работать над потенциально опасной технологией, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: «Когда вы видите что-то технически приятное, вы идёте и делаете это».
«Он больше так не думает», – отметила The New York Times.
Между тем в США делают ставку на генеративный ИИ как на потенциальную революцию в военном деле и «мультипликатор силы».
«Генеративный ИИ обещает полностью изменить геополитику войны и сдерживания. Это будет делаться способами, которые могут даже стать экзистенциальной угрозой», – пишет колумнист Foreign Policy Майкл Хёрш.
«Программное обеспечение, управляемое искусственным интеллектом, может заставить крупные державы сократить окно принятия решений до минут, а не часов или дней. Они могут слишком сильно зависеть от стратегических и тактических оценок ИИ, даже когда дело доходит до ядерной войны. Опасность, по словам Герберта Лина из Стэнфордского университета, заключается в том, что лица, принимающие решения, могут постепенно полагаться на новый ИИ как на часть командования и контроля над вооружением, поскольку он действует на гораздо более высоких скоростях, чем люди».
Учитывая склонность ИИ к преувеличениям [то есть к упомянутым выше галлюцинациям], когда люди начинают верить, что машины думают, они с большей вероятностью будут делать сумасшедшие вещи», – отмечает Герберт Лин.
В недавно опубликованной книге «ИИ и бомба» (AI and the Bomb: Nuclear Strategy and Risk in the Digital Age) аналитик Абердинского университета Джеймс Джонсон описывает случайно возникшую ядерную войну в Восточно-Китайском море в 2025 году, спровоцированную ИИ-разведкой как с американской, так и с китайской стороны, с усилиями автономных ботов, поддержкой ИИ, дипфейками и операциями под ложным флагом».
В отчёте, опубликованном в начале февраля 2023 года американской Ассоциацией по контролю над вооружениями, говорится, что искусственный интеллект может привести к «стиранию различия между обычным и ядерным нападением». В докладе также говорится, что борьба за «использование новых технологий в военных целях ускорилась гораздо быстрее, чем попытки оценить опасности, которые они представляют, и установить ограничения на их использование».
«В январе этого года министерство обороны обновило свою директиву по системам вооружения, в которых используется искусственный интеллект, заявив, что при разработке и развертывании автономных систем вооружения необходимо использовать хотя бы некоторую человеческую оценку», – отмечает Майкл Хёрш, добавляя, что, «возможно, они идут по скользкой дорожке».
Выдающийся российский ученый профессор МГУ им. М.В. Ломоносова Сергей Павлович Расторгуев в написанной в 1965 году монографии «Цель как криптограмма. Криптоанализ синтетических целей» указал: «На сегодняшний день для мира компьютерных программ обретение самостоятельности стало свершившимся фактом». По мере усложнения программного продукта «системное программное обеспечение начинает жить своей жизнью, находя цель в себе самом», – отмечает российский ученый, сравнивая обретающие самостоятельность компьютерные комплексы со средневековым Големом, который, как известно, убил своего создателя.
То, что Расторгуев называл самостоятельностью компьютерных программ, современные американские аналитики применительно к генеративному ИИ, называют «галлюцинациями», что, впрочем, мало утешает. И спустя почти три десятка лет очевидно, что генеративный ИИ, особенно применённый в военных целях, настолько сложен, что его гипотетическая самостоятельность пугает даже его наиболее совестливых разработчиков, таких как Джеффри Хинтон.
Тем не менее Пентагон идёт по пути создания очередного «абсолютного оружия», на этот раз в сфере искусственного интеллекта, мало задумываясь о грозящих всему человечеству опасностях, которые несёт создаваемый в недрах секретных военных лабораторий компьютерный Голем.