Группа исследователей продемонстрировала новый способ кражи моделей искусственного интеллекта (ИИ), который не требует взлома устройства, на котором работает модель. Это становится возможным даже при отсутствии предварительных знаний о программном обеспечении или архитектуре ИИ.
Авторы работы из Университета штата Северная Каролина объясняют, что кража ИИ-моделей представляет серьезную угрозу, поскольку такие модели требуют значительных вычислительных ресурсов для создания, а их утечка делает их уязвимыми для атак. Это не только нарушает интеллектуальную собственность, но и может раскрывать чувствительные данные, встроенные в поведение модели.
В исследовании использовалась коммерчески доступная микросхема Google Edge TPU, предназначенная для работы ИИ-моделей на устройствах, используемых конечными пользователями. Ученые применили метод мониторинга электромагнитных сигналов, установив датчик на чипе TPU, который предоставлял данные о поведении модели ИИ в реальном времени.
Используя эти данные, исследователи смогли воспроизвести архитектуру модели и даже воссоздать ее с точностью 99,91%. Это подчеркивает уязвимость современных ИИ-систем, работающих на различных устройствах, и ставит перед разработчиками задачу создания эффективных мер защиты.
Теперь, после демонстрации уязвимости, ученые планируют разработать контрмеры для защиты ИИ-моделей от подобных атак.