Ученые показали, что работу систем искусственного интеллекта можно анализировать на расстоянии без прямого доступа к устройству, используя улавливание побочных сигналов.
Система ModelSpy улавливает слабые электромагнитные сигналы, возникающие при работе графических процессоров (GPU), и на их основе восстанавливает архитектуру ИИ-модели, включая ее слои и параметры. Метод не требует взлома системы или установки вредоносного программного обеспечения.
В ходе экспериментов ученые протестировали технологию на пяти современных GPU и установили, что она позволяет с высокой точностью определять структуру модели даже через стену или на расстоянии до шести метров. Точность оценки ключевых элементов, таких как слои нейросети, достигла 97,6%.
По словам авторов, для проведения атаки достаточно компактной антенны, которую можно скрыть, например, в сумке, что делает технологию потенциально опасной для защиты интеллектуальной собственности. Подобный подход может привести к утечке ценных ИИ-разработок, поэтому ученые меры защиты, включая искажение электромагнитных сигналов и усложнение вычислений.
Разработку представила международная группа ученых во главе с исследователями из Корейского института передовых технологий (KAIST) совместно с коллегами из Национального университета Сингапура и Чжэцзянского университета. Исследование презентовали на конференции NDSS 2026, где оно получило награду за лучшую научную работу.




