Отслеживание глаз в VR-шлеме Apple Vision Pro научились «взламывать»
Что может рассказать эта функцияИсследователи, поделившиеся своими результатами с WIRED, продемонстрировали, как движения глаз могут быть проанализированы для восстановления набранной информации. Наблюдая за движениями глаз виртуального аватара во время набора текста, они смогли определить, какие клавиши были нажаты, с впечатляющей точностью. В ходе испытаний атака GAZEploit достигла 77% точности в предсказании паролей и 92% точности в расшифровке сообщений, причем для этого не требовался прямой доступ к Vision Pro пользователя.
Атака основана на двух основных компонентах: идентификации поведения при наборе текста по модели взгляда аватара и вычислении раскладки и размера виртуальной клавиатуры с помощью геометрического анализа. Команда использовала рекуррентную нейронную сеть, обученную на 30 аватарах, для обнаружения моделей набора текста, которые отличаются от других действий, таких как просмотр веб-страниц или видео.
Apple была предупреждена об этой уязвимости в апреле, а к концу июля был выпущен патч, устраняющий проблему.