Опубликовано 19 сентября 2024, 21:08
1 мин.

Исследование MIT показало проблемы с точностью ИИ в видеонаблюдении

Они рекомендует вызов полиции даже без признаков преступлений
Новое исследование Массачусетского технологического института (MIT) и Университета штата Пенсильвания выявило проблемы в использовании больших языковых моделей (LLM) для домашнего видеонаблюдения. Модели могут рекомендовать вызов полиции даже в случаях, когда видео не показывает преступной активности.
Исследование MIT показало проблемы с точностью ИИ в видеонаблюдении

© Ferra.ru

Изученные модели показали непоследовательность в том, какие видео они отмечают для вмешательства полиции. Например, одно видео с угоном автомобиля может быть отмечено, а другое с аналогичной активностью нет.

Ученые обнаружили, что модели часто неадекватно применяют социальные нормы к видеозаписям, что затрудняет прогнозирование их поведения в различных контекстах. Это также демонстрирует проблемы с прозрачностью и объяснимостью моделей, поскольку они могут проявлять неожиданные предвзятости, основанные на демографических данных.