Ученые нашли способ обмануть программу для выявления Deepfake

Новости

Системы, предназначенные для обнаружения дипфейков — видео, которые манипулируют реальными кадрами с помощью искусственного интеллекта — могут быть обмануты, как впервые показали компьютерные ученые на конференции WACV 2021, которая проходила онлайн с 5 по 9 января 2021 года.

Исследователи показали, что детекторы можно обойти, вставляя входные данные, называемые состязательными примерами, в каждый видеокадр. Состязательные примеры — это слегка измененные входные данные, которые заставляют системы искусственного интеллекта , такие как модели машинного обучения, допускать ошибку. Кроме того, команда показала, что атака все еще работает после сжатия видео.

В дипфейках лицо объекта модифицируется, чтобы создать убедительно реалистичные кадры событий, которых на самом деле никогда не было. В результате типичные детекторы дипфейков фокусируются на лице в видеороликах: сначала отслеживают его, а затем передают данные обрезанного лица в нейронную сеть, которая определяет, настоящее оно или поддельное. Например, моргание не воспроизводится в дипфейках, поэтому детекторы фокусируются на движениях глаз как на одном из способов сделать это определение. Современные детекторы Deepfake полагаются на модели машинного обучения для выявления поддельных видео.

Исследователи отмечают, что широкое распространение поддельных видеороликов через платформы социальных сетей вызвало серьезную обеспокоенность во всем мире, особенно подрывая доверие к цифровым медиа. «Если злоумышленники имеют некоторое представление о системе обнаружения, они могут разработать входные данные для нацеливания на слепые зоны детектора и их обхода», — сказал Паарт Нихара, второй первый соавтор статьи и студент компьютерных наук Калифорнийского университета в Сан-Диего.

Газета «DAILY» — Новости России и мира