Определение фейковых фото: нейросети против нейросетей

 
36 просмотров
Определение фейковых фото: нейросети против нейросетей

Ученым из Калифорнийского университета удалось обучить нейронную сеть определять фотографии-подделки. В обучении использовался большой массив фотографий, часть из которых была отредактирована. Исследователи предварительно промаркировали каждую. Система акцентирует внимание на границы объектов, по которым обычно и можно определить подделку. Человеку это часто не под силу, а вот нейросеть с задачей справляется крайне успешно. В работе сети использованы алгоритмы, моделирующие человеческий мозг. Это позволяет находить закономерности в массиве данных.

На текущем этапе разработки система способна работать лишь с фото, но спустя некоторое время появится возможность проводить анализ видео.

И всё же, полностью полагаться на новый инструмент не стоит. Хоть он и доказал свою эффективность, но всё еще не дает 100% результат. Наиболее вероятным способом использования технологии является отслеживание подозрительных фото и дальнейшая их оценка экспертами людьми.



«Если вы хотите проверить достоверность всего, что есть в интернете, особенно с появлением deepfake-видео, то вы не справитесь с этим. Автоматизированная система же, вероятно, справится с этим более надежно. Так что это должна быть совместная работа человека и машины», — комментируют создатели инструмента.

Почему это так важно?

В последние несколько лет разработки в области нейронных сетей то тут, то там попадают на заголовки различных изданий. Нейросети делают прогнозы, пишут музыку, “воскрешают” знаменитостей в фильмах помогают человеку во множестве видов деятельности. Но, конечно же, любое изобретение может быть использовано во зло.

В 2017 году огромную популярность получили Deepfake фото и видео. Скачав необходимый софт любой, желающий мог приобщиться к технологии и обучить нейронную сеть, для замены лиц на фотографиях и видеороликах. Возможности для различного рода вредительства просто невозможно переоценить. Нейросеть может делать достаточно качественные фейки, которых и так неимоверно много в интернете и СМИ, становясь серьезной угрозой репутации различных известных людей и простых граждан. Не говоря уже о том, что при первой возможности в сеть хлынули терабайты порно со знаменитостями.

Очевидно, что появление такой технологии не прошло мимо администрации сетевых ресурсов и законодателей различных стран. Сайт Reddit, где был выложен изначальный алгоритм, и на котором, по сути, началась “эпидемия” распространения DeepFake-порно довольно оперативно установил запрет на фейковые видео. То же касается и PornHub.

Власти США так же обратили внимание на проблему. В штате Вирджиния запрещена публикация любого фейкового видео без согласия владельца лица. В Вашингтоне DeepFake запрещен лишь в политических целях. Порноместь, то есть размещение порнографического контента с участием человека, без его согласия, запрещена в 41 штате.

В российском законодательстве таких поправок не было, но “порноместь” предполагает срок до двух лет или 200 000 рублей штрафа. Всё потому, что она нарушает право на неприкосновенность личной жизни, даже если видео – фейк.

0 комментариев

Комментариев пока нет, будьте первым.

Добавить комментарий

наверх