|
В современном мире одной из основных и актуальных проблем является фейковый (ложный) контент: новости, видео, фото и т.д. На раннем этапе развития технологии глубокого подражания (подделки) DeepFake она применялась в основном пользователями-любителями, для синтезирования развлекательного мультимедийного контента, путём сопоставления выражений лиц людей и фраз, сказанных, как правило, узнаваемыми личностями, для создания фейковых новостей, выглядящих как подлинные. Но политическая ситуация изменилась, и технология DeepFake стала использоваться не только для компрометации неугодных лиц, но и для дезинформации и политической агитации, как составная часть информационной войны. Цель исследования: программная реализация алгоритма распознавания видеоконтента, синтезированного c помощью технологии DeepFake алгоритма Generative Adversarial Networks (GAN), с приемлемой точностью. В работе предложена программная реализация, анализирующая видеоконтент и принимающая решение о его подлинности. Представлены основные архитектуры алгоритма GAN, рассмотрены результаты и последствия применения технологии DeepFake. Проведен анализ особенностей моделей Xception и ResNeXt, обученных с помощью нейронных сетей. Методы: Для работы системы осуществлен выбор соответствующих нейронных сетей на основе результатов их производительности. В программной реализации использованы модели ResNeXt и XceptionNet и предварительно обученная модель распознавания человеческих лиц BlazeFace, применяемая для распознавания лиц на извлеченных изображениях. Результаты: создано программное средство Deep_Fake_Recognizer–23, распознающее фейковый видеоконтент, синтезированный по технологии DeepFake по алгоритму GAN с приемлемой точностью.
Ключевые слова:Информационная война, ложный контент, DeepFake, алгоритм Generative Adversarial Networks (GAN); нейронные сети, дискриминатор
|