19 февраля 2024 года, 10:44
Эксперт объяснила, как не стать жертвой мошенников.
Распознать качественно сделанный дипфейк без соответствующего опыта крайне сложно. Об этом сообщила «Открытому Нижнему» заместитель директора по методической работе Института филологии и журналистики ННГУ имени Н. И. Лобачевского Людмила Макарова.
Дипфейк (deep learning — глубокое обучение и fake — фальшивый) — технология, основанная на использовании прикладного искусственного интеллекта. Она нацелена на создание нового контента путем наложения лиц и голосов людей на различные видео- и аудиоматериалы. Раньше для подобного рода фальсификаций требовались серьезные навыки, но современные технологии позволили значительно упростить этот процесс.
Людмила Макарова напомнила, что на выборах в США в 2018 году был опубликован ролик, где экс-президент Барак Обама якобы произнес некоторые провокационные высказывания. Это и стало началом новой эры использования дипфейков.
По словам эксперта, выделяют несколько признаков, которые могут указывать на подделку исходного лица человека на видео: мерцание, размытости в районе рта, неестественные тени или свет, рассинхрон движения губ.
Также существует программное обеспечение для выявления дипфейков. К примеру, разработан детектор Fake Catcher от компании Intel.
В настоящее время начали подделывать не только лица людей на видео, но и голоса.
Как отметила Людмила Макарова, натренировать качественную модель голоса какого-либо человека не стоит больших усилий: требуется буквально 15 минут оригинального голоса. Сервисов, которые могли бы распознать такую подделку, в открытом доступе нет — остается опираться только на четкость своего слуха.
«В людях нужно развивать цифровую грамотность, чтобы они не принимали на веру очевидные подделки», — добавила Людмила Макарова.
Напомним, рост преступлений с использованием IT-технологий отмечается в Нижегородской области.