В РФ предложили ввести уголовную ответственность за дипфейки. Наказывать смогут за подмену голоса или изображения человека, сообщают СМИ
Сейчас расскажем, почему это важно и как обезопасить себя.
▫️Дипфейк – это метод создания контента, использующий технологии машинного обучения (Machine Learning, ML) и глубинного обучения (Deep Learning, DL), в результате работы которых мы получаем искусственно сгенерированное изображение, видео или аудио, которые легко спутать с реальными.
▫️В основном фото- и видео-дипфейки сгенерированы алгоритмом GAN, или генеративно-состязательной сетью, когда одна часть сети генерирует фото и видео, а вторая старается определить природу возникновения контента.
Процесс продолжается до тех пор, пока вторая часть, дискриминационная, не станет окончательно путать подделку и оригинал.
▫️Аудио-дипфейки, в свою очередь, в основном создаются алгоритмом преобразования текста в речь (Text-To-Speech, TTS), когда в качестве входных данных генератору дается текст и голос цели.
▫️Дипфейки могут быть использованы для создания развлекательного контента, высококачественных рекламных материалов, привлекательных видеороликов и интерактивных презентаций, в фильмах, видеоиграх для впечатляющих спецэффектов.
▫️Список можно продолжать долго, но дипфейки стали все чаще использоваться в мошеннических целях.
▫️Согласно статистике, предоставленной Sumsub, в период с 2022 по первый квартал 2023 года в США и Канаде наблюдался значительный рост случаев мошенничества с личными данными. Частота случаев такого мошенничества в США подскочила с 0,2% до 2,6%, а в Канаде - с 0,1% до 4,6%.
▫️Согласно исследованию deepfake statistics, проведенному компанией Deeptrace AI (теперь Sensity AI), 98% видео-дипфейков - порнография.
▫️Все чаще мы в новостях слышим о ситуациях, когда сотрудникам звонят их руководители и просят перевести внушающую сумму по какому-то счету, и в итоге та самая сумма оказывается на счетах злоумышленников.
▫️В одном случае британская энергетическая компания перевела 243 000 долларов на мошеннический счет с помощью голосового клона генерального директора немецкой материнской компании.
▫️Согласно DeepMedia, в 2023 в соцсетях было распространено около 500,000 видео- и аудио-дипфейков.
На что обратить внимание, если возникли подозрения?
▫️В случае фото рассмотрите форму зрачков: зрачки настоящих глаз имеют четкую круглую или эллиптическую форму, а тех, что сгенерированы нейросетями — неправильную.
▫️Так же изображение, на которое мы смотрим, всегда отражается на роговице. Причем отражения в обоих глазах идентичны по форме и цвету. Дипфейки не в силах идеально воспроизвести эту особенность человеческих глаз, поэтому на поддельных фото и видео можно заметить отличия.
▫️На видео следует обратить внимание на такие детали, как синхронность моргания и движений глаз, соотнести предполагаемый возраст человека на видео с качеством его кожи: не слишком ли она гладкая или, наоборот, морщинистая. Присмотритесь к тому, как свет падает на лицо, соответствуют ли блики и тени общему световому оформлению, если ли странные затемненные участки? В целом, любые несоответствия могут указывать на то, что перед вами дипфейк.
▫️В случае аудио бывает тяжелее самостоятельно определить, были ли проведены какие-либо манипуляции, но такие признаки, как роботизированность речи, неестественность интонаций и отсутствие слов паразитов могут указывать на то, что запись сгенерирована. Если вам звонят, и вы сомневаетесь в личности собеседника, свяжитесь с ним по другому каналу связи.
Мы должны быть более разборчивыми в отношении онлайн-контента, подвергать сомнению подозрительные источники информации и искать признаки манипулирования для защиты от мошенничества.
Автор: Ольга Кострова – МГЛУ Институт информационных наук (Информационная безопасность)
