• Главная
  • Новости
  • В РФ предложили ввести уголовную ответственность за дипфейки. Наказывать смогут за подмену голоса или изображения человека, сообщают СМИ
В РФ предложили ввести уголовную ответственность за дипфейки. Наказывать смогут за подмену голоса или изображения человека, сообщают СМИ
Хаб Кибербезопасности
+ 7 495 956 00 33

В РФ предложили ввести уголовную ответственность за дипфейки. Наказывать смогут за подмену голоса или изображения человека, сообщают СМИ

30.05.2024
в РФ предложили ввести уголовную ответственность за дипфейки. Наказывать смогут за подмену голоса или изображения человека, сообщают СМИ - фото - 1

Сейчас расскажем, почему это важно и как обезопасить себя.

▫️Дипфейк – это метод создания контента, использующий технологии машинного обучения (Machine Learning, ML) и глубинного обучения (Deep Learning, DL), в результате работы которых мы получаем искусственно сгенерированное изображение, видео или аудио, которые легко спутать с реальными.

▫️В основном фото- и видео-дипфейки сгенерированы алгоритмом GAN, или генеративно-состязательной сетью, когда одна часть сети генерирует фото и видео, а вторая старается определить природу возникновения контента.

Процесс продолжается до тех пор, пока вторая часть, дискриминационная, не станет окончательно путать подделку и оригинал.

▫️Аудио-дипфейки, в свою очередь, в основном создаются алгоритмом преобразования текста в речь (Text-To-Speech, TTS), когда в качестве входных данных генератору дается текст и голос цели.

▫️Дипфейки могут быть использованы для создания развлекательного контента, высококачественных рекламных материалов, привлекательных видеороликов и интерактивных презентаций, в фильмах, видеоиграх для впечатляющих спецэффектов.

▫️Список можно продолжать долго, но дипфейки стали все чаще использоваться в мошеннических целях.

▫️Согласно статистике, предоставленной Sumsub, в период с 2022 по первый квартал 2023 года в США и Канаде наблюдался значительный рост случаев мошенничества с личными данными. Частота случаев такого мошенничества в США подскочила с 0,2% до 2,6%, а в Канаде - с 0,1% до 4,6%.

▫️Согласно исследованию deepfake statistics, проведенному компанией Deeptrace AI (теперь Sensity AI), 98% видео-дипфейков - порнография.

▫️Все чаще мы в новостях слышим о ситуациях, когда сотрудникам звонят их руководители и просят перевести внушающую сумму по какому-то счету, и в итоге та самая сумма оказывается на счетах злоумышленников.

▫️В одном случае британская энергетическая компания перевела 243 000 долларов на мошеннический счет с помощью голосового клона генерального директора немецкой материнской компании.

▫️Согласно DeepMedia, в 2023 в соцсетях было распространено около 500,000 видео- и аудио-дипфейков.

На что обратить внимание, если возникли подозрения?

▫️В случае фото рассмотрите форму зрачков: зрачки настоящих глаз имеют четкую круглую или эллиптическую форму, а тех, что сгенерированы нейросетями — неправильную.

▫️Так же изображение, на которое мы смотрим, всегда отражается на роговице. Причем отражения в обоих глазах идентичны по форме и цвету. Дипфейки не в силах идеально воспроизвести эту особенность человеческих глаз, поэтому на поддельных фото и видео можно заметить отличия.

▫️На видео следует обратить внимание на такие детали, как синхронность моргания и движений глаз, соотнести предполагаемый возраст человека на видео с качеством его кожи: не слишком ли она гладкая или, наоборот, морщинистая. Присмотритесь к тому, как свет падает на лицо, соответствуют ли блики и тени общему световому оформлению, если ли странные затемненные участки? В целом, любые несоответствия могут указывать на то, что перед вами дипфейк.

▫️В случае аудио бывает тяжелее самостоятельно определить, были ли проведены какие-либо манипуляции, но такие признаки, как роботизированность речи, неестественность интонаций и отсутствие слов паразитов могут указывать на то, что запись сгенерирована. Если вам звонят, и вы сомневаетесь в личности собеседника, свяжитесь с ним по другому каналу связи.

Мы должны быть более разборчивыми в отношении онлайн-контента, подвергать сомнению подозрительные источники информации и искать признаки манипулирования для защиты от мошенничества.

Автор: Ольга Кострова – МГЛУ Институт информационных наук (Информационная безопасность)