январь 21, 2025
Один из относительно новых видов мошенничества – дипфейки. Это подделывание голоса или изображения в сети для того, чтобы выдать себя за другого человека. О том, как их распознать, рассказал Павел Ладыгин, старший преподаватель кафедры информационной безопасности института цифровых технологий, электроники и физики АлтГУ.
Телефонные мошенники умеют убедить.
unsplash.com
Ранее altapress.ru о различных мошеннических схемах, например как злоумышленники звонили жертвам и представлялись родственниками, которым срочно нужна большая сумма денег. История могла звучать так: «Мама, меня похитили, я звоню с чужого телефона, срочно переведи по этому номеру деньги, иначе меня не отпустят».
В такой ситуации можно понять по голосу, что это не ваш родственник или знакомый, но дипфейки решили эту «проблему». На основе анализа аудио, нейросети способны создавать записи высокого качества, которые практически неотличимы от голоса реального человека. Но хуже всего то, что при необходимости мошенники могут сгенерировать и видео с лицом вашего знакомого.
Зачастую дипфейки используются для создания фотографий и видео для шантажа, когда лицо человека накладывается на чужое изображение. Так же, их применяют при взломе страничек в соцсетях, ведь если ваш знакомый попросит денег не текстом, а именно аудио-сообщением, это укрепит вашу уверенность, что аккаунт не в руках мошенников. По поводу видео дипфейков старший преподаватель говорит:
В большинстве случаев дипфейки используются в области их предназначения - в киноиндустрии. Лично мне не удается понять, что в кадре было нарисовано, а что было настоящей декорацией, снимался тот или иной актер в фильме действительно или одно лицо наложили на другое. Там используются серьезные вычислительные мощности, которые позволяют создавать картинку и звук высочайшего качества.
При этом если речь идет о кустарном производстве, как в случае с мошенничеством, Павел отмечает несколько моментов, которые помогут отличить дипфейк от настоящего видео или аудио:
Также существуют специальные программы распознавания дипфейков. Например, Forensically, Image Edited, Ghiro, Truepic и другие.
Павел отметил, что у людей, работающих с безопасностью в сети, есть некая профдеформация, которая заставляет подвергать сомнению все, что они видят на экранах устройств. И абсолютно не важно, как именно вы общаетесь с собеседником: текстом, аудио-сообщениями или «кружочками» (видео).
Каждый раз, когда наступает момент обсуждать финансовые или конфиденциальные вопросы, старший преподаватель советует переходить на личные встречи без использования гаджетов. А для тех, у кого такой возможности нет, Павел поделился лайфхаком, который всегда его выручает:
Нужно задавать тестовые вопросы. Когда моя жена с помощью текста или голосового сообщения в мессенджере просит сбросить ей деньги, я всегда спрашиваю, что мы ели вчера на ужин или что смотрели по ТВ. Мне не важно, выгляжу ли я странным при этом в ее глазах. Любую информацию, которая нам видна с экранов гаджетов, нужно подвергать сомнению, хоть дипфейк, хоть то, что вы только что прочитали.
Как говорит Павел, технологии развиваются настолько стремительно, что прямо сейчас, пока выходит эта статья, к запуску может готовиться новая нейросеть, которая сможет подделывать лица и голоса в еще лучшем качестве.