Дипфейки в новой цифровой реальности: как распознать и не поддаться

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
29.223
Репутация
11.695
Реакции
61.957
RUB
50

Дипфейк – это искусственная генерация изображения и звука, для которой нужны исходные данные человека, чей образ пытаются создать мошенники.


Во многих соцсетях контент по умолчанию находится в свободном доступе, что облегчает работу преступникам. Закрытые аккаунты тоже не становятся препятствием, их “угоняют” или взламывают с помощью социальной инженерии. С развитием искусственного интеллекта тренд на дипфейки в фишинговых атаках усилится, уверены эксперты.

ris1-Aug-01-2024-04-06-55-7634-PM

Реклама – двигатель дипфейков

В 2022 г. в мессенджерах, соцсетях и на комьюнити-площадках сформировался и до сих пор не сбавляет обороты еще один киберкриминальный тренд – сбор аудиоданных под видом приглашения на озвучку рекламы и фильмов.

В 2022 г. в российском онлайн-сегменте зафиксировано почти 5 тыс. таких сообщений, а в прошлом году эта цифра выросла до 7 тыс. Обычно в таком объявлении предлагается заработать на большом медиапроекте, сумма гонорара варьируется в пределах от 0,3 до 5 тыс. руб., но особенно насторожить потенциальную жертву должно главное условие: от нее требуется аудиофайл, похожий на телефонный звонок.

Дело в том, что речь человека сильно меняется в зависимости от ситуации: монолог на камеру в прямом эфире, живой разговор с другом и телефонная беседа очень различаются по интонации и тембру, поэтому преступники стараются сразу получить самый удобный для генерации звука вариант – имитацию телефонного звонка.

Аудиофайлы в сочетании с персональными данными владельца голоса создают новое Орудие социальной инженерии – аудио- и видеофейки, которые затем используются для фишинговых атак.

Фейковые боссы

В 2024 г. в России стали распространяться мошеннические схемы с использованием дипфейков. На этот раз в зоне риска оказались любители голосовых сообщений: дипфейк генерируется злоумышленниками с помощью образцов речи владельца взломанного аккаунта в Telegram или другом мессенджере.

Подобную технику применили в атаке на одну из российских компаний в январе 2024 г.: от имени владельца взломанного аккаунта мошенники разослали сгенерированные голосовые сообщения людям, которые находились с ним в одних чатах.

В международной практике такие кейсы тоже уже не редкость: преступники имитируют присутствие человека на видеоконференцсвязи и от его имени убеждают сотрудника перевести крупную сумму.

В России также широко распространился преступный кейс "фейковый руководитель". В этой схеме мошенники используют фейковый аккаунт главы организации, связываются с ее сотрудниками и просят перевести деньги. Разумеется, дипфейки в такой схеме в разы усиливают эффект.

Защита от дипфейков: уголовная ответственность или собственная бдительность?

Киберпреступники достаточно быстро внедряют дипфейки в новые и новые схемы мошенничества. Если в 2019 г. примерно 96% дипфейков были связаны с эротическим контентом, то сегодня дипфейки говорят голосом известных людей, пишут песни от имени популярных исполнителей и собирают у поклонников деньги якобы на новый альбом. Способность искусственного интеллекта имитировать реальный голос человека – это риск совершенно нового порядка, с которым столкнулось общество.

Со стороны финансового сектора банки усиливают защиту и проверку клиентов: при звонках сотрудники стараются задавать больше вопросов, чтобы точно идентифицировать клиента. В России также планируют рассмотреть законопроект об уголовной ответственности за использование технологии дипфейков в преступных целях. Его авторы предлагают установить наказание в виде штрафов вплоть до 1,5 млн руб. либо лишения свободы сроком до 7 лет, в зависимости от тяжести совершенного преступления.

Для борьбы с дипфейками разрабатываются технологические инструменты. Например, отечественная система мониторинга аудиовизуального контента.

"Зефир" для выявления дипфейка использует самостоятельно обученную модель, а для поиска лица – модель Retina Face Onxx. Лучшим вариантом защиты от угрозы генеративного ИИ становится другой ИИ.

Рекомендации в заключение

Противодействие дипфейкам теперь становится частью киберграмотности. Каждый современный человек должен владеть этим навыком.

Вот несколько приемов, которые помогут распознать потенциальный сгенерированный ИИ образ:
  1. Если вы общаетесь по видеосвязи, обращайте внимание на освещенность лица, его четкость и мимику: размытое изображение, нечеткие границы лица, странные тени, застывшая мимика или неестественный оттенок кожи могут говорить не о плохом качестве связи, а о дипфейке. Если ваш собеседник спокойно вертит головой, прикасается к лицу или пьет из чашки во время разговора – скорее всего, все в порядке, такие детали мошенникам пока не под силу.

  2. В аудиозвонке распознать подделку пока сложнее, но должно насторожить отсутствие эмоций и монотонность, незнакомые интонации. В случае любого подозрительного контакта стоит прервать сеанс связи и самостоятельно связаться с тем, кого вы считаете собеседником.
Нужно принять факт, что дипфейки с нами надолго. Это новая угроза в кибербезопасности, которая будет только совершенствоваться. Рынок, финансовые системы и экспертиза кибербезопасности будут, со своей стороны, адаптироваться и подбирать методы противодействия. А в компаниях стоит непрерывно повышать цифровую грамотность сотрудников, проводить регулярные информационные кампании и обучать коллег методам выявления фейков.


 
  • Теги
    дипфейк как распознать дипфейк соцсети
  • Сверху Снизу