Новости Как дипфейк в руках преступников становится настоящим оружием против человечества

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
55.153
Репутация
63.040
Реакции
277.477
RUB
0
С появлением нейросетей мошенники научились использовать их для преступлений и вымогательства.
image

В начале этого года произошел инцидент, в котором киберпреступник пытался вымогать у женщины из Аризоны $1 млн., утверждая, что он похитил ее дочь. Для большей убедительности преступник пригрозил избить девочку, при этом мать заложницы, Дженнифер ДеСтефано, слышала по телефону крики, плач и отчаянные мольбы о помощи своей дочери.

Однако эти крики оказались подделками. ДеСтефано сказала полиции, что она была уверена, что человек по телефону действительно похитил ее дочь, потому что голос якобы похищенной жертвы был идентичен голосу ее дочери.

Это один из быстро растущего числа случаев, когда киберпреступники использовали ИИ-инструменты для обмана людей. Проблема стала настолько острой, что в начале июня ФБР выпустило предупреждение , в котором сообщило о многочисленных жалобах на участившуюся сексторцию – злоумышленники публикуют в сети правдоподобный порнографический контент, в том числе с участием несовершеннолетних детей, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.

Во многих случаях все, что нужно злоумышленникам для создания дипфейков — это небольшие образцы контента цели. Даже нескольких секунд аудиозаписи, которую человек может опубликовать в соцсетях, достаточно для клонирования голоса жертвы. По словам исследователей Trend Micro, сейчас доступно множество ИИ-инструментов, которые позволяют легко клонировать голос, используя образцы голоса, собранные из различных источников.

Ещё в мае эксперты по кибербезопасности Recorded Future предупредили о росте интереса злоумышленников к услугам по клонированию голоса в интернете (Voice Cloning-as-a-Service, VCaaS), которые позволяют упростить мошенничество с использованием технологии дипфейков. По словам Recorded Future, все чаще в даркнете появляются готовые платформы для клонирования голоса, которые снижают порог вхождения для киберпреступников. Некоторые из них бесплатны при регистрации аккаунта, а другие стоят всего около $5 в месяц.

Также в этом году стало известно о том, что новая нейросеть VALL-E от корпорации Microsoft способна подделывать голос конкретного человека вплоть до интонаций. Как сообщается, полученный образец VALL-E разбивает на мельчайшие фрагменты и сравнивает их с уже имеющейся базой данных. Обладая информацией о том, как в разных ситуациях звучат голоса других людей, нейросеть «предполагает», как в тех же ситуациях будет звучать голос «донора».

Помимо подделки голоса для преступлений также существует голосовая аутентификация – еще одна вещь, которую стоит бояться. Недавно компьютерные ученые из Университета Ватерлоо разработали метод атаки , который может успешно обходить системы безопасности по голосовой аутентификации с вероятностью успеха до 99% после шести попыток.








 
С появлением нейросетей возник рост киберпреступности и вымогательства, так как злоумышленники начали использовать их для мошенничества. Один из инцидентов произошел в этом году, когда киберпреступник пытался вымогать миллион долларов у женщины, угрожая похищением ее дочери. Он использовал подделанные крики и голос девочки, чтобы убедить мать в серьезности угрозы. Подобные случаи стали настолько распространенными, что ФБР обратилось с предупреждением о росте сексторции, где злоумышленники угрожают распространить компрометирующий контент о жертвах, созданный с помощью искусственного интеллекта.

Для создания дипфейков злоумышленникам часто достаточно небольших образцов контента цели. Например, несколько секунд аудиозаписи в социальных сетях может быть использовано для клонирования голоса жертвы. Исследователи отмечают, что в настоящее время доступно множество инструментов искусственного интеллекта, которые упрощают процесс клонирования голоса.

Кроме того, в сети появляются платформы для клонирования голоса, предоставляющие услуги злоумышленникам и снижающие порог вхождения в киберпреступность. Цена некоторых таких платформ может быть очень низкой или даже бесплатной при регистрации аккаунта.

Однако не только мошенничество, но и голосовая аутентификация стала уязвимой. Недавно ученые из Университета Ватерлоо разработали метод атаки, который позволяет успешно обходить системы голосовой аутентификации с высокой вероятностью после нескольких попыток.

В целом, с развитием нейросетей и технологий машинного обучения появились новые возможности для мошенничества и вымогательства. Необходимо принимать меры к обеспечению безопасности и разработке более надежных систем защиты от подделки голоса и других видов киберпреступности.
 
Сверху Снизу