В 2025 году, по оценкам экспертов, 90% киберпреступных группировок будут использовать искусственный интеллект для подготовки и совершения атак.
Технологии ИИ позволяют злоумышленникам автоматизировать взломы, создавать фейковые аккаунты и рассылать вредоносные письма, не оставляя практически никаких шансов выявить источник угроз.
Причем речь идет не только о цифровой среде — такие методы могут применяться и для реальных преступлений, примером чему стал подрыв автомобиля в Лас-Вегасе, организованный с помощью подсказок чат-бота ChatGPT.
По словам руководителя департамента расследований T.Hunter Игоря Бедерова, реальный прирост преступлений с использованием ИИ определяется по числу ботов и объемам генерируемого ими контента. В ближайшие месяцы ожидается многократное увеличение подобных атак, что ставит под угрозу как работу крупных организаций, так и безопасность рядовых граждан. ИТ-эксперт Дмитрий Штаненко подчеркивает, что наиболее опасны сценарии, когда преступники «выманивают» у чат-бота инструкции по созданию взрывчатки, химических соединений или Орудия, используя при этом социальную инженерию и обходя встроенные механизмы защиты.
Заметно выросла и вероятность серьезных утечек данных в результате неконтролируемого использования ИИ сотрудниками компаний. По признанию более трети опрошенных специалистов, они применяют нейросети без ведома работодателя, что повышает уязвимость систем и добавляет новые возможности для хакеров. Кроме того, недостаточное понимание принципов работы ИИ и слабый уровень внутренней защиты ставят организации перед риском столкнуться с внезапными и чрезвычайно опасными киберугрозами.
Важным предупреждающим примером стал случай с хакером по прозвищу Amadon, сумевшим получить у ChatGPT инструкции по изготовлению бомбы, обойдя защиту чат-бота игрой в научно-фантастический мир. Это свидетельствует о том, насколько гибкими и изощренными становятся методы киберпреступников, и подчеркивает необходимость комплексного подхода к кибербезопасности на всех уровнях.
Технологии ИИ позволяют злоумышленникам автоматизировать взломы, создавать фейковые аккаунты и рассылать вредоносные письма, не оставляя практически никаких шансов выявить источник угроз.
Причем речь идет не только о цифровой среде — такие методы могут применяться и для реальных преступлений, примером чему стал подрыв автомобиля в Лас-Вегасе, организованный с помощью подсказок чат-бота ChatGPT.
По словам руководителя департамента расследований T.Hunter Игоря Бедерова, реальный прирост преступлений с использованием ИИ определяется по числу ботов и объемам генерируемого ими контента. В ближайшие месяцы ожидается многократное увеличение подобных атак, что ставит под угрозу как работу крупных организаций, так и безопасность рядовых граждан. ИТ-эксперт Дмитрий Штаненко подчеркивает, что наиболее опасны сценарии, когда преступники «выманивают» у чат-бота инструкции по созданию взрывчатки, химических соединений или Орудия, используя при этом социальную инженерию и обходя встроенные механизмы защиты.
Заметно выросла и вероятность серьезных утечек данных в результате неконтролируемого использования ИИ сотрудниками компаний. По признанию более трети опрошенных специалистов, они применяют нейросети без ведома работодателя, что повышает уязвимость систем и добавляет новые возможности для хакеров. Кроме того, недостаточное понимание принципов работы ИИ и слабый уровень внутренней защиты ставят организации перед риском столкнуться с внезапными и чрезвычайно опасными киберугрозами.
Важным предупреждающим примером стал случай с хакером по прозвищу Amadon, сумевшим получить у ChatGPT инструкции по изготовлению бомбы, обойдя защиту чат-бота игрой в научно-фантастический мир. Это свидетельствует о том, насколько гибкими и изощренными становятся методы киберпреступников, и подчеркивает необходимость комплексного подхода к кибербезопасности на всех уровнях.
Для просмотра ссылки необходимо нажать
Вход или Регистрация