Согласно новому отчёту компании Malwarebytes, киберпреступники активно используют возможности искусственного интеллекта (ИИ) и крупных языковых моделей (LLM) для создания новых схем обмана, которые способны обходить большинство систем кибербезопасности.
Примером такой активности стала фишинговая кампания, направленная на пользователей Securitas OneID. Злоумышленники запускают рекламу в Google, маскируя её под легитимные объявления. Когда пользователь кликает на такую рекламу, он перенаправляется на так называемую “белую страницу” – специально созданный сайт, не содержащий видимого вредоносного контента. Эти страницы выступают в роли отвлекающего манёвра, предназначенного для обхода автоматических систем защиты Google и других платформ.
Суть атаки заключается в том, что реальные цели фишинга остаются скрытыми, пока пользователь не выполняет определённые действия или пока система безопасности не завершает проверку. “Белые страницы”, созданные с помощью ИИ, содержат текст и изображения, которые выглядят правдоподобно, включая сгенерированные лица якобы “сотрудников компании”. Это делает их ещё более убедительными и сложными для обнаружения.
Ранее преступники использовали украденные изображения из соцсетей или стоковые фото, но теперь автоматическая генерация контента позволяет быстрее адаптировать такие атаки и создавать уникальные страницы для каждой кампании.
Другой случай связан с программой удалённого доступа Parsec, популярной среди геймеров. Злоумышленники создали “белую страницу” с отсылками к вселенной Star Wars, включая оригинальные постеры и дизайн. Этот контент не только вводит в заблуждение системы защиты, но и выглядит интересно для потенциальных жертв.
Использование ИИ позволяет преступникам с лёгкостью обходить проверки. Например, при валидации рекламы Google видит только невинные “белые страницы”, не вызывающие подозрений. Однако для реальных пользователей, знакомых с контекстом, такие страницы нередко выглядят несерьёзно и могут быть легко разоблачены.
В ответ на растущее применение ИИ в преступных схемах некоторые компании уже создают инструменты, способные анализировать и выявлять сгенерированный контент. Однако проблема остаётся острой: универсальность и доступность ИИ делают его привлекательным инструментом в руках злоумышленников.
Ситуация подчёркивает важность человеческого вмешательства в процессы анализа данных. То, что для машинного алгоритма может казаться нормальным, часто сразу бросается в глаза человеку как подозрительное или просто нелепое. Такой баланс между технологиями и человеческим опытом остаётся ключевым элементом в борьбе с цифровыми угрозами.