Внедрение ChatGPT и прочих больших языковых моделей ознаменовало собой своеобразную революцию. Синтез кода стал простым, понятным, быстрым и бесплатным для всех. Этот мощный и универсальный инструмент можно использовать в том числе для создания вредоносных программ, которые в будущем могут вылиться в новый и крайне опасный вид полиморфных киберугроз.
Традиционные решения безопасности, такие как EDR, используют многоуровневые системы анализа данных для борьбы с некоторыми из самых сложных современных угроз. Разработчики большинства автоматизированных инструментов безопасности утверждают, что их детище предотвращает новые или нестандартные модели поведения чуть ли не каждый день. Но на практике это происходит очень редко.
Используя новые методы создания вредоносного ПО, такие как нейросетевые алгоритмы, злоумышленники могут комбинировать ряд легко обнаруживаемых действий в необычную “сборную солянку” и эффективно уклоняться от обнаружения. Потому что антивирусные модели просто не смогут распознать такой софт как вредоносный.
Проблема усугубится, когда искусственный интеллект сможет самостоятельно “стать у руля” и полностью руководить кибератаками. Поскольку выбранные им методы могут быть весьма нетипичными по сравнению с теми, которые использует человек. Кроме того, ошеломляющая скорость, с которой эти атаки могут быть выполнены, делают угрозу многократно опаснее.
Чтобы продемонстрировать, на что способно вредоносное ПО на основе ИИ, специалисты из компании Hyas создали простой PoC- Эксплойты обычно классифицируются и называются по: типу уязвимости, которую они используют; являются ли они локальными или удаленными; а также результатом запуска эксплойта (например, EoP, DoS, спуфинг). Одной из схем, предлагающих эксплойты нулевого дня, является Exploit-as-a-Service.