Опасный рубеж: более половины хакерских техник получат ИИ-апгрейд
· SecurityLab.ru · ПодписатьсяЭксперты прогнозируют автоматизацию атак.
Positive Technologies опубликовала отчет о перспективах использования искусственного интеллекта (ИИ) в кибератаках. По прогнозам компании, в будущем злоумышленники смогут применять ИИ во всех тактиках из матрицы MITRE ATT&CK и 59% ее техник.
Ранее ИИ использовался лишь в 5% техник матрицы, а в 17% была доказана возможность его применения. Однако исследователи предупреждают, что эти показатели могут вырасти из-за распространения легальных ИИ-инструментов. За год после выхода ChatGPT4 количество фишинговых атак увеличилось на 1265%, и аналитики ожидают, что технологии ИИ продолжат усиливать арсенал киберпреступников.
Аналитики отмечают, что в условиях интенсивного развития таких технологий, разработчики языковых моделей уделяют недостаточное внимание защите систем от генерации вредоносного текста, кода или инструкций. Это может способствовать росту киберпреступной активности. Хакеры уже применяют ИИ для создания скриптов и проверки кода при подготовке вредоносного ПО. Также такие технологии помогают менее опытным злоумышленникам ускорить подготовку и проведение атак, а также анализировать эффективность своих действий. Например, с помощью больших языковых моделей можно уточнить детали атаки или изучить альтернативные подходы.
Среди других факторов, которые влияют на более активное применение искусственного интеллекта в атаках, эксперты выделяют слабую защищенность развивающихся стран, где даже несовершенные инструменты с такими технологиями могут успешно использоваться. Кроме того, в этом направлении киберпреступников подталкивает сама гонка вооружений атакующих и защитников.
«Высокий потенциал искусственного интеллекта в кибератаках не повод для паники, — комментирует ситуацию Роман Резников, аналитик исследовательской группы департамента аналитики Positive Technologies. — Нужно реалистично смотреть в будущее, изучать возможности новых технологий и системно заниматься обеспечением результативной кибербезопасности. Логичная контрмера атакующему ИИ — более эффективный ИИ в защите, который поможет преодолеть нехватку специалистов для защиты от кибератак через автоматизацию многих процессов».
Эксперты указывают, что с использованием ИИ уже возможно автоматическое создание фрагментов вредоносного кода, фишинговых сообщений и дипфейков, а также автоматизация отдельных этапов кибератак, включая управление ботнетом. Однако разработка и внедрение новых инструментов с искусственным интеллектом для автоматизации и масштабирования атак остается задачей, доступной только опытным киберпреступникам. Аналитики предполагают, что в ближайшем будущем появятся модули с ИИ, разработанные для выполнения узкоспециализированных задач в рамках уже известных сценариев атак. Со временем такие модули могут быть интегрированы в единые кластеры, что позволит автоматизировать значительную часть этапов атаки. В дальнейшем, если злоумышленникам удастся достичь высокой степени автоматизации атак на конкретные цели, ИИ может получить возможность самостоятельно искать подходящие цели для атак.
Аналитики Positive Technologies подчеркивают важность своевременного управления уязвимостями и участия в программах багбаунти. Оперативное закрытие уязвимостей, особенно тех, для которых доступны эксплойты, может снизить риски атак. Вендоры также внедряют технологии ИИ в защитные системы, что помогает обнаруживать целевые атаки, анализировать аномальное поведение и противостоять новым угрозам.