3 важных способа, которыми ИИ может повлиять на кибербезопасность в этом году

Доктор Ян Пратт, глава отдела безопасности HP, объясняет, как последние достижения в области искусственного интеллекта становятся ключевыми инструментами обнаружения, реагирования и использования угроз.
Последние достижения в области искусственного интеллекта предоставляют защитникам кибербезопасности и злоумышленникам новые инструменты и возможности. Киберпреступники уже начали изучать, как искусственный интеллект может усилить атаки, и нацелены на бизнес с помощью нового поколения быстрых угроз. Но ИИ можно использовать и во благо: команды безопасности используют ИИ для улучшения обнаружения угроз и повышения эффективности устранения угроз. Это произошло как нельзя кстати: сообщается о четырех миллионах. Откроется новое окно. Специалисты по кибербезопасности нужны во всем мире.
В этом году мы ожидаем, что искусственный интеллект и его влияние станут преобладать в сфере кибербезопасности, усиливая приманки для фишинга, выявляя слабые места в защите и сокращая время на разработку и реагирование на атаки. В этом году команды по кибербезопасности также будут уделять приоритетное внимание искусственному интеллекту, готовясь к новой волне угроз, связанных с искусственным интеллектом, и используя эту технологию в своих интересах.
Три способа, которыми ИИ может повлиять на ландшафт кибербезопасности:
1. ИИ усилит социальную инженерию
Киберпреступники будут использовать искусственный интеллект для усиления атак социальной инженерии в невиданном масштабе, создавая убедительные и труднообнаружимые фишинговые приманки за считанные секунды. Вероятно, это будет весьма правдоподобно, поскольку киберпреступники автоматизируют персонализированные приманки, используя данные, полученные из социальных сетей или взломанных почтовых ящиков. В результате сотрудникам будет очень сложно обнаружить приманки даже после обучения фишингу. Злоумышленники также будут использовать ИИ для создания новых приманок на языках меньшинств, что будет выглядеть еще более законным.
Вероятно, мы также увидим всплеск массовых кампаний, созданных с помощью ИИ, примерно в ключевые даты. Например, в 2024 году проголосует наибольшее количество людей в истории. Откроется новое окно. На выборах. Используя ИИ, киберпреступники смогут с легкостью создавать локализованные приманки, нацеленные на определенные регионы. Аналогичным образом, крупные ежегодные мероприятия, такие как налоговая отчетность в конце года, спортивные мероприятия, такие как Олимпийские игры в Париже и турнир Евро-2024, а также розничные мероприятия, такие как Черная пятница и День холостяков, также дадут киберпреступникам возможность обмануть пользователей.
Поскольку поддельные электронные письма становятся неотличимы от законных, предприятия не могут полагаться только на обучение сотрудников. Чтобы защититься от атак социальной инженерии с использованием искусственного интеллекта, организации должны создать виртуальную сеть безопасности для своих пользователей. Микровиртуализация создает одноразовые виртуальные машины, изолированные от операционной системы ПК, поэтому они остаются защищенными, даже если пользователи невольно нажимают на то, что им не следует.
2. LLM приносит как возможности, так и проблемы
В этом году в ПК будут встроены локальные модели большого языка (LLM), а «ПК с искусственным интеллектом» произведут революцию в том, как люди взаимодействуют со своими конечными устройствами. Эти программы LLM повысят эффективность и производительность пользователей, а также принесут ряд преимуществ в области безопасности и конфиденциальности за счет использования искусственного интеллекта, независимого от Интернета. Эти персонализированные помощники и чат-боты снизят риски безопасности, связанные с отправкой и хранением личных данных в облаке. Однако, поскольку эти локальные модели соберут еще больше данных, конечная точка станет основной целью для злоумышленников.
Поскольку организации стремятся использовать чат-ботов LLM для повышения удобства, командам безопасности придется защищать еще одну систему. Эти чат-боты могут выступать в качестве доступа к ранее недоступным данным. Используя целевые подсказки для обмана корпоративных чат-ботов и обхода средств контроля, злоумышленники могут с помощью социальной инженерии корпоративных LLM получить доступ к конфиденциальным данным.
3. ИИ снижает барьеры для вредоносных атак на встроенное ПО и оборудование.
Развитие технологий кибербезопасности усложнит злоумышленникам получение доступа к системам и уклонение от обнаружения. Но благодаря тому, что ИИ передаст мощные технологии в руки многих, сложные возможности станут более доступными. Эта доступность позволит злоумышленникам внедрять инновации и продолжать увеличивать количество атак на уровень встроенного ПО и оборудования, где команды безопасности имеют меньшую повседневную видимость. Исторически сложилось так, что доступ к операционной системе (ОС) требовал обширных технических знаний. Но ИИ сделает атаки, нацеленные на более низкие уровни технологического стека, более доступными.
Мы ожидаем увидеть рост числа продвинутых кибератак, которые труднее обнаружить и которые наносят больший ущерб. Киберсобытия станут более частыми, поскольку злоумышленники используют ИИ для поиска и использования уязвимостей, а также для закрепления позиций под операционной системой. Чтобы защититься от этого, организациям теперь приходится больше инвестировать в безопасность оборудования и встроенного ПО.
Новая эра кибербезопасности
Искусственный интеллект окажет огромное влияние на ландшафт угроз. Тем не менее, у групп безопасности есть равные возможности использовать искусственный интеллект для улучшения обнаружения угроз и реагирования на них, а также для снижения давления на команды безопасности. Вторые пилоты искусственного интеллекта также помогут защитить пользователей с помощью автоматического сканирования для выявления целевых фишинговых приманок, которые пытаются обманом заставить сотрудников совершать банковские переводы или делиться конфиденциальными данными.
Появление компьютеров с искусственным интеллектом в 2024 году принесет огромные преимущества в области безопасности, позволяя пользователям более безопасно использовать искусственный интеллект на устройствах без риска для безопасности, связанного с отправкой и хранением данных в облаке. Они также обеспечат новый уровень конфиденциальности данных, например, автоматическую блокировку беспилотного устройства или запуск экрана конфиденциальности, когда за устройством наблюдают.
Чтобы безопасно использовать ИИ в своих интересах, организациям срочно необходим интегрированный подход к безопасности, который смещает акцент на защиту, а не на обнаружение, и применяет принципы нулевого доверия. Партнерство с надежными поставщиками средств обеспечения безопасности ИИ позволит клиентам максимально использовать преимущества ИИ, одновременно защищая их от новых угроз безопасности и конфиденциальности.