Стив Уилсон, директор по искусственному интеллекту и продуктам в Exabeam – Серия интервью

Европейский мужчина среднего возраста, в деловом костюме, сидит за столом в офисе с компьютером и обсуждает кибербезопасность с коллегами.

Стив Уилсон занимает должность директора по искусственному интеллекту и продуктам в Exabeam, где его команда применяет передовые технологии ИИ для решения реальных проблем кибербезопасности. Он основал и является сопредседателем проекта OWASP Gen AI Security, организации, создавшей отраслевой стандарт OWASP Top 10 для безопасности больших языковых моделей.

Его отмеченная наградами книга “Руководство разработчика по безопасности больших языковых моделей” была признана лучшей книгой по передовой кибербезопасности по версии Cyber Defense Magazine.

Exabeam — лидер в сфере интеллектуальных решений и автоматизации для обеспечения безопасности ведущих компаний мира. Объединяя масштаб и мощь ИИ с преимуществами ведущего в отрасли поведенческого анализа и автоматизации, организации получают более целостное представление о инцидентах безопасности, обнаруживают аномалии, упущенные другими инструментами, и достигают более быстрых и точных результатов.

Эволюция роли ИИ в кибербезопасности

Кибербезопасность была одной из первых областей, по-настоящему принявших машинное обучение. В Exabeam машинное обучение используется как основа системы обнаружения уже более десяти лет для выявления аномального поведения, которое люди могли бы пропустить. С появлением новых технологий ИИ, таких как интеллектуальные AI агенты, искусственный интеллект превратился из важного компонента в абсолютно центральный.

Объединенная роль директора по ИИ и продуктам в Exabeam отражает именно эту эволюцию. В компании, глубоко приверженной внедрению ИИ во все свои продукты, и в отрасли, где роль ИИ становится все более важной, объединение стратегии ИИ и стратегии продукта под одной ролью имеет стратегический смысл.

Агентный ИИ в операциях безопасности

Агентный ИИ представляет значительную эволюцию по сравнению с традиционными подходами искусственного интеллекта. Он ориентирован на действия — проактивно инициирует процессы, анализирует информацию и представляет выводы еще до того, как аналитики их запрашивают. Помимо простого анализа данных, агентный ИИ выступает в роли советника, предлагая стратегические рекомендации для центра операций безопасности (SOC).

Кроме того, агенты работают как специализированные группы, а не как один громоздкий чат-бот. Каждый из них имеет определенную “личность” и набор данных, которые органично интегрируются в рабочий процесс аналитиков, инженеров и менеджеров для обеспечения целенаправленной, эффективной помощи.

Будущее роли аналитика безопасности

Роль аналитика безопасности определенно эволюционирует. Аналитики, инженеры безопасности и менеджеры центров операций безопасности перегружены данными, оповещениями и делами. Реальное изменение в будущем заключается не только в экономии времени на рутинных задачах (хотя агенты, безусловно, помогают в этом), но и в повышении роли каждого до уровня руководителя команды.

Аналитики по-прежнему будут нуждаться в сильных технических навыках, но теперь они будут руководить командой AI агентов, готовых ускорить выполнение их задач, усилить их решения и реально улучшить состояние безопасности. Это преобразование позволяет аналитикам стать стратегическими координаторами, а не тактическими исполнителями.

Разрыв в восприятии между руководителями и аналитиками

Недавние данные показывают явный разрыв: 71% руководителей считают, что ИИ значительно повышает продуктивность, но только 22% аналитиков первой линии, ежедневных пользователей, согласны с этим. В Exabeam заметили, что этот разрыв увеличивался вместе с недавним ажиотажем вокруг обещаний ИИ в кибербезопасности.

Сегодня как никогда легко создавать впечатляющие демонстрации ИИ, и поставщики быстро заявляют, что решили все проблемы SOC. В то время как эти демонстрации изначально впечатляют руководителей, многие из них не оправдывают ожиданий там, где это важно — в руках аналитиков.

Для преодоления этого разрыва в восприятии руководители должны отдавать приоритет инструментам ИИ, которые действительно расширяют возможности аналитиков, а не просто впечатляют на демонстрации.

Баланс между автоматизацией и человеческой оценкой

Возможности ИИ быстро развиваются, но сегодняшние “языковые модели”, лежащие в основе интеллектуальных агентов, изначально были разработаны для таких задач, как перевод, а не для сложного принятия решений, теории игр или обработки сложных человеческих факторов. Это делает человеческую оценку важнее, чем когда-либо в кибербезопасности.

Роль аналитика не уменьшается из-за ИИ, а, наоборот, возрастает. Аналитики становятся руководителями команд, используя свой опыт и знания для руководства и управления несколькими агентами, гарантируя, что решения остаются обоснованными с учетом контекста и нюансов.

Стратегия продукта с ИИ в основе

В Exabeam стратегия продукта фундаментально формируется с ИИ в качестве основного принципа проектирования, а не поверхностного дополнения. Компания изначально создавала свои системы для поддержки машинного обучения — от сбора логов, их анализа, обогащения и нормализации — для наполнения надежной Общей информационной модели, специально оптимизированной для систем машинного обучения.

Высококачественные, структурированные данные не просто важны для систем ИИ — они являются их основой. Сегодня интеллектуальные агенты напрямую встраиваются в критически важные рабочие процессы, избегая использования общих, громоздких чат-ботов.

Проблемы интеграции ИИ для кибербезопасности реального времени

Одна из самых больших проблем при интеграции генеративного ИИ и машинного обучения в масштабе, необходимом для кибербезопасности реального времени, — это баланс скорости и точности. Генеративный ИИ сам по себе не может заменить масштаб того, что обрабатывает высокоскоростной механизм машинного обучения, обрабатывающий терабайты данных непрерывно.

Даже самые продвинутые AI агенты имеют “контекстное окно”, которое значительно ограничено. Вместо этого, решение включает использование машинного обучения для преобразования огромных данных в действенные выводы, которые интеллектуальные агенты затем эффективно переводят и операционализируют.

Эволюция кадров кибербезопасности в ближайшие 5 лет

Сейчас мы находимся в гонке вооружений ИИ. Противники агрессивно применяют ИИ для достижения своих злонамеренных целей, что делает специалистов по кибербезопасности более важными, чем когда-либо. Ближайшие пять лет не уменьшат значимость кадров по кибербезопасности, а повысят их значение.

Профессионалам необходимо принять ИИ, интегрируя его в свои команды и рабочие процессы. Роли в сфере безопасности сместятся в сторону стратегического управления — меньше индивидуальных усилий и больше оркестрации эффективного реагирования с командой агентов на основе ИИ.

Это преобразование позволяет профессионалам в области кибербезопасности решительно и уверенно руководить в борьбе с постоянно развивающимися угрозами.