Искусственный интеллект (ИИ) уже стал неотъемлемой частью современной кибербезопасности. С развитием данной технологии он стал широко применяться для обнаружения угроз, защиты от кибератак и принятия решений.
ИИ способен автоматически реагировать на угрозы - блокировать доступ хакеров и предотвращать утечку данных. Еще не менее важным аспектом использования ИИ в кибербезопасности, является его способность обучаться на основе опыта, то есть использовать данные о предыдущих кибератаках, чтобы улучшить свои алгоритмы для более точного обнаружения угроз в будущем.
Что касается применения ИИ в информационной безопасности финансового сектора, то здесь особых отличий в его использовании для банковского или любого другого сектора нет. Это скорее всего обусловлено конкретными целями применения ИБ, которые особо не зависят от сферы.
Для этих целей необходимо использовать различные подходы для предотвращения вторжений, реагирования на инциденты, контроля за внутренним контуром и так далее.
В связи с этим, ИИ для ИБ в банках не особо отличается от других сфер. Существенное отличие лишь в том, что на технологию искусственного интеллекта могут налагаться дополнительные требования по времени отклика и точности, которые будут строже, чем в других секторах.
Во-первых, в больших компаниях следить за настройками оборудования и работой системы сложно, но ИИ помогает контролировать правильность этих настроек и может своевременно оповещать об ошибках.
Второе направление – использование ИИ как средства для обнаружения атак. В данном случае варианты использования ИИ зависят от типа атаки (фишинг, спам, сетевые атаки и т.д.).
Третье направление, которое стоит отметить – это прогнозирование рисков с помощью ИИ. Технология может анализировать выстроенную систему безопасности для поиска уязвимых мест, которые больше подвержены атакам.
В качестве четвертого направления я бы выделил - ИИ как рекомендательная система. Здесь нейросеть может выступать как вспомогательное средство для принятия решений при анализе инцидента. Используя данную технологию, можно составлять обширные аналитические отчеты, которые способны предоставить рекомендации по устранению угроз и реагированию на инцидент, что позволит провести оперативную изоляцию атакуемого ресурса.
При применении повсеместно используемой технологии ИИ можно столкнуться и с негативными моментами.
Модели могут обрабатывать огромные объемы данных, проводить аналитику и многое другое, но их вывод не всегда может быть верным. В моделях машинного обучения могут возникать так называемые false positive чаще, чем в классических методах обнаружения атак. Так что отдавать на откуп ИИ слишком важные решения не стоит, т.к. это может привести к серьезным проблемам.
Чаще всего мы не можем сказать почему модель выдала тот или иной результат, это приводит к сложностям объяснения для бизнеса и увеличению времени устранения проблем. Использование white-box моделей может улучшить ситуацию, но такие модели зачастую показывают результаты хуже black-box.
Не каждая компания может позволить себе разработку и/или покупку полноценного средства ИБ с применением ИИ. Сейчас активно развивается предоставление ИИ как сервиса. Это удобно, но не исключает рисков утечки данных.
Как известно, моделям машинного обучения нужно учиться на данных и чаще всего этих данных так много, что контролировать их почти невозможно. Это может привести к попаданию в выборку различных материалов, которые смогут позволить злоумышленнику обойти систему защиты.
Многие средства защиты проходят строгий контроль и при их интеграции можно быть более-менее уверенным в их работе. Тогда как ИИ только начинает активно встраиваться в процессы. Для него отсутствует или имеется слишком маленький контроль, что может привести к ошибкам в работе, а как следствие – к инциденту ИБ.
Важные аспекты лучше оставить для проверки сотрудниками. Во-вторых - применение ИИ для автоматизации процессов и вспомогательных систем принятия решений.
Благодаря этому, работники смогут получать своевременную информацию, у них освободится время для решения более сложных задач, что повысит эффективность обеспечения кибербезопасности предприятия.
ИИ в кибербезопасности сегодня нуждается в данных для обучения и регламентах к таким данным. Из-за отсутствия достаточного количества данных мы сталкиваемся со сложностью обучения моделей, а из-за отсутствия регламентов – с ошибками в данных.
Помимо этого, я бы еще сделал акцент на нехватке экспертов в этой области. Достаточно высокий порог входа в профессию может отпугивать новичков. Также необходимо повысить уровень информирования о возможностях, плюсах и минусах применения технологии ИИ.
Многим сотрудникам не стоит активно переживать из-за внедрения ИИ в их работу, здесь стоит на это смотреть как на новый технологический прорыв и использовать данные инструменты.
Существует большое число решений, которые упрощают различные задачи, и их интеграция не заменит специалиста, но может сильно упростить ему рутинную работу. Поэтому в каждом конкретном случае я бы смотрел не с пессимистической точки зрения, а как на новую возможность оптимизации процесса решения задач.
У нас есть два продукта, где применяется машинное обучение. Наша разработка DataNova Object Recognition (OR) является многогранным продуктом. Это комплексное решение, реализованное на основе глубоких нейронных сетей в алгоритмах компьютерного зрения.
Технология фиксирует неизвестное лицо в камере или, например, мобильное устройство.
Второй наш продукт DataGrain Remote User Monitoring Analytics (RUMA) – это решение, которое выявляет потенциальные угрозы на основе анализа поведения пользователей и объектов. Иными словами, находит аномалии, которые не могут быть обнаружены классическими решениями ИБ.
Продукт позволяет при помощи ИИ находить неочевидные на первый взгляд взаимосвязи в потоке событий безопасности, что помогает обнаруживать новые атаки на инфраструктуру, что, таким образом, повышает уровень защищенности инфраструктуры, выявляет нецелевое использование ресурсов.
Первое - сомнения и оценки рисков. Они уберегут нас от внедрения необдуманных, но, возможно, популярных решений.
Второе - создавайте регламенты, требования и другие документы для контроля за применением ИИ.
Третье - использование новых технологий – естественный процесс, держаться за старое не всегда хорошая идея.