Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Эксперты кибербезопасности обсудили с ИИ пользу и риски его использования

Рубрика: «Кибербезопасность»

Эксперты кибербезопасности обсудили с ИИ пользу и риски его использования

Тренды развития искусственного интеллекта стали одной из ключевых тем конференции «Цифровая индустрия промышленной России 2024». Вопросы его применения в информационной безопасности обсуждались на сессии ГК «Солар» «ИИ — новая технология на страже киберустойчивости или оружие в руках преступников». Особенностью сессии «ИИ — новая технология на страже киберустойчивости или оружие в руках преступников», стало то, что она была полностью подготовлена искусственным интеллектом. Генеративная модель определила канву дискуссии, подобрала вопросы для спикеров и представила свою точку зрения на часть из них. Искусственный интеллект выступал также в роли со-модератора.

Отвечая на вопрос «ИИ — реальная технология или „хайп‟?», Александр Шойтов, заместитель министра цифрового развития, связи и массовых коммуникаций Российской Федерации, провел аналогию с космосом. На заре его освоения людям казалось, что через 10–15 лет состоится полет на другие планеты, а потом и к звездам. Сегодня же мы лучше понимаем границы своих возможностей, планируем проекты на луне, на Марсе. Так и с ИИ — это, безусловная, реальная технология, но мы еще не изучили, насколько простираются ее возможности. Остальные участники сошлись во мнении, что, хотя вокруг ИИ действительно есть некоторый ажиотаж, родился он не на пустом месте, а как естественный процесс развития науки и техники, на технологии, которая становится драйвером и акселератором индустрии.

Кроме того, ИИ и большие данные являются движущей силой экономики: в 2024 году их вклад в рост мировой экономики составит не менее одного триллиона долларов США. Все больше компаний и организаций используют ИИ в своих бизнес-процессах, в том числе в ИБ-сфере. Однако отношение к нейросетям до сих пор неоднозначное, а те возможности, которые эти технологии могут предоставить злоумышленникам, вызывают большие опасения у экспертов.

Так, Сергей Гордейчик, генеральный директор СайберОК, отметил, что киберпреступники могут использовать те же преимущества ИИ, при этом без необходимости соблюдать этический кодекс, заботиться о сохранности данных, наконец, согласовывать и планировать бюджеты. Один из примеров — распространение дипфейков для дезинформации и мошенничества. Если говорить про применение этой технологии в защите, то она чаще практикуется «белыми хакерами», которые могут быть чуть гибче и пользоваться практически теми же приемами, что и злоумышленники.

Злоумышленники активно используют ИИ для автоматизации атак, рассказал Дмитрий Харитонов, первый заместитель генерального директора Холдинга Т1: «Это позволяет снизить стоимость и повысить скорость, например, разработки вредоносного ПО, фишинга, создания дипфейков и поддельных профилей, а также документов. Другой популярный способ применения технологии — поиск уязвимостей в организации или методов воздействия на человека. ИИ способен проанализировать всю доступную информацию о жертве, чтобы кастомизировать атаку, обмануть фильтры спама и антивирус, воздействовать на персональные триггеры человека. Если же попытка не удается, ИИ учится на своих ошибках и ищет новые способы».

Игорь Ляпунов, генеральный директор ГК «Солар», согласен, что ИИ скорее придет на сторону не защищающих, а атакующих: «Их задачи легко алгоритмизируются, и это даст преимущество по скорости. Если в 2023 году целевая атака от этапа разведки инцидента занимала 2–3 месяца, то сейчас, благодаря ИИ, она может разворачиваться за несколько дней. Однако в технологиях оборонительной кибербезопасности тоже есть место искусственному интеллекту: с его помощью удобно детектировать отклонения от нормы в поведении пользователей или функционировании систем как индикаторы атаки. Мы в «Соларе» тестируем и уже внедряем модели ИИ, например, в Solar Dozor для защиты от внутренних ошибок и нарушителей. В центре исследования киберугроз Solar 4RAYS мы используем нейросетевые модели для киберразведки, чтобы обнаруживать инфраструктуру злоумышленников даже тогда, когда она ещё не была использована в реальных атаках. Более 200 крупнейших компаний сегодня используют генеративный интеллект в составе наших программных продуктов и сервисов для защиты своих данных и IT-инфраструктуры».

Искусственный интеллект отметил, что «ИИ — двойственный инструмент, который зависит от того, как его используют. Правильно настроенный, он может значительно укрепить киберустойчивость, предотвращая и устраняя угрозы быстрее, чем человек, но при неправомерном использовании он может стать мощным оружием в руках преступников».

Путь инноваций в консервативных сферах, таких, как промышленность, представляет отдельный интерес. «Если задать вопрос о технологиях будущего, большинство называет ИИ и роботизацию, — поделился Михаил Аронсонзаместитель генерального директора ГК «Цифра». — Однако мы провели два исследования: по цифровизации горно-металлургической отрасли и машиностроительной отрасли, и оба показали, что предприятия только прощупывают эти возможности ИИ. В основном используются цифровые советчики на базе ИИ, которые дают специалисту рекомендации. Например, советчик по управлению горной техникой предупреждает об опасности, помогает оптимизировать расход топлива и выбрать оптимальный маршрут.

При этом до выхода на новый уровень, например, на широкое использование роботизированного транспорта, еще, как минимум, не хватает законодательства, которое регулировало бы совместную работу робота и человека».

Сергей Гордейчик поддержал мысль о том, что чем больше функций человек передает ИИ, тем больше аспектов безопасности нужно предусмотреть. Например, киберзащиту непосредственно самой технологии: «Один из проектов «СайберОК» — контроль поверхности атак интернета, и мы слишком часто видим уязвимые системы, связанные с ИИ, в частности, системы разработки и инжиниринга, взлом которых может привести к утечки или искажению обучающих данных. Ситуация осложняется тем, что к этой технологии часто относятся как к игрушке, даже используя на реальных больших данных и при этом не оценивая защищенность ИИ».

Киберустойчивость решений — один из ключевых аспектов доверенного искусственного интеллекта, одной из ведущих концепций, принятых в этой сфере в мире и в России. Она подразумевает законное, этичное и надежное применение ИИ. «В рамках этой концепции я бы выделил направление по маркировке цифрового контента, — прокомментировал Максим Кузнецов, директор проектного офиса Института AIRI, — то есть созданию так называемых вотермарок. Это способ защитить сами разработанные ИИ модели от их несанкционированного использования. Тот же метод поможет бороться с дипфейками, незаметно маркируя авторский контент. Это особенно важно сегодня, когда ИИ развивается очень быстрыми темпами, и мы находимся на пути к AGI — сильному искусственному интеллекту, не уступающему нашим способностям во всех сферах деятельности».

Позитивный взгляд на перспективы использования искусственного интеллекта в информационной безопасности предложил Дмитрий Харитонов. «Технология уже зарекомендовала себя в системах, где необходимо аккумулировать большое количество разрозненной информации, — отметил эксперт. — Мы уже давно применяем искусственный интеллект в сфере информационной безопасности, например, для противодействия мошенничеству в финансовой сфере. ИИ может детектировать нетипичные поведенческие сценарии и заблокировать транзакцию с признаками фрода. Наиболее инновационное наше решение — это «Криптоанклав», программно‑аппаратный комплекс, который позволяет загружать данные из разных источников и разрабатывать на их основе модельные сервисы без фактического доступа к самой информации, то есть, это защищенное хранилище с зашифрованными данными».

По итогам обсуждения удалось выделить основные направления при работе с ИИ‑инструментами, которые требуют пристального внимания:

  • высокие требования к вычислительным мощностям и аппаратным ресурсам, необходимом для стабильной работы ИИ‑решений при растущих объемах данных;
  • повышение прозрачности и непредвзятости в развитии ИИ: развитие регуляторных мер, систем контроля, мер кибербезопасности для защиты обучающих данных;
  • готовность к киберугрозам, связанным с использованием ИИ в преступных целях, в том числе проактивные меры против уязвимостей и утечек данных, которые позволяют злоумышленникам накапливать чувствительные данные и в дальнейшем использовать в атаках;
  • развитие возможностей ИИ на благо человека, в том числе как инструмент ИБ, а также в различных отраслях для большей эффективности и безопасности труда.

Объединить потенциал искусственного интеллекта и человеческий потенциал — как показал опыт этой сессии – возможно. Однако важно признать и рассмотреть с практических позиций потенциальные риски, а затем последовательно работать над тем, что их нивелировать.