Декоративное изображение
85

Искусственный интеллект в кибербезопасности: защита или угроза?

Службы безопасности используют инструменты ИИ для выявления уязвимостей, прогнозирования атак, фильтрации фишинга, анализа вредоносного ПО. Этим же инструментом пользуются и злоумышленники, анализируя массивы данных и создавая все более сложные сценарии проникновения. Риски повышает то, что любая информация, переданная в публичную нейросеть, перестает быть закрытой. О том, какие угрозы влечет допуск ИИ к ИТ-инфраструктуре, какие внедрения можно назвать безопасными и какова реальная эффективность средств защиты, мнениями поделились представители Минцифры России, НКЦКИ, Ассоциации больших данных, компаний «Гарда», «Лента», «М.Видео», Cloud Networks.

Фото: Koupei Studio/Shutterstock/Fotodom

Фото: Koupei Studio/Shutterstock/Fotodom

Квалификация злоумышленников заметно выросла

Алексей Новиков, сотрудник Национального координационного центра по компьютерным инцидентам (НКЦКИ)

«Центр по компьютерным инцидентам пристально следит за тем, как развитие искусственного интеллекта меняет безопасность компаний: анализирует проявление ИИ на уровне компьютерных атак и инцидентов, изучает различные исследования, проводимые в этой области.

Чем сейчас располагают злоумышленники. Пока в руках злоумышленников не появилось ничего нового: используются известные образцы вредоносного программного обеспечения (ВПО), делаются попытки проникновения через уязвимости ИТ-структуры, рассылаются фишинговые письма, при этом повысились скорость проникновения и квалификация их специалистов.

Злоумышленниками ведется обработка больших массивов данных. Действуя по классической схеме, они сначала обрабатывают данные, чтобы лучше подготовиться к атаке – выбрать жертву, инструмент и лучший подход, затем – чтобы провести анализ результатов атаки.

Результаты хорошей компьютерной атаки – это тоже ценные большие данные о сотрудниках, подрядчиках, используемых технологиях и так далее. Уровень эффективности выбора жертвы и инструмента для первичного проникновения в компанию за последние несколько лет вырос на несколько порядков.

Примерно пять лет назад был инцидент, когда в одной уважаемой компании произошла компрометация: злоумышленник залез в инфраструктуру. Когда начали разбираться, как это допустили, оказалось, что злоумышленникам стала известна личная электронная почта  админа, они прислали ему коммерческое предложение по стройматериалам, а он как раз делал дома ремонт, открыл на работе письмо и «заразился». И тогда я, помню свое ощущение, удивился, как они тщательно поработали: нашли контакты админа, смогли сделать пересечение рабочего и домашнего e-mail, проникли в систему. Прошло несколько лет – и эта история стала классикой, «баяном», которым уже никого не удивить.

Злоумышленник получает возможность проникновения в инфраструктуру, и дальше добивается своих целей с помощью своих инструментов, в частности, вредоносного программного обеспечения (ВПО).

В деле создания ВПО тоже сделан большой шаг вперед. С помощью искусственного интеллекта можно создавать механизмы эксплуатации некоторых уязвимостей, описывая характер ошибки внутри программного обеспечения. Достаточно просто рассказать, в чем проблема, какая есть ошибка внутри софта – и можно получить готовый инструмент вредоносного программного обеспечения.

Второй аспект использования ВПО внутри инфраструктуры – это противодействие антивирусам. Сделать образец вредоносного модуля, чтобы пройти мимо антивируса, уже довольно просто на базе имеющегося инструментария, и это становится новым вызовом для производителей антивирусных средств и средств защиты.

Еще один вызов – повышение скорости реакции на угрозу. Если год назад между первичным внедрением злоумышленника и последующей эксплуатацией уязвимости до деструктива в ИТ-системе жертвы проходило 1–2 месяца, то теперь злоумышленники создают сценарии поведения внутри инфраструктуры сразу после внедрения. И эта ситуация будет становиться все тяжелее».

«М.Видео»: хочется развивать внутренние нейронные сети

Фото: «М.Видео»

Фото: «М.Видео»

Владимир Садовский, руководитель отдела мониторинга и защиты информационной безопасности компании «М.Видео»

«Основные сложности применения ИИ сегодня связаны с двумя факторами – с точностью и достоверностью получаемых ответов, а также с риском разглашения конфиденциальной информации. Если первая проблема решается за счет компетенций специалиста, умеющего критически оценивать результат и корректировать запрос, то со второй все гораздо сложнее. Любая информация, переданная в публичную нейросеть, по сути, перестает быть закрытой.

Поэтому в работе допустимо использование публичных ИИ-сервисов только для поиска общедоступных данных и решения типовых задач, без передачи коммерческой или чувствительной информации. В перспективе, конечно, хотелось бы развивать внутренние нейронные сети – с локальным хранением данных, достаточным уровнем знаний и гарантированной защитой коммерческой информации.

Уже сейчас потенциал ИИ в сфере информационной безопасности очевиден, так как он помогает автоматизировать рутинные процессы – от подготовки базовых документов и анализа «сырых» логов до выявления аномалий и потенциальных кибератак, оценки уязвимостей, расчета рисков и помощи в принятии решений по различным направлениям.

В настоящее время «М.Видео» находится в поиске корпоративного инструмента, к которому любой специалист по информационной безопасности мог бы безопасно обратиться, загрузить данные и получить корректный результат».

«Лента»: не надо думать, что ИИ является умным «по умолчанию»

Фото: «Лента»

Фото: «Лента»

«Возможности ИИ довольно активно используют злоумышленники. В частности, генеративный ИИ используется для проведения атак методами социальной инженерии: генерация аудио- и видеозаписей, подготовка фишинговых писем, написание ВПО.

Что касается увеличения рисков утечек данных из-за увлечения ИИ, то здесь дело не в самой технологии, а в необдуманных (а иногда просто безответственных) попытках ее использования. Загрузка конфиденциальных данных в облачные сервисы даже при самых благих намерениях может в итоге привести к утечке.

«Лента», как и любая компания, использующая современные средства киберзащиты, внедряет ИИ-технологии, поскольку все ведущие разработчики таких средств активно применяют эти возможности в своих продуктах. Справедливости ради стоит отметить, что реальная эффективность средств защиты с заявленным искусственным интеллектом значительно ниже ожиданий компаний и специалистов, которые используют эти средства.

Наиболее перспективные для использования ИИ в кибербезопасности направления: борьба с мошенничеством (и в целом все, что связано с поведенческим анализом), управление уязвимостями от их обнаружения до закрытия, выявление кибератак и реагирование на инциденты.

Генеративный ИИ может помочь практически во всех сферах и отраслях экономики, так как везде востребованы обработка текстов, голосовых сообщений, генерация различного контента, чат-боты, ИИ-ассистенты.

Технологии ИИ могут дать хорошие результаты в областях, связанных с обработкой больших объемов информации, при условии качественной подготовки данных для обучения моделей. Не надо думать, что ИИ является умным по умолчанию. Насколько правильно его обучат, настолько качественно он будет выдавать результаты.

Большинство современных технологий, в том числе и ИИ, требуют соблюдения определенных мер безопасности. Стоит говорить не о безопасных или небезопасных моделях или видах ИИ, а о безопасном или небезопасном способе использовании, о защищенной или незащищенной платформе. Многие крупные компании разворачивают собственные ИИ-платформы, чтобы снять риски, связанные с утечкой данных».

Ритейлеры – в поиске корпоративных ИИ-инструментов 

Сергей Нистратов, менеджер по работе с ключевыми клиентами Cloud Networks

Фото: Cloud Networks

Фото: Cloud Networks

«Компании, серьезно относящиеся к кибербезопасности, рассматривают искусственный интеллект как источник новых возможностей и в то же время – потенциальных рисков. Например, крупная ритейл-сеть электроники, с которой мы работаем, использует ИИ для выявления мошеннических операций в реальном времени, что значительно повышает защиту. Вместе с тем, компании понимают, что внедрение ИИ требует серьезного контроля, поскольку ошибки или неправильная настройка могут привести к новым уязвимостям.

Сам по себе ИИ не провоцирует увеличение утечки данных. В одном из проектов для сети косметики и бытовой химии мы применяли ИИ для мониторинга аномалий в доступах к данным, это помогло оперативно блокировать несанкционированные попытки, снижая риски утечек. Однако если ИИ-инструменты внедряются без должного контроля прав доступа и политики безопасности, есть риск, что модель может получить слишком широкий доступ и тем самым увеличить уязвимость.

Технология ИИ уже активно используется для обеспечения кибербезопасности. Например, в одной крупной сети продуктовых магазинов ИИ помогает быстро выявлять уязвимости веб-приложений и реагировать на угрозы значительно оперативнее, чем при традиционных методах.

Менеджеры по ИИ есть у некоторых ритейлеров, но пока в основном в крупных компаниях. В ритейле одежды, с которым у нас есть опыт взаимодействия, такая роль помогла эффективно координировать внедрение ИИ-решений в области безопасности и минимизировать связанные риски. Сценарий, при котором ИИ «проникает» в ИТ-инфраструктуру компании, используя доступ к модели для выполнения заданий, технически возможен, но на практике такие случаи не зафиксированы. Основные угрозы возникают из-за неправильно настроенных прав и контроля доступа, а не от самого ИИ. Важно строить архитектуру с четким разграничением его прав и аудитом действий.

Рост «негативного» ИИ – это серьезный вызов. Хакеры действительно начинают использовать ИИ-технологии, чтобы создавать более сложные атаки. В этой ситуации критически важно развивать защиту также на базе ИИ: распознавать и блокировать атаки в режиме реального времени, обучать персонал и использовать современные методы обмена информацией о новых угрозах. Рекомендуем комплексный подход – технологии, процедуры и человеческий фактор».

Отраслевой стандарт менеджмента ИИ

Ирина Левова, директор по стратегическим проектам Ассоциации больших данных

«Применение ИИ может принести реальную пользу. Самые перспективные направления – безопасные технологии обмена без передачи персональных данных, например, вычисление и обучение.

Из самых интересных проектов, в которых используется ИИ-технология, – «Нейроюрист», ассистент для юристов, разработанный «Яндексом». Сервис помогает отвечать на правовые вопросы, анализирует документы и дает ссылки на источники и нормативно-правовые акты. Сфера достаточно интересная для применения ИИ, так как там нет чувствительных данных, и вопрос только в том, к каким документам получен доступ, насколько используемые документы корректные, качественные и актуальные для работы такой модели. Здравоохранение – тоже очень перспективное направление для ИИ, но здесь есть ограничения, связанные с медицинской тайной.

В разных отраслях ограничения работают по-разному. Видимо, нужно устанавливать рамочное регулирование в части обезличивания, возможностей передачи данных, сертифицировать методы, которыми это можно делать, и отдавать детализацию на откуп отраслям экономики.

Бизнес абсолютно не заинтересован в компрометации персональных данных, потому что это огромные репутационные риски,  штрафы и уголовная ответственность за утечки персональных данных. Никто не хочет работать небезопасно, поэтому наша ассоциация  конструктивно общается с регулятором и старается найти баланс между безопасностью и возможностью развития проектов в области аналитики больших данных и искусственного интеллекта.

Компаниям, работающим с коммерческой тайной, охраняемыми категориями данных, важно предусмотреть во внутренних политиках требования к использованию ИИ, чтобы избежать компрометации данных сотрудниками. Сейчас многие сотрудники загружают себе на ноутбук нейросети, причем любые, не разбираясь, чья это версия и какую угрозу она несет внутренним документам и коммерческой тайне.

Ассоциация больших данных прорабатывает новый стандарт менеджмента ИИ. Стандарт будет содержать перечень того, что необходимо предусмотреть при разработке внутренней политики использования ИИ. Хотим суммировать опыт, который есть у сотрудников департаментов кибербезопасности, департаментов, занимающихся искусственным интеллектом, и разработать рекомендательный документ, в котором будет указано, что необходимо учитывать при составлении внутренней политики использования искусственного интеллекта».

Взращивать уровень киберкультуры

Фото: «Гарда»

Фото: «Гарда»

Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» 

«Компании, «озабоченные кибербезопасностью», как правило, довольно неплохо знакомы с предложениями рынка по опыту взаимодействия и с зарубежными, и с ведущими отечественными производителями. Поэтому они знают, что методы и средства, входящие в пул технологий искусственного интеллекта, применяются ведущими разработчиками в своих решениях уже десятилетиями. «Серебряной пули», способной мгновенно решить все запросы, никто не ожидает. По поводу усиления ИИ-рисков, массовую обеспокоенность порождает применение генеративных моделей в социотехнических атаках. Злоумышленники и так проводили их довольно успешно, а возможности генерации звука и видео, имитирующих реальных людей, а также качественных текстовых фишинговых сообщений эскалировали проблему. Вместе с тем, при правильном применении давно отработанных практик, таких как внедрение в процессы компаний киберкультуры сотрудников, в сочетании с передовыми технологиями защиты информации, можно достичь высокого уровня защищенности и от фишинга, «усиленного ИИ».

Надо взращивать уровень киберкультуры населения и разрабатывать средства противодействия. В частности – выявлять сгенерированный контент для борьбы с социотехническими атаками, маркировать оригинальный контент. Развитие детектирования вредоносных образцов (в контексте – созданных с помощью ИИ) идет уже длительное время и началось задолго до общего «бума ИИ» – это классическое «соревнование брони и снаряда». Методы машинного обучения успешно применялись в деле борьбы с вредоносным ПО несколько лет назад, применяются сейчас и будут применяться дальше».

Развитие технологий увеличивает риски?

Александр Укорсуев, начальник отдела повышения уровня защищенности объектов критической информационной инфраструктуры Департамента обеспечения кибербезопасности Минцифры России

Безопасность и развитие – несколько разные направления, но для Минцифры оба важны. Мы за то, чтобы инфраструктура развивалась, технологии внедрялись и благополучно использовались, но, естественно, только в защищенном и доверенном виде (с устройства, подтвержденного как «доверенное»). Несмотря на довольно высокие показатели по оценке внедрений, у Минцифры есть показатели, помогающие оценить защищенность исполнения. В частности, уже полгода действует комплексный показатель, позволяющий оценивать безопасность внедрения ИИ на цифровых платформах. Получены первые результаты, которые мы анализируем и по которым собираем обратную связь от пользователей.

Развиваем проект по анализу защищенности, в котором оцениваем различные методы пентеста (penetration test, тестирование на проникновение и безопасность), внешнего и внутреннего аудита на федеральных информационных системах. Позиция Минцифры позволяет комплексно обеспечить как развитие, так и безопасность. Внедрение технологий, как правило, направлено на облегчение работы или обеспечение безопасности. При этом компании, внедряющие ИИ, сами должны предпринимать все необходимые меры для защиты своих данных. 

Статья подготовлена по материалам конференции «Гарда: сохранить все. Безопасность информации»

Валерия Миронова, Retail.ru

Интервью
Декоративное изображение

Юлия Батенина, «Группа Лента»: «Цифровизация контроля качества позволит заглянуть внутрь авокадо»

Про машинное зрение для контроля качества продуктов фреш и работы сотрудников производства, о подходе к списаниям и рекламациям и многом другом.

Декоративное изображение
Декоративное изображение