Информационная безопасность для ИИ: как защищать данные при использовании новых технологий?

Стремительное развитие и проникновение в цифровую инфраструктуру алгоритмов ИИ несет не только преимущества, но и повышает риски, расширяет поверхность атаки. Использование искусственного интеллекта и обучение его на корпоративных данных может создавать новые уязвимости, результатом которых станут утечки конфиденциальной информации. В этом материале специально для Cyber Media Юрий Чернышов, к.ф.-м.н., доцент УНЦ «Искусственный интеллект» УрФУ, руководитель исследовательского центра UDV Group, анализирует новую угрозу и ее последствия.

Насколько безопасно доверять ИИ внутреннюю информацию

Одним из мероприятий в программе форума Kazan Digital Week 2025 была панельная дискуссия о безопасности искусственного интеллекта, в которой я принимал участие вместе с экспертами из фонда «Сколково», компаний «Яндекс», «Телеком Интеграция», «Фишман», «Аватек», Банк ПСБ. Обсуждение получилось очень содержательным, интересным, и, на мой взгляд, тезисы состоявшейся дискуссии отражают текущее состояние вопроса безопасности технологий искусственного интеллекта: понимание необходимости защиты есть, но сформировавшихся требований регуляции, технологических подходов, методов, инструментов, а также необходимых профильных специалистов – не хватает. Модели искусственного интеллекта, применяемые в корпоративных задачах, обучаются на конфиденциальных корпоративных данных, поэтому перед бизнесом встает серьезный вопрос: насколько безопасно доверять ИИ внутреннюю информацию и не создаются ли при этом новые уязвимости и каналы для утечки конфиденциальных данных?

В РФ в 2025 году была существенно повышена ответственность за утечку персональных данных. Об этом важно помнить, когда речь идет о внедрении даже самых передовых и инновационных технологий. Искусственный интеллект, особенно системы на базе больших языковых моделей (LLM), всё чаще интегрируется в корпоративные процессы и, кроме персональных данных, работает и с другими данными, утечка которых нежелательна для компании: с пользовательской информацией, финансовыми показателями, коммерческой и технологической тайной, объектами интеллектуальной собственности, сведениями о внутренней инфраструктуре предприятия и многим другим. Эта информация представляет интерес для злоумышленников, целью которых может быть не только прямая кража коммерческих секретов, а, например, проведение первичной OSINT-разведки компании и ее первых лиц, нанесение ущерба или использование инфраструктуры в своих целях, компрометация компании и ухудшение ее репутации в интересах недобросовестной конкуренции. Во всех этих сценариях злоумышленник пытается получить доступ к данным с целью хищения, повреждения или злонамеренной модификации. Это является новой серьезной угрозой информационной безопасности, поэтому во фреймворке «OWASP Top 10 LLM» уязвимость под названием Data Leakage (утечка конфиденциальной информации) включена в список десяти наиболее критичных угроз, связанных с большими языковыми моделями и ИИ агентами.

Для систем искусственного интеллекта защита конфиденциальной информации имеет дополнительную сложность, поскольку термин «информация» в этом случае может означать разное, например:

  • знания ИИ модели, вложенные в нее при основном обучении (pretrain), или дополнительном специализированном дообучении (finetuning),
  • информация в системах хранения и управления знаниями, к которым выполняется доступ через ИИ агентов, решающих конкретные прикладные задачи, в том числе:

— корпоративные базы данных,

— данные систем мониторинга и управления инфраструктурой,

— корпоративный портал,

— CRM,

— система внутреннего документооборота предприятия,

— инструменты разработчиков: репозитории кода git, управление задачами Jira, база знаний Confluence.

  • документы, добавляемые с помощью технологии RAG к запросу в ИИ модель, а также сами эмбеддинги (числовые векторы, соответствующие текстовым документам), которые хранятся в векторной базе
  • наборы данных (датасеты), на которых обучается и валидируется ИИ модель
  • служебные скрипты (промпты), которые могут содержать информацию об инфраструктуре, организационной структуре компании, секреты (конфигурационные файлы, имена пользователей, пароли, авторизационные токены) для доступа к различным системам.

Риски на этапе промпта

Для каждого вида информации в ИИ системах применяются свои методы и инструменты защиты, однако существуют и общие принципы: непрерывный мониторинг и контроль входных и выходных данных, авторизация доступа к ресурсам и минимизация необходимых разрешений доступа, присутствие человека в ключевых точках контроля и принятия решения, постоянный поиск уязвимых мест в системе и проведение проверок защищенности (тестирование на проникновение для ИИ систем). Большинство этих методов составляют содержание новой профессии MLSecOps, то есть обеспечение безопасности процессов в ML проектах.

Сложнее всего защищать знания «внутри» ИИ модели, которые состоят из миллиардов параметров, так как такие знания сложно локализовать алгоритмически, информация распределена среди множества параметров случайным образом. Поэтому нужен тщательный контроль того, какая информация используется при обучении ИИ модели, исключать из обучающей выборки документы, содержащие конфиденциальную информацию или нежелательные сведения и образцы поведения (экстремизм, агрессию). Также конфиденциальная информация может попасть в ИИ модель в ходе взаимодействия с пользователем через пользовательские промпты-запросы. Поэтому необходимо устранить этот риск на этапе анализа промпта-запроса к модели, а также делать дополнительную проверку результата, который дает модель.

При наличии доступа к источникам информации (базам данных, внутренним корпоративным документам на файл-сервере, CRM, корпоративной электронной почте, и т.п.) необходимо реализовывать ролевую модель доступа и применять авторизацию доступа к информации, чтобы ИИ агент не получал доступ к информации, не требующейся ему для выполнения задач. То есть применять тот же подход в вопросах контроля доступа для ИИ агентов, что и для обычных сотрудников.

При открытом пользовательском интерфейсе, позволяющем пользователям (и злоумышленникам) выполнять произвольные запросы к LLM, необходимо организовывать защиту против джейлбрейков, которые заставляют ИИ модели нарушать заложенные при разработке принципы этики и безопасности, а также технологические ограничения.

Где безопасности больше – облако или локальная система

Считается, что развернуть ИИ-систему в собственной локальной защищенной инфраструктуре безопаснее, чем использовать облачные решения. Однако в этом вопросе необходимо учитывать важные технические и организационные детали. Уровень защиты в облачных сервисах сегодня очень высок: они давно находятся в области внимания злоумышленников, работают под большими нагрузками и обрабатывают огромное количество разнообразных запросов. Этот опыт позволил провайдерам облачных ИИ систем сформировать команды специалистов и выстроить процессы, которые повышают уровень информационной безопасности, включая защиту конфиденциальных данных. Открытые модели open-source, напротив, доступны каждому, в том числе злоумышленникам, которые имеют возможность изучать эти модели и искать в них уязвимости в неограниченном объеме времени. Открытые ИИ модели можно установить в полностью изолированной инфраструктуре, в том числе без доступа к Интернету. Но такие модели лишены встроенных механизмов защиты, поэтому для них также необходимо выстраивать собственные процессы мониторинга и реагирования на инциденты, проводить регулярные проверки. И облачные, и локальные решения имеют свои преимущества и ограничения, поэтому выбор подхода должен определяться конкретной задачей и контекстом использования.

Пример, актуальный как для предприятий, так и для обычных пользователей: сегодня существует множество открытых облачных ИИ-сервисов, которые помогают создать презентацию, проанализировать договор или сделать поздравительную открытку. При этом такие сервисы часто запрашивают данные, которые могут быть конфиденциальными: персональную информацию, изображения, схемы, сведения о компании. Подобные решения предоставляют как крупные и надежные провайдеры (например, GigaChat от «Сбер» или YandexGPT от «Яндекса»), так и небольшие неизвестные компании, среди которых могут оказаться злоумышленники. Важно помнить: загружая документ, например текст коммерческого договора, в недоверенную систему, вы фактически раскрываете всю содержащуюся в нем информацию. Если вы не знаете архитектуру и принципы работы ИИ-сервиса, которому передаете данные, или не имеете договорных отношений с поставщиком, где четко определены обязательства по безопасности, стоит понимать, что передача конфиденциальной информации в такую систему небезопасна.

Machine Learning Security Operations – новый подход

Все эти аспекты — выбор архитектуры, защита данных, организация процессов безопасности в системах искусственного интеллекта привели к появлению важной идеологии и, одновременно, новой профессии — MLSecOps.

В основе MLOps/MLSecOps лежит методология DevOps, содержащая инструменты и процессы для оптимизации разработки, повышения скорости вывода продукта в эксплуатацию, улучшения качества и снижения уровня ошибок. Основные задачи DevOps это непрерывный мониторинг и контроль, а также автоматизация задач, возникающих на различных этапах разработки программного обеспечения: написание и валидация кода, хранение и управление версиями кода и конфигурационных файлов, тестирование, сборка системы, управление вспомогательными системными компонентами (контейнеризация, виртуализация, специализированные библиотеки и модули), развертывание в промышленную эксплуатацию. Задачи безопасности в этих процессах решает DevSecOps, в который входят методы контроля и защиты артефактов процесса разработки: контроль качества кода и поиск уязвимостей с помощью анализаторов SAST/DAST, контроль безопасности цепочки поставок сторонних программных модулей и библиотек, безопасность контейнеров и систем виртуализации, а также другие специализированные методы и программное обеспечение, в зависимости от содержания проекта и используемых компонентов.

При появлении машинного обучения (machine learning, ML) усложнилась архитектура проектов, появились новые процессы и артефакты. Существенным отличием в проектах ML является наличие наборов данных (датасетов) и ML моделей, поэтому к новым процессам в ML проектах относятся: сборка/передача/хранение/обработка данных, обучение модели ML, проверка корректности кода модели ML, специализированное тестирование ML (стабильность, устойчивость к помехам в данных), сборка системы и вывод в промышленную эксплуатацию, мониторинг эксплуатации (контроль данных, потребление ресурсов для модели ML, правильность работы). Артефактами ML процессов являются: данные, программные окружения, сами модели ML, программный код, специализированные модули и библиотеки. MLOps это методология решения задач DevOps для ML проектов, а MLSecOps играет ту же роль для MLOps, что DevSecOps для DevOps, то есть защищает процессы и артефакты, возникающие при решении задач MLOps/DevOps: данные, инфраструктуру, модель, специализированные приложения (AI/LLM агенты).

Благодаря такой наследственности в методологиях для MLSecOps многое может быть использовано из MLOps и DevSecOps. Однако существуют новые сложные задачи, для которых пока нет готовых инструментов и подходов, либо они еще не прошли проверку временем и не стабилизировались. Например, не хватает автоматизированных цензоров качества результатов работы LLM систем, поскольку для LLM сложно контролировать качество на уровне содержания и смысла (семантики) ответов, для этого по-прежнему часто привлекают человека эксперта, как на этапе обучения (Reinforcement Learning with Human Feedback, RLHF), так и на этапе валидации в процессе итогового тестирования или эксплуатации. Проблемы могли бы решить эталонные доверенные наборы данных (бенчмарки), которых пока тоже не хватает. И создание таких отраслевых бенчмарков и платформ для независимого тестирования качества работы и безопасности ИИ систем является необходимым условием для прогресса и активного использования ИИ как для производственных задач, так и для обычных пользователей. Важную работу делает в этом направлении созданный в 2024 году «Консорциум исследований безопасности технологий ИИ».

Одной из наиболее сложных задач для MLSecOps является контроль качества работы модели ИИ, поскольку большой проблемой в использовании ИИ являются галлюцинации моделей и информационный сдвиг, из-за которых может исказиться результат. В ML очень сложно анализировать причины ухудшения качества работы модели. Например, тяжело найти причину падения метрики работы модели на 0.1%, что может быть вызвано сдвигом в данных, неправильной моделью, атакой злоумышленника, нарушением работы инфраструктуры или «информационным шумом». MLOps помогает диагностировать причину и принять меры. Или просто быстро вернуть все назад. MLSecOps делает все то же самое, но для безопасности.

Как и в любых других эксплуатируемых системах для систем с GenAI необходимо проводить постоянный поиск и исследование новых возможностей для атак злоумышленников, проводить анализ защищенности всех компонентов системы, включая модели ИИ, в том числе с применением специальных программных средств и методов социальной инженерии. Это требует расширения функционала пентеста, использования новых методик и инструментов.

Важным аспектом, повышающим уровень надежности и защищенности системы с ИИ, является улучшение взаимодействия с пользователями. Это может включать в себя: контроль диалога, отслеживание токсичности, выявление факта применения методов социальной инженерии со стороны пользователя, дополнительные меры аутентификации, в том числе по косвенным признакам, сохранение и использование истории взаимодействия с пользователем. Зачастую проведение специального обучения для пользователей вопросам безопасности работы с ИИ дает очень значимый эффект.

Очень важно накапливать, упорядочивать и распространять лучшие методики и практические сведения о защите ИИ систем. Хорошо, что есть распространяемый мировой опыт в данной области: MITRE, NIST, OWASP, DASF компании DataBricks, NIST AI RMF. Например, 10.09.2025 команда OWASP GenAI Security Project выпустила документ «Threat Defense COMPASS 1.0». Это фреймворк с описаниями проверок безопасности на всех этапах жизненного цикла GenAI-приложений, собранный с опорой на цикл OODA (Observe–Orient–Decide–Act). Описания техник и тактик для атаки и защиты ИИ систем можно найти в MITRE ATLAS. Отечественные исследователи и разработчики также работают в этом направлении, в апреле 2025 года вышла первая российская модель угроз AI: компания Сбер опубликовала модель угроз для кибербезопасности ИИ. Этот документ является очень полезным для повышения уровня осведомленности о возможных угрозах, для планирования и реализации мер защиты. В документе описано 70 угроз для моделей генеративного (GenAI) и предиктивного (PredAI) искусственного интеллекта. Создание подобной модели угроз особенно актуально в свете растущего использования GenAI-моделей в критически важных бизнес-процессах и возникающих, в связи с этим новых киберугроз.

Методы защиты систем с ИИ в настоящее время развиваются, это важно для того, чтобы появляющиеся технологии оставались безопасными, надежными, объяснимыми и управляемыми для человека, соответствовали нормам этики и требованиям регуляции, не выходили за технологические рамки. Компании-разработчики совместно с вузами активно занимаются исследованиями и разработкой систем защиты ИИ. В будущем количество исследований и компаний, занимающихся вопросами безопасности ИИ, включая стартапы, будет увеличиваться, поскольку существует множество открытых для работы ниш: усиление SOC для работы с ИИ системами, разработка и внедрение инструментов полноценного мониторинга инцидентов ИИ, расширение образовательных программ для специалистов по ИБ, разработка методов харденинга инфраструктуры и многое другое.

Компания-разработчик систем ИИ должна обладать необходимой компетенцией в технологиях безопасной разработки DevSecOps и MLSecOps/LLMSecOps, применять эти принципы на практике. Это значит, что анализу защищенности необходимо уделять внимание уже на этапе проектирования архитектуры системы, использовать безопасные паттерны проектирования и безопасного кода, добавлять средства мониторинга защищенности, предусматривать необходимые тесты безопасности. MLSecOps это совокупность процессов, практик и технологий, нацеленных на обеспечение безопасности всего цикла процесса разработки приложений с моделями ИИ, в том числе защищающих доступность, целостность и конфиденциальность моделей и данных. В промышленной разработке и эксплуатации важен непрерывный мониторинг и анализ компонентов создаваемых информационных систем: процессов, интерфейсов взаимодействия, исполняемых инструкций и команд, получаемого и создаваемого контента, пользовательских действий, состояния инфраструктуры. Важнейшими задачами при создании и эксплуатации ИИ систем является постоянный контроль и обеспечение соблюдения норм этики, выполнение требований регуляции.

Вместо итогов

В заключение я хотел бы отметить, что безопасность искусственного интеллекта является стратегической задачей, определяющей доверие к новым технологиям. Развитие ИИ невозможно без системного подхода к защите данных, моделей и инфраструктуры. Именно поэтому методология MLSecOps становится ключевым элементом зрелых ИИ-проектов: она объединяет инженерные практики, процессы мониторинга и методы анализа безопасности, создавая основу для ответственного и безопасного внедрения искусственного интеллекта в бизнес-процессы.

Развитие этой области требует сотрудничества государства, исследовательских центров и компаний-разработчиков, компаний-пользователей ИИ. Только совместными усилиями можно выработать единые стандарты, сформировать отраслевые бенчмарки и создать устойчивую экосистему доверенных решений. Без решения вопросов информационной безопасности для ИИ технологий будет невозможно обеспечить быстрый темп и глубину интеграции ИИ в производственные системы и пользовательские сервисы.

Источник: https://securitymedia.org/info/informatsionnaya-bezopasnost-dlya-ii-kak-zashchishchat-dannye-pri-ispolzovanii-novykh-tekhnologiy.html

Как цифровые технологии предотвращают смертельные ДТП

Новости Искусственного Интеллекта

фото: ИИ спасает дороги США: как камеры и смартфоны предотвращают аварии

Искусственный интеллект меняет подход к безопасности на дорогах США. От видеорегистраторов на Гавайях до мобильной аналитики StreetVision — ИИ сам находит ямы, опасные участки и поврежденные ограждения. Это будущее дорожной инфраструктуры.

Читайте далее

Умные технологии: как искусственный интеллект и аналитика видеопотока помогают бизнесу экономить — от предотвращения краж до оптимизации логистики и HR-процессов

Автор: Фёдор Жидомиров, эксперт рынка систем безопасности России с 20-летним стажем работы в компании «Луис+ Системы безопасности».

В последнее время ведется достаточно много разговоров и дискуссий о применении искусственного интеллекта (ИИ) в видеонаблюдении. В чем отличие стандартной видеоаналитики от нейросетевой видеоаналитики? Стандартная видеоаналитика базируется на детерминистических алгоритмах обработки изображения. К таковой аналитике относится, например, стандартный детектор движения. Для его реализации сравнивается последовательность кадров. Если с какого-то момента в кадре появился новый объект, то такая ситуация уже вызывает сработку детектора. Более сложный пример – появление объекта в выделенной зоне или пересечение линии. По сути, это то же самое сравнение последовательности кадров друг с другом, но тревога подается только тогда, когда в отдельной выделенной зоне видеоизображения появился какой-либо объект.

Искусственный интеллект предполагает применение вероятностных нейросетевых алгоритмов. Для их реализации строится нейросеть, которая заранее обучается распознавать интересующие типы объектов или ситуаций на основе выделенных признаков. Примером может служить распознавание типов транспортных средств. Мы понимаем, что в мире существует бесчисленное множество велосипедов, самокатов, мотоциклов, грузовых и легковых автомобилей, и все они чем-то отличаются друг от друга даже в рамках одного типа. Например, скутер, велосипед и мотоцикл отличаются друг от друга габаритами, цветом, формой, но всегда имеют 2 колеса, в то время как все автомобили — 4 колеса. Идентификацию затрудняет и то, что все эти транспортные средства появляются в поле зрения камеры с разных ракурсов и могут двигаться с различными скоростями. Поэтому ИИ должен определить наличие совокупности основных классификационных признаков и отнести объект к соответствующей категории.

Существуют и другие примеры видеоаналитики на основе ИИ: распознавание пола, возраста и эмоционального состояния людей, распознавание лиц, номеров автомобилей и др. Алгоритмы строятся по тем же принципам — создается нейронная сеть, обучающаяся на верифицированном массиве данных, которая подстраивает внутренние параметры так, чтобы символьное значение номера соответствовало его изображению.

Важно понимать, что нейросетевые алгоритмы носят вероятностный характер. ИИ выдает весьма достоверные, но не 100% точные результаты.

Для реализации даже простой видеоаналитики требуется компьютер. Чем сложнее обработка, тем мощнее должна быть система. Еще 10-12 лет назад вся интеллектуальная обработка изображения реализовывалась с помощью программы Video Management System (VMS), установленной на сервере, который принимал видеопоток от камер, записывал его и обрабатывал, например, фиксировал нарушителя и сохранял тревожные моменты в индексном файле.

Со временем ситуация изменилась. Современная IP-камера — мини-компьютер с процессором, памятью и сетевыми интерфейсами, работающая под Linux, с собственной прошивкой, реализующей базовую видеоаналитику, например, детектор движения или определение объекта в зоне. Алгоритмы достаточно просты, поэтому мощностей камеры хватает. Для сложной нейросетевой аналитики мощности камеры обычно недостаточно.

Решение первое — усиление аппаратной стороны камеры. Сегодня ключевые производители чипов (Hisilicon, Fullhun, Novatec, SigmaStar и др.) выпускают процессоры с возможностями работы с нейросетевой аналитикой прямо на борту камеры. Пример: интеллектуальный видеодетектор распознает номер автомобиля в кадре и отправляет метаданные с буквенно-цифровыми кодами на сервер, где фиксируются эти данные и хранятся для дальнейшей обработки.

Однако встроенные DSP-процессоры увеличивают энергопотребление камер и их стоимость. Еще одна сложность — донастройка нейросети, которая в прошивке камеры труднодоступна пользователю. Поэтому сложная видеоаналитика, например, поведенческая, традиционно обрабатывается на сервере, где проще настроить и адаптировать алгоритмы под задачи.

Приведем некоторые примеры применения интеллектуальной видеоаналитики:

Охрана и предотвращение краж:

  • Системы фиксируют движение, наличие объектов в запретных зонах, пересечение линий, что помогает обнаруживать подозрительных лиц и предотвращать нарушения на объектах.

Система контроля и управления доступом (СКУД):

  • Распознавание автомобильных номеров автоматизирует пропуск на закрытые парковки и объекты.
  • Распознавание лиц упрощает и ускоряет доступ сотрудников и посетителей, снижая риски несанкционированного прохода.

Оптимизация логистики:

  • Видеоаналитика контролирует процессы упаковки и разгрузки товаров, помогает роботам-погрузчикам ориентироваться на складе, считывать QR-коды для ускорения перемещения грузов и повышения точности складских операций.

HR-процессы:

  • Видеосистемы анализируют поведение сотрудников, могут фиксировать эмоции, время присутствия, контроль соблюдения регламентов и стандартов, помогая улучшать дисциплину и производительность.

Интеллектуальная видеоаналитика всё глубже интегрируется в жизнь бизнеса и общества. С одной стороны, она становится незаменимым помощником, позволяющим сохранять вложенные инвестиции и повышающим безопасность и эффективность на предприятиях и в организациях. С другой — выступает драйвером развития сложных программных систем и современных микропроцессорных технологий. Будущее за автоматизированными решениями, которые позволят бизнесу сокращать издержки, улучшать управление и обеспечивать высокий уровень безопасности.

Источник: https://securika-moscow.ru/ru/about/news/2025/november/05/kak-iskusstvennyj-intellekt-i-analitika-videopotoka-pomogayut-biznesu-ehkonomit/

«  1   2   3   4   5   6   7   8   9   10   11  »

Пользовательское соглашение

Опубликовать
Яндекс.Метрика