Недавно была опубликована информация о критическая уязвимость (CVE-2025-10725) в Red Hat OpenShift AI Service. Это постановление, которое напрямую влияет на среды, используемые для запуска и обучения моделей ИИ, позволяет непривилегированному пользователю получить полный административный контроль над кластером, ставя под угрозу данные, модели и работающие приложения.
Оценка серьезности: 9.9 из 10Уязвимость открывает возможность для полного повышения привилегий: от доступа с аутентификацией без специальных разрешений (например, исследователь, использующий Jupyter Notebook) до полного доминирования в среде, включая root-доступ к главным узлам. Этот сценарий не только ставит под угрозу целостность систем, но и поднимает актуальные вопросы о методах обеспечения безопасности при развертывании корпоративных ИИ-инфраструктур.
Причина сбоя: неправильное назначение в системе контроля доступа.
Упоминается, что ошибка CVE-2025-10725 Причиной является ошибка конфигурации системы ролевого контроля доступа. (RBAC) Kubernetes. В частности, роль «kueue-batch-user-role» была ошибочно назначен в группу «system:authenticated», предоставляя неправомерные привилегии любому аутентифицированному пользователю системы.
Эта ошибка разрешено создание рабочих мест в любом пространстве имен, включая высокопривилегированный «openshift-apiserver-operator», откуда Злоумышленник может выполнять задачи с разрешениями ServiceAccount. Попав внутрь, можно было извлечь привилегированные токены доступа, использовать их для повышения привилегий и в конечном итоге получить полный контроль над кластером.
Помимо технической серьёзности, эта уязвимость демонстрирует, как небольшие ошибки в критических конфигурациях могут привести к катастрофическим последствиям в сочетании со сложными архитектурами ИИ и Kubernetes. В отличие от традиционных эксплойтов на уровне приложений, CVE-2025-10725 использует структурную слабость в системе оркестровки, расширяя сферу риска на всю экосистему искусственного интеллекта предприятия.
Последствия
Для Red Hat и ее материнской компании IBM, Этот инцидент представляет собой прямой вызов его репутации. Будучи надежным поставщиком корпоративных решений с открытым исходным кодом, компании, которые полагаются на OpenShift AI (от банков и больниц до технологических компаний), теперь должны применять экстренные исправления и пересматривать свою инфраструктуру MLOps, чтобы гарантировать безопасность своих операций.
Это также влияет на конкурентную среду, поскольку конкурирующие платформы такие как Google Cloud AI, Microsoft Azure Machine Learning и Amazon SageMaker могли бы извлечь выгоду из этой ситуации, При условии, что они продемонстрируют высокий уровень безопасности и соответствия требованиям. С другой стороны, стартапы, специализирующиеся на безопасности ИИ, могут столкнуться с ростом спроса на такие услуги, как аудит RBAC, обнаружение ошибок конфигурации и автоматизированное обеспечение безопасности для Kubernetes.
Более широкие последствия: проблема защиты инфраструктуры ИИ
CVE-2025-10725 подтверждает все более очевидную тенденцию: взаимосвязь традиционной кибербезопасности и инфраструктуры искусственного интеллекта. По мере того, как модели ИИ становятся интегрированными в производственных условиях, его поверхность атаки расширена, от манипулирования данными до эксплуатации уязвимостей базовой инфраструктуры.
Успешная атака на кластер ИИ может не только поставить под угрозу данные конфиденциальной или интеллектуальной собственности, но также изменяют поведение моделей, вносят искажения или даже нарушают работу критических системЭтот риск становится особенно тревожным в таких секторах, как оборона, здравоохранение и финансы, где надежность интеллектуальных систем имеет жизненно важное значение.
Уязвимость OpenShift AI знаменует собой поворотный момент, поскольку Атаки теперь не просто теоретические, а реальные подвиги эксплуатирующие человеческие ошибки и уязвимости конфигурации. Это подчёркивает необходимость принятия комплексных подходов к обеспечению безопасности, охватывающих как инфраструктуру, так и весь цикл разработки ИИ.
Немедленная реакция Red Hat и технологического сообщества будет иметь решающее значение для восстановления доверия. Ожидается, что будущие версии OpenShift AI будут включать более безопасные конфигурации RBAC по умолчанию, автоматизированные инструменты обнаружения ошибок конфигурации и улучшенные механизмы изоляции между сервисами.
В долгосрочной перспективе эта уязвимость будет определять принцип «безопасности по умолчанию» в рамках жизненного цикла разработки ИИ. Безопасность должна быть постоянным приоритетом — от получения данных до развертывания модели.
Если вам интересно узнать больше об этом, вы можете ознакомиться с подробностями на сайте по следующей ссылке.