Наскоро беше публикувана информация за критична уязвимост (CVE-2025-10725) в услугата Red Hat OpenShift AI. Това решение, което пряко засяга средите, използвани за изпълнение и обучение на модели с изкуствен интелект, позволява на непривилегирован потребител да получи пълен административен контрол над клъстер, компрометирайки данни, модели и работещи приложения.
Оценено с тежест 9.9 от 10Уязвимостта отваря вратата за пълна ескалация на привилегиите: от удостоверен достъп без специални разрешения (напр. изследовател, използващ Jupyter Notebook) до пълна доминация в средата, включително root достъп до главни възли. Този сценарий не само компрометира целостта на системите, но и повдига неотложни въпроси относно практиките за сигурност при внедряването на корпоративни инфраструктури с изкуствен интелект.
Произход на повредата: неправилно присвояване в контрола на достъпа
Споменава се, че грешката CVE-2025-10725 Това се дължи на грешка в конфигурацията в системата за контрол на достъпа, базирана на роли. (RBAC) на Kubernetes. По-конкретно, ролята „kueue-batch-user-role“ беше погрешно присвоен на групата „system:authenticated“, предоставяйки неправомерни привилегии на всеки удостоверен потребител на системата.
Тази грешка позволява създаването на работни места във всяко пространство от имена, включително силно привилегирования „openshift-apiserver-operator“, откъдето Атакуващ може да изпълнява задачи с разрешения за ServiceAccount. Веднъж влезли вътре, стана възможно да се извлекат токени за привилегирован достъп, да се използват за ескалиране на привилегиите и в крайна сметка да се постигне пълен контрол над клъстера.
Освен техническата сериозност, тази уязвимост отразява как малки грешки в критични конфигурации могат да доведат до катастрофални последици, когато се комбинират със сложни архитектури на изкуствен интелект и Kubernetes. За разлика от традиционните експлойти на ниво приложение, CVE-2025-10725 използва структурна слабост в системата за оркестрация, разширявайки обхвата на риска за цялата екосистема на корпоративния изкуствен интелект.
Последствия
За Red Hat и компанията майка IBM, Инцидентът представлява пряко предизвикателство към репутацията му Като надежден доставчик на корпоративни решения с отворен код, компаниите, които разчитат на OpenShift AI – от банки и болници до технологични фирми – вече трябва да прилагат аварийни корекции и да преглеждат своята MLOps инфраструктура, за да гарантират сигурността на своите операции.
Това влияе и върху конкурентната среда, тъй като конкурентни платформи като например Google Cloud AI, Microsoft Azure Machine Learning и Amazon SageMaker биха могли да се възползват от ситуацията, стига да демонстрират превъзходни нива на сигурност и съответствие. От друга страна, стартиращите компании, специализирани в AI сигурността, биха могли да видят увеличено търсене на услуги като RBAC одити, откриване на неправилна конфигурация и автоматизирана сигурност за Kubernetes.
По-широки последици: Предизвикателството за защита на инфраструктурата с изкуствен интелект
CVE-2025-10725 засилва една все по-очевидна тенденция: припокриването между традиционната инфраструктура за киберсигурност и изкуствения интелект. С интегрирането на моделите с изкуствен интелект в производствени среди, повърхността му за атака е разширена, вариращи от манипулиране на данни до използване на уязвимости в основната инфраструктура.
Успешната атака срещу клъстер с изкуствен интелект може не само да компрометира данни поверителна или интелектуална собственост, но също така променят поведението на моделите, въвеждат отклонения или дори нарушават критични системиТози риск става особено тревожен в сектори като отбраната, здравеопазването и финансите, където надеждността на интелигентните системи е жизненоважна.
Уязвимостта на OpenShift AI бележи повратна точка, тъй като Атаките вече не са просто теоретични, а реални експлойти които използват човешки грешки и слабости в конфигурацията. Това подчертава необходимостта от приемане на всеобхватни подходи за сигурност, които обхващат както инфраструктурата, така и целия цикъл на разработване на изкуствен интелект.
Незабавната реакция от Red Hat и технологичната общност ще бъде от решаващо значение за възстановяване на доверието. Очаква се бъдещите версии на OpenShift AI да интегрират по-сигурни конфигурации по подразбиране за RBAC, автоматизирани инструменти за откриване на неправилни конфигурации и подобрени механизми за изолация между услугите.
В дългосрочен план тази уязвимост ще задвижи принципа на „сигурност още при проектирането“ в рамките на жизнения цикъл на разработка на изкуствен интелект. От приемането на данни до внедряването на модела, сигурността трябва да бъде постоянен приоритет.
Ако се интересувате да научите повече за това, можете да проверите подробностите на следната връзка.