Sztuczna inteligencja w jądrze Linuksa: IBM proponuje samooptymalizację, a Chris Mason proponuje automatyczne recenzowanie

Kluczowe punkty:
  • Serwer proxy jądra łączyłby się z modelami AI w przestrzeni użytkownika, aby uniknąć spadku wydajności.
  • Chris Mason publikuje monity dotyczące korzystania z Claude Code w wykrywaniu błędów i przeglądaniu poprawek.
  • Nowe narzędzia dostarczają LLM-om dane techniczne pozwalające ograniczyć liczbę fałszywych wyników do 10%.
  • Uczenie maszynowe umożliwiłoby przewidywanie błędów pamięci masowej i automatyczne dostosowywanie logiki podsystemów.
ia-uczenie-maszynowe-jądro-linux-ibm-chris-mason-proposals

ia-uczenie-maszynowe-jądro-linux-ibm-chris-mason-proposals

Jądro Linuxa, serce wszystkiego, od superkomputerów po telefony z systemem Android, przygotowuje się na transfuzję sztucznej inteligencji.

W ramach skoordynowanego działania obejmującego firmy IBM i Meta kluczowi programiści zaczęli badać, w jaki sposób uczenie maszynowe może nie tylko pomóc w pisaniu kodu, ale także jak można je zintegrować z samym jądrem systemu operacyjnego, aby optymalizować je w czasie rzeczywistym.

Wiaczesław Dubeyko, Inżynier IBM przedstawił propozycję na liście mailingowej programistów jądra: aby dać Linuksowi zdolność do samodzielnej ewolucji. Jego wizja nie jest bez znaczenia: zintegrować bibliotekę uczenia maszynowego bezpośrednio z jądrem tak aby podsystemy mogły podejmować inteligentne decyzje w oparciu o dane, bez konieczności ręcznej ingerencji człowieka.

Koncepcja jest rewolucyjna, ponieważ na przykład moglibyśmy mieć system plików, który przewiduje awarie dysków przed które występują, lub harmonogram zadań, który dynamicznie dostosowuje swoje ustawienia W zależności od obciążenia, system uczy się na podstawie wcześniejszych wzorców użytkowania. Dubeyko zdaje sobie jednak sprawę z wyzwań technicznych. Jądro nie obsługuje bezpośrednio operacji zmiennoprzecinkowych (niezbędnych do obliczeń sieci neuronowych), a trenowanie modelu w jądrze obniżyłoby wydajność całego systemu.

Ogólnie rzecz biorąc, uczenie maszynowe może wprowadzić samorozwijający się model i z cMożliwość samouczenia się jądra Linuksa. Badania już trwają. i wysiłki branży mające na celu wykorzystanie podejść ML do konfiguracjiOptymalizacja jądra Linuksa. Jednak wprowadzenie podejść opartych na uczeniu maszynowym iW przypadku jądra Linuxa sprawa nie jest już taka prosta i jednoznaczna.

Su Proponowane rozwiązanie jest architekturą hybrydowąPełnomocnik modelu uczenia maszynowego w jądrze, działający jako pośrednik. Ciężkie zadanie (uczenie i złożone wnioskowanie) Działałby w przestrzeni użytkownika (gdzie znajdują się normalne aplikacje), komunikujące się z jądrem poprzez interfejsy takie jak sysfs. Ten serwer proxy umożliwiłby jądru działanie w różnych trybachOd „trybu uczenia się”, w którym wstępnie testuje rekomendacje sztucznej inteligencji, do pełnego „trybu rekomendacji”, w którym model jest już na tyle dojrzały, że może prześcignąć tradycyjne algorytmy statyczne.

Model uczenia ciągłego można zastosować w fazie treningu. Oznacza to, że podsystem jądra może otrzymywać rekomendacje z modelu uczenia maszynowego. Nawet w fazie treningu serwer proxy po stronie jądra dla modelu uczenia maszynowego może oszacować aktualny stan podsystemu jądra, podjąć próbę wdrożenia rekomendacji i oszacować ich efektywność.

Claude Code jako recenzent poprawek

Podczas gdy IBM dąży do wbudowania sztucznej inteligencji w jądro, Chris Mason, twórca systemu plików Btrfs (i obecnie w Meta), chce go użyć do zbudowania. Mason opublikował monity do recenzji, zestaw narzędzi zaprojektowanych przekształcić asystentów AI, takich jak Claude Code, w ekspertów w zakresie recenzowania kodu.

La Chodzi o to, aby uporać się z jednym z największych wąskich gardeł w rozwoju Linuksa: przegląd poprawek. Projekt Masona dostarcza sztucznej inteligencji brakujący kontekst (specyfikacje techniczne podsystemów, dokumentację protokołów i listy typowych błędów), dzięki czemu może ona analizować proponowane zmiany z „rygorem”. Ich system dzieli duże poprawki na mniejsze zadania, analizuje wykresy wywołań i sprawdza, czy poprawki są skuteczne. Propozycje dotyczące błędów zgłaszanych przez narzędzia typu syzkaller są rzeczywiście trafne.

Choć jest to wciąż eksperyment, wyniki są obiecujące: Dzięki odpowiednim instrukcjom, wskaźnik fałszywych alarmów sztucznej inteligencji spadł do 10%. Celem nie jest zastąpienie ludzkich opiekunów, ale zapewnienie im „drugiego pilota”, który może wstępnie analizować tysiące linii kodu, które otrzymują, generując automatyczne raporty (w formacie review-inline.txt) gotowe do wysłania na listy mailingowe.

Dzięki tym dwóm inicjatywom społeczność Linuksa wkracza na nieznane terytorium, na którym system operacyjny nie tylko wykonuje kod, ale także uczy się optymalizować i korygować sam siebie.

Na koniec, jeśli jesteś zainteresowany, aby dowiedzieć się więcej na ten temat, możesz zapoznać się z szczegóły w poniższym linku.