Linus Torvalds:Linux 文件不是用來搞反人工智慧運動的。

關鍵點:
  • Torvalds稱利用文件來對抗「人工智慧垃圾」的立場是「荒謬的」。
  • AUTOSEL 工具已經將人工智慧引入內核,用於選擇修補程式和修復程式。
  • 自動調音的類比:人工智慧可以放大天賦或平庸,但它不能取代責任。
  • Sasha Levin(Nvidia)示範如何有效地利用人工智慧在核心 6.16 中編寫例程。
  • 重點應該放在技術品質和可驗證性上,而不是所用工具的道德性。

騙子中的萊納斯·托瓦爾茲

當 Linus Torvalds 決定介入一場公開討論時,自由軟體社群都會屏息以待。 Linux核心的創建者, 他以厭惡溫和的共識和常常殘酷的坦率而聞名。 他發表了一篇充滿激烈批評的新演講…

這次 針對試圖轉換文件的行為 核子技術 在戰場上 對人工智慧生成的內容(稱為「AI垃圾」)的意識形態反對。

這場爭議源自於一連串電子郵件的往來。 與 Oracle 旗下開發人員 Lorenzo Stokes 一起, 持謹慎和批判態度的人 與大型語言模型(LLM)相比。為了回應一項旨在製定機器人輔助貢獻指南的倡議, 斯托克斯認為,將LLM僅僅視為另一種工具是一種天真的態度。

La 托瓦爾茲的回答既迅速又犀利。:

技術文件不是發表道德言論或政治宣言的地方。

實用主義與象徵行動主義

中心論點 托瓦茲不否認低品質人工智慧生成程式碼的存在。相反,他質疑透過在文件中添加警告來規範人工智慧程式碼的有效性。在他看來,提交「人工智慧垃圾」程式碼的開發者不會像某些人那樣標記他們的補丁,無論規則如何規定。因此,用他的話來說,在文件中充斥道德警告是一種毫無意義的姿態,只會讓規則制定者的良心得到安慰,而不會真正提高程式碼品質。

Torvalds 堅持認為,這份文件是為誠實的開發者編寫的。 試圖透過道德條款來解決程式碼品質問題是錯誤的。 對Linux之父來說,核心必須保持中立。 鑑於人工智慧所使用的技術,對於人工智慧的看法已經存在很大分歧,有人認為它是世界末日,有人則認為它是最終解決方案;內核文件不應選邊站隊,而應僅限於建立可驗證性和問責制的技術標準。

人工智慧時代已經來臨:AUTOSEL 案例

這場辯論的諷刺之處在於 道德 人工智慧已經運作多年了。 默默地存在於Linux生態系中。 內核穩定化過程,一項艱鉅的任務 這就需要決定將哪些補丁套用到穩定分支上。他長期以來一直依賴 AUTOSEL。。這個工具, 旨在自動選擇相關補丁 基於統計模型,它最近發展並融入了先進的人工智慧技術,包括嵌入技術,使其能夠分析程式碼和註釋的語義含義。

英偉達資深工程師 Sasha Levin 在 2025 年開源高峰會上闡述了這個現實。 萊文解釋了他如何使用人工智慧編寫完整的程式。 對於內核 6.16 中的 git-resolve, 他只負責審查和測試最終產生的程式碼。這個例子凸顯了高階工程領域的主流觀點:該工具能夠加速錯誤尋找和修正,使人們能夠專注於驗證工作。甚至像維基媒體的德米特里·布蘭特這樣的資深開發者也公開記錄了他們使用 Claude Code 等輔助工具來改造使用了幾十年的控制器。

自動調音與人類責任的類比

為了解釋他對人工智慧的理念 在創意開發方面, 托瓦爾茲用音樂術語做了類比:自動調音。 為了他, 人工智慧之於編程,如同自動調音之於音樂。 如果讓缺乏天賦的人唱歌,結果往往平庸且不自然。然而,在經驗豐富的製作人手中,它卻是一個強大的潤飾和精煉工具。真正的才華並不需要人工智慧來進行創作,但他們可以利用人工智慧來完成組織工作、進行驗證,並消除進入門檻。

最終, 托瓦爾茲的立場是呼籲個人承擔責任。工具,無論是語言學習工具或編譯器,都會放大使用者的技能,同時也放大他們的錯誤。對於像 Linux 核心這樣至關重要的專案而言,重要的不是程式碼的來源(無論是熬夜的人類編寫的還是神經網路生成的),而是程式碼的準確性、可維護性和正確性。將文件變成反對科技的宣傳冊,會分散人們對真正重要的東西的注意力:技術品質和嚴格的人工審核。