當 Linus Torvalds 決定介入一場公開討論時,自由軟體社群都會屏息以待。 Linux核心的創建者, 他以厭惡溫和的共識和常常殘酷的坦率而聞名。 他發表了一篇充滿激烈批評的新演講…
這次 針對試圖轉換文件的行為 核子技術 在戰場上 對人工智慧生成的內容(稱為「AI垃圾」)的意識形態反對。
這場爭議源自於一連串電子郵件的往來。 與 Oracle 旗下開發人員 Lorenzo Stokes 一起, 持謹慎和批判態度的人 與大型語言模型(LLM)相比。為了回應一項旨在製定機器人輔助貢獻指南的倡議, 斯托克斯認為,將LLM僅僅視為另一種工具是一種天真的態度。
La 托瓦爾茲的回答既迅速又犀利。:
技術文件不是發表道德言論或政治宣言的地方。
實用主義與象徵行動主義
中心論點 托瓦茲不否認低品質人工智慧生成程式碼的存在。相反,他質疑透過在文件中添加警告來規範人工智慧程式碼的有效性。在他看來,提交「人工智慧垃圾」程式碼的開發者不會像某些人那樣標記他們的補丁,無論規則如何規定。因此,用他的話來說,在文件中充斥道德警告是一種毫無意義的姿態,只會讓規則制定者的良心得到安慰,而不會真正提高程式碼品質。
Torvalds 堅持認為,這份文件是為誠實的開發者編寫的。 試圖透過道德條款來解決程式碼品質問題是錯誤的。 對Linux之父來說,核心必須保持中立。 鑑於人工智慧所使用的技術,對於人工智慧的看法已經存在很大分歧,有人認為它是世界末日,有人則認為它是最終解決方案;內核文件不應選邊站隊,而應僅限於建立可驗證性和問責制的技術標準。
人工智慧時代已經來臨:AUTOSEL 案例
這場辯論的諷刺之處在於 道德 人工智慧已經運作多年了。 默默地存在於Linux生態系中。 內核穩定化過程,一項艱鉅的任務 這就需要決定將哪些補丁套用到穩定分支上。他長期以來一直依賴 AUTOSEL。。這個工具, 旨在自動選擇相關補丁 基於統計模型,它最近發展並融入了先進的人工智慧技術,包括嵌入技術,使其能夠分析程式碼和註釋的語義含義。
英偉達資深工程師 Sasha Levin 在 2025 年開源高峰會上闡述了這個現實。 萊文解釋了他如何使用人工智慧編寫完整的程式。 對於內核 6.16 中的 git-resolve, 他只負責審查和測試最終產生的程式碼。這個例子凸顯了高階工程領域的主流觀點:該工具能夠加速錯誤尋找和修正,使人們能夠專注於驗證工作。甚至像維基媒體的德米特里·布蘭特這樣的資深開發者也公開記錄了他們使用 Claude Code 等輔助工具來改造使用了幾十年的控制器。
自動調音與人類責任的類比
為了解釋他對人工智慧的理念 在創意開發方面, 托瓦爾茲用音樂術語做了類比:自動調音。 為了他, 人工智慧之於編程,如同自動調音之於音樂。 如果讓缺乏天賦的人唱歌,結果往往平庸且不自然。然而,在經驗豐富的製作人手中,它卻是一個強大的潤飾和精煉工具。真正的才華並不需要人工智慧來進行創作,但他們可以利用人工智慧來完成組織工作、進行驗證,並消除進入門檻。
最終, 托瓦爾茲的立場是呼籲個人承擔責任。工具,無論是語言學習工具或編譯器,都會放大使用者的技能,同時也放大他們的錯誤。對於像 Linux 核心這樣至關重要的專案而言,重要的不是程式碼的來源(無論是熬夜的人類編寫的還是神經網路生成的),而是程式碼的準確性、可維護性和正確性。將文件變成反對科技的宣傳冊,會分散人們對真正重要的東西的注意力:技術品質和嚴格的人工審核。