本文來自微信公眾號:硅星GenAI (ID:gh_e06235300f0d),作者:周一笑,題圖來自:AI生成
本文來自微信公眾號:硅星GenAI (ID:gh_e06235300f0d),作者:周一笑,題圖來自:AI生成
昨天深夜,月之暗面發布了開源代碼模型Kimi-Dev-72B。這個模型在軟件工程任務基準測試SWE-bench Verified上取得了60.4%的成績,創下開源模型新紀錄,超越了包括DeepSeek在內的多個競爭對手。
然而,當開發者們深入了解這個模型時,發現它明確標注了:Base model:Qwen/Qwen2.5-72B。這引發了一些人的疑問,Kimi-Dev的優異表現,究竟是創新還是“套殼”?
Kimi-Dev-72B:基于Qwen打造的代碼專家
Kimi-Dev-72B并非從零開始訓練的模型。根據月之暗面在Hugging Face上的說明,這個模型明確標注了Base model:Qwen/Qwen2.5-72B。在官方博客中也寫到:以Qwen 2.5-72B基礎模型為起點,我們收集了數百萬個GitHub問題單和PR提交作為中期訓練數據集。這意味著Kimi-Dev是基于阿里巴巴Qwen團隊的72B參數模型進行二次開發的。
從技術角度看,Kimi-Dev的創新主要體現在訓練方法上。月之暗面采用了大規模強化學習技術,讓模型在Docker環境中自主修復真實代碼倉庫的問題,只有當完整測試套件通過時才能獲得獎勵。這種訓練方式確保了模型生成的代碼不僅正確,而且符合實際開發標準。
在軟件工程任務基準測試上,Kimi-Dev-72B展現了出色的性能。它在SWE-bench Verified上取得了60.4%的成績,這是一個專門評估模型解決真實GitHub issues能力的基準測試。相比之下,前一名開源模型的成績僅為約50%左右,Kimi-Dev實現了顯著的提升。
在許可證方面,Kimi-Dev-72B的LICENSE.md文件顯示其采用MIT協議發布。
但同時,月之暗面也在文檔中明確說明:“Kimi-Dev-72B is built with Qwen-2.5-72B.Qwen-2.5-72B is licensed under the Qwen LICENSE AGREEMENT,Copyright(c)Alibaba Cloud.All Rights Reserved.Subject to the Qwen LICENSE AGREEMENT,Kimi-Dev-72B is under MIT license”。
也就是說Kimi-Dev-72B需要遵守Qwen-2.5-72B的原始許可限制,同時將自己的創新工作(即通過強化學習獲得的微調權重)以MIT協議開源。這種做法在開源社區中被稱為“delta權重”發布,即只發布相對于基礎模型的增量部分。
一個“歷史遺留”問題
爭議的起源是社區對“月之暗面是否獲得了使用Qwen-2.5-72B的特殊許可”的質疑。根據Qwen的許可協議體系,雖然較小的模型采用Apache 2.0協議,但72B這個旗艦模型采用的是《通義千問許可協議》(Qwen LICENSE AGREEMENT)。
這份協議規定,當產品的月活躍用戶(MAU)超過1億時,需要向阿里申請商業授權。考慮到Kimi作為熱門AI助手的用戶規模,可能將Kimi-Dev-72B引入其產品,這個限制條款引起了關注。
面對社區詢問,Qwen團隊負責人林俊旸(Junyang Lin)在X平臺上的第一個回復簡短而直接:"no we did not give them the permission"(不,我們沒有給他們授權)。
這個回復立即引發討論,然而,僅僅一個多小時后,林俊旸發布了第二條推文,改變了事件走向:“nvm this is our legacy issue.for qwen3,all are under apache 2.0 now.”(沒事了,這是我們的歷史遺留問題。對于qwen3,現在所有模型都采用apache 2.0協議了。)
林俊旸的第二條推文揭示了問題的本質,這不是月之暗面的違規使用,而是Qwen團隊自身許可策略演進中的“歷史遺留問題”。
具體來說,Qwen2.5系列采用了復雜的分級許可體系:大部分模型(包括0.5?B、1.5?B、7?B、14?B、32?B、VL、Omni等)采用Apache 2.0協議,屬于完全開源許可,而3B和72B模型采用的是《通義千問許可協議》,包含商業限制條款。
這種分級許可策略在開源社區中并不罕見,目的是在推動技術普及的同時保護核心商業利益。但隨著時間推移,Qwen團隊可能意識到這種策略可能會阻礙生態發展。
在2025年4月底發布的Qwen3系列中,所有模型都已經采用了更加開放的Apache 2.0協議。Apache 2.0是一種廣受歡迎的開源協議,它具有以下特點:
商業友好:全球開發者、研究機構和企業均可免費下載并商用,無需額外申請授權。
無限制使用:允許商業使用與二次開發,用戶可以修改代碼并以其他協議重新發布。
社區驅動:通過降低使用門檻,促進更多開發者參與,推動技術的快速迭代和創新。
通過全面轉向Apache 2.0,Qwen試圖構建一個更加開放和活躍的AI生態系統。
在這種背景下,將Kimi-Dev基于“舊協議”模型的使用定性為“歷史遺留問題”,實際上是一種著眼未來,支持生態伙伴的創新的選擇。
開源協作的新范式
從技術角度看,這個案例反映了當前AI創業的現實。根據MosaicML的數據,訓練一個達到GPT-3質量的30B參數模型需要約45萬美元,而更大規模的模型如70B參數級別,成本會達到數百萬美元。對于希望從零開始訓練一個70B模型的機構來說,需要準備好數百萬美元的基礎預算,還需要配備頂尖的AI研究和工程團隊,并且要考慮到隨著技術發展,未來模型的訓練成本可能會進一步攀升。
而月之暗面選擇Qwen-2.5-72B作為基座并非偶然。根據多項評測,Qwen2.5系列在代碼、數學、多語言等方面都達到了業界領先水平。站在這樣的基座模型上,月之暗面可以在類似這樣的研究項目中,將資源集中在自己的核心優勢——強化學習訓練方法上。
NebulaGraph GenAI負責人Wey Gu對硅星人表示:“我認為他們(Kimi)的開放權重、透明地分享paper的工作對社區是非常有益處的”,他還指出,Kimi-Dev分發MIT協議的delta權重文件沒有問題,“不過模型的消費者是繞不過base model的Qwen license的”。
值得注意的是,盡管Kimi-Dev在SWE-bench上取得了優異成績,但實際應用中仍有改進空間。有開發者測試發現,模型生成的代碼有時需要調試才能運行,對復雜需求的理解也不夠完整。這說明即使基于強大的基礎模型,要做出真正優秀的垂直應用仍需要大量創新。
這場“套殼”爭議最終成為了一個行業發展的縮影。開源策略正在從限制性許可向完全開放轉變,這是贏得開發者生態的必然選擇。同時,基于優秀基礎模型的“二次創新”正在興起,關鍵是找到自己的差異化價值。大廠與創業公司不再是簡單的競爭關系,而是在開源生態中形成新的協作模式。
隨著更多的開源模型采用Apache 2.0協議,類似的許可爭議將越來越少。而像Kimi-Dev這樣基于開源模型的專項優化案例,或許會越來越多,這正是開源AI生態繁榮發展的標志。
支持一下 ??修改