梁文鋒論文登上《自然》封面,正面回應DeepSeek-R1蒸餾質疑快訊
DeepSeek為DeepSeek-R1新增了一份全面的安全報告,《自然》雜志還公布了同行評審報告,DeepSeek-R1也成為全球首個經過同行評審的主流大語言模型。
【TechWeb】9月17日消息,由DeepSeek團隊共同完成、梁文鋒擔任通訊作者的DeepSeek-R1推理模型研究論文,登上了國際權威期刊《自然(Nature)》的封面。《自然》雜志還公布了同行評審報告,DeepSeek-R1也成為全球首個經過同行評審的主流大語言模型。
發表在《自然》雜志的新版DeepSeek-R1論文,與今年1月未經同行評審的初版有較大差異,披露了更多模型訓練的細節,并正面回應了模型發布之初的蒸餾質疑。
DeepSeek-R1發布之初,曾有傳聞稱該模型使用了OpenAI的模型進行蒸餾。在同行評審文件中,DeepSeek介紹,DeepSeek-R1的基座模型DeepSeek-V3 Base使用的數據全部來自互聯網,可能包含GPT-4生成的結果,但絕非有意而為之,DeepSeek-V3-Base并沒有引入在合成數據集上進行大規模監督蒸餾的“冷卻”階段。。
DeepSeek-V3-Base的數據截止時間為2024年7月,當時尚未發布任何公開的先進推理模型,這進一步降低了從現有推理模型中無意蒸餾的可能性。
DeepSeek為DeepSeek-R1新增了一份全面的安全報告,對DeepSeek-R1的安全性進行了全面評估,證明其安全性領先同期發布的前沿模型。
報告提到,DeepSeek-R1在服務部署中引入了外部風險控制系統,不僅可以基于關鍵詞匹配識別不安全對話,還使用DeepSeek-V3直接進行風險審查,判斷是否應拒絕響應。DeepSeek建議開發者在使用DeepSeek-R1時,部署類似的風險控制系統。
在公開安全基準測試和內部安全研究中,DeepSeek-R1在大多數基準上超過了Claude-3.7-Sonnet、GPT-4o等前沿模型。開源部署版本的安全性雖不及具備外部風險控制系統的版本,但仍擁有中等水平的安全保障。
《自然》雜志評價道:目前幾乎所有主流的大模型都還沒有經過獨立同行評審,這一空白“終于被DeepSeek打破”。隨著AI技術日漸普及,大模型廠商們無法驗證的宣傳可能對社會帶來真實風險。依靠獨立研究人員進行的同行評審,是抑制AI行業過度炒作的一種有效方式。(宜月)
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。