智譜GLM-4.1V-9B-Thinking大模型登頂 HuggingFace Trending快訊
智譜旗下GLM-4.1V-9B-Thinking 憑借 9B 的模型尺寸,其輕量版 GLM-4.1V-9B-Thinking 模型參數控制在 10B 級別,//huggingface.co/THUDM/GLM-4.1V-9B-Thinking。
【TechWeb】以小博大,智譜旗下GLM-4.1V-9B-Thinking 憑借 9B 的模型尺寸,排名HuggingFace Trending 第一。

據介紹,GLM-4.1V-Thinking 是一款支持圖像、視頻、文檔等多模態輸入的通用推理型大模型,專為復雜認知任務設計。它在 GLM-4V 架構基礎上引入“思維鏈推理機制(Chain-of-Thought Reasoning)”,采用“課程采樣強化學習策略(RLCS, Reinforcement Learning with Curriculum Sampling)”,系統性提升模型跨模態因果推理能力與穩定性。
其輕量版 GLM-4.1V-9B-Thinking 模型參數控制在 10B 級別,在兼顧部署效率的同時實現性能突破。該模型在 MMStar、MMMU-Pro、ChartQAPro、OSWorld 等 28 項權威評測中,有 23 項達成 10B 級模型的最佳成績,其中 18 項更是持平或超越參數量高達 72B 的 Qwen-2.5-VL,充分展現了小體積模型的極限性能潛力。
【開源地址】
Github:
https://github.com/THUDM/GLM-4.1V-Thinking
Hugging Face:
https://huggingface.co/THUDM/GLM-4.1V-9B-Thinking
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。