Meta推出Llama 3大模型 在集成近25000塊英偉達H100算力集群上訓練快訊
Meta已宣布他們目前正在訓練有4000億參數的Llama 3模型,他們在訓練700億參數的模型時,Meta公司在當地時間周三推出了他們最新一代大語言模型Llama 3的早期版本。
【TechWeb】4月19日消息,據外媒報道,Meta公司在當地時間周三推出了他們最新一代大語言模型Llama 3的早期版本,并宣布推出基于這一模型打造的人工智能助手Meta AI。
從外媒的報道來看,同前一代大模型Llama 2一樣,Meta新一代的Llama 3大模型,也注重供用戶免費使用,目前已有兩種不同參數版本的Llama 3可供用戶使用,分別為80億參數和700億參數,均已可在Meta官網下載。
對于Llama 3大語言模型,Meta公司CEO馬克?扎克伯格在接受采訪時透露,他們在訓練700億參數的模型時,使用了15T tokens的數據,在訓練過程中模型從未達到飽和狀態,也就是從未在能力提升過程中遇到瓶頸,Meta最終也解決了訓練過程中遇到的問題,并轉向訓練其他的模型。
正如外媒在報道中所提到的一樣,Meta目前推出的還只是Llama 3的早期版本,他們還在訓練更強大的模型。外媒在報道中就提到,Meta已宣布他們目前正在訓練有4000億參數的Llama 3模型,部分專家認為他們的這一模型,在MMLU、GPQA、HumanEval、MATH等方面的表現,將與OpenAI的GPT-4 Turbo, Anthropic的Claude 3 Opus和谷歌的Gemini Ultra相當。
作為全球人工智能領域重要參與者的英偉達,在Meta訓練的Llama 3上也發揮了關鍵作用,提供了大量的GPU。
在Meta宣布推出Llama 3之后不久,英偉達就在官網上披露,Meta的工程師是在集成了24,576塊H100 GPU的計算集群上訓練的Llama 3,這些GPU通過英偉達的Quantum-2 InfiniBand網絡連接。在英偉達的支持下,Meta也為他們的旗艦模型調整了網絡、軟件和模型架構。(海藍)
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。