
在人工智能領域,一場新的競賽正在激烈展開。昨日,被譽為“歐洲版OpenAI”的法國公司Mistral AI悄然發布了一款全新的MoE(專家混合)大模型——Mixtral 8x22B。這款模型的參數規模高達1760億,僅次于馬斯克的Grok-1,成為了市場上參數規模第二大的開源模型。
Mixtral 8x22B的發布引起了業界的廣泛關注。該模型由8個專家模型構成,每個模型的參數規模達到了220億,模型文件大小約為262GB。在性能上,Mixtral 8x22B在多項測評中取得了令人矚目的成績,尤其是在MMLU(大規模多任務語言理解)測試中,該模型成功登頂開源模型榜首,同時在Hellaswag、TruthfulQA、GSM8K等多項測評中,成績超越了Llama 2 70B、GPT-3.5以及Claude 3 Sonnet等競爭對手。
值得一提的是,盡管Mixtral 8x22B的發布方式相對低調,但其在開源社區中卻引起了巨大的反響。在放出磁力鏈接后不久,Mixtral 8x22B便迅速上架了開源社區Hugging Face,用戶可以進一步對其進行訓練和部署。AI搜索平臺Perplexity Labs和開源平臺Together AI也迅速提供了對該模型的支持。
在性能優化方面,AI科學家賈揚清表示,通過合理的量化,Mixtral 8x22B可以在4個A100/H100顯卡上運行,實際上,只需要3張A100顯卡就足夠支持其運行。此外,蘋果機器學習研究員Awni Hannun也指出,Mixtral 8x22B模型在蘋果機器學習框架MLX上使用M2 Ultra芯片運行良好,并發布了MLX社區中的4位量化模型。
Mistral AI的這一重大突破不僅體現了法國在人工智能領域的強大實力,也進一步推動了全球AI技術的發展。隨著開源社區的快速發展,Mixtral 8x22B的發布無疑將為更多開發者和研究人員提供新的機遇和挑戰。
此外,Mistral AI的成就也反映了法國AI生態的蓬勃發展。近年來,法國在AI領域取得了顯著的進步,從計算機培訓學校的創辦到深度學習研究院的成立,再到創業園區的興起,法國已經成為全球AI領域的重要力量。
與此同時,法國AI生態的崛起也吸引了全球科技巨頭的關注。谷歌DeepMind在巴黎開設實驗室,進一步證明了法國在AI領域的吸引力。而Mistral AI的成功,更是為法國AI生態的未來發展注入了強大的動力。
隨著人工智能技術的不斷發展,我們期待看到更多像Mistral AI這樣的公司能夠涌現出來,推動全球AI技術的進步,為人類社會的未來發展貢獻更多的智慧和力量。
原創文章,作者:AI,如若轉載,請注明出處:http://www.bdzhitong.com/article/646396.html