
加拿大人工智能初創企業Cohere于昨日正式推出輕量化大語言模型Command A。該產品主打低硬件配置部署,公司宣稱僅需配備兩塊英偉達A100或H100顯卡即可運行,現已在Hugging Face平臺開放學術機構測試。
據技術文檔顯示,Command A支持256k超長上下文處理及23種語言交互,適用于數據分析、客戶服務等企業場景。在速度測試中,該模型實現每秒156個token的生成效率,較GPT-4o提升75%。企業強調,該產品專為算力資源有限的中小企業設計,較傳統大模型減少94%的硬件投入。
Cohere技術團隊在演示中對比顯示,執行SQL查詢生成任務時,Command A在雙顯卡環境下的響應速度與需要32塊顯卡的競品模型持平。在工具調用準確性測試中,其醫療診斷指令追蹤準確率達到89%,金融數據分析誤差率控制在2%以內。
值得關注的是,該模型特別優化了延遲控制,在連續對話場景中保持800毫秒內的響應速度。企業透露,已有加拿大連鎖零售集團將該模型應用于實時庫存管理系統,成功將數據處理時長從45分鐘壓縮至8分鐘。
目前,Command A的1.0版本已部署在Hugging Face平臺,提供免費學術授權。企業計劃于今年第三季度在AWS、Azure等主流云平臺上線商用版本,并承諾保持基礎版永久免費。行業數據顯示,這是首個實現雙顯卡部署的百億參數級大語言模型。
此次發布恰逢全球AI算力成本攀升節點,微軟、谷歌等科技巨頭近期相繼上調云服務價格。Cohere首席執行官艾丹·戈麥斯表示,Command A系列后續將推出移動端適配版本,進一步降低企業AI應用門檻。
原創文章,作者:AI,如若轉載,請注明出處:http://www.bdzhitong.com/article/710360.html