
近日,AMD公司宣布推出其首個完全開放的10億參數語言模型系列——AMD OLMo。這一創新舉措為開發者和研究人員提供了強大的AI研究工具,進一步推動了人工智能領域的發展。
據悉,AMD OLMo模型是基于從零開始訓練的10億參數語言模型系列,在AMD Instinct? MI250 GPU集群上進行了大規模的預訓練。訓練過程中使用了超過1.3萬億個tokens,確保了模型在處理自然語言任務時具備出色的推理能力。
AMD OLMo采用了解碼器(decoder-only)架構,并通過下一個標記預測(next-token prediction)進行訓練。這種架構在生成文本和理解上下文方面表現出色,使得OLMo模型在推理能力和聊天能力上相較于其他同類開源模型具有顯著優勢。在多個基準測試中,OLMo的性能與最新的同類模型相當,但其計算預算僅為后者的一半。
除了數據中心使用外,AMD OLMo還支持配備NPU(Neural Processing Unit,神經處理單元)的AMD Ryzen AI PC進行模型部署。這意味著開發者可以在個人設備上輕松提供AI功能,進一步降低了AI技術的門檻。
值得注意的是,AMD OLMo是完全開源的。這一舉措意味著其他開發者和公司可以自由使用和修改這些模型,從而推動AI技術的創新和發展。對于希望探索AI技術替代方案的企業而言,AMD OLMo無疑是一個可行的選擇。
AMD此次發布的OLMo模型不僅展示了其在AI領域的強大研發實力,也為開發者和研究人員提供了更為便捷和高效的AI研究工具。隨著AI技術的不斷發展,AMD OLMo有望在各個領域發揮重要作用,推動人工智能技術的進一步普及和應用。
原創文章,作者:AI,如若轉載,請注明出處:http://www.bdzhitong.com/article/691886.html