3月17日,據外媒報道,美國人工智能(AI)研究公司OpenAI在本周二推出了新一代大型語言模型GPT-4,但它并沒有提供有關GPT-4的技術細節,這讓AI社區的許多人感到失望。
GPT-4在文本和圖像方面的“多模態”訓練將使它能夠擺脫聊天框,更充分地模擬一個擁有色彩和圖像的世界,在其“高級推理能力”方面超過ChatGPT。對此,OpenAI的首席科學家兼聯合創始人伊利亞·蘇茨科弗(Ilya Sutskever)表示,OpenAI不分享更多關于GPT-4信息的原因(害怕競爭和對安全的擔憂)是“不言自明的”。
他說:“在競爭格局方面,競爭是激烈的。GPT-4不容易開發,OpenAI所有人花了很長時間才做出這個東西,還有很多很多公司也想做同樣的事情,所以從競爭的角度來看,你可以把這看作是該領域的成熟。”
他還表示:“這些模型非常強,而且會變得越來越強。在某種程度上,如果有人想的話,很容易用這些模型造成很大傷害。隨著性能的提高,你不想透露它們是有道理的。我預計,幾年后,每個人都會完全明白,開源人工智能是不明智的。”
OpenAI首席執行官山姆·奧特曼(Sam Altman)也認為,AI會帶來真正的危險,但它也可能是“人類迄今為止開發出來的最偉大的技術”,可以極大地改善我們的生活。他強調,OpenAI需要監管機構和社會盡可能地參與ChatGPT的推廣。
ChatGPT是OpenAI于2022年11月30日推出的一種新型AI聊天機器人工具,它可以根據用戶的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,并回答各類疑問。
GPT-4是一個多模態大型語言模型,即支持圖像和文本輸入,以文本形式輸出;擴寫能力增強,能處理超過25000個單詞的文本;更具創造力,并且能夠處理更細微的指令。
在高級推理能力方面,GPT-4超過了2022年11月30日推出的ChatGPT AI聊天機器人工具。
OpenAI表示,盡管GPT-4功能強大,但它與早期的GPT模型有類似的局限性:它并不完全可靠(例如,可能出現“幻覺”),有一個有限的上下文窗口,并且沒有習得經驗。因此,在使用GPT-4輸出時應謹慎行事,特別是在對可靠性要求很高的情況下。
OpenAI已經分享了有關GPT-4的大量基準測試和測試結果以及一些有趣的演示,但出于競爭和安全考慮,該公司基本上沒有提供有關GPT-4的架構(包括模型大小)、硬件、訓練計算、數據集構建、訓練方法等技術細節。
原創文章,作者:蘋果派,如若轉載,請注明出處:http://www.bdzhitong.com/article/570229.html