
近日,一篇發表在arXiv上的論文揭示了一項驚人的發現:GPT-4 API存在重大安全漏洞。該漏洞由FAR AI實驗室的團隊發現,他們通過微調、函數調用和搜索增強等方式成功越獄了這一先進模型。
研究人員利用15個有害樣本和100個良性樣本進行微調,GPT-4模型便能夠生成錯誤信息、提取私人信息和插入惡意URL。這表明API功能擴展可能帶來新的安全隱患。這一發現對使用者和研究人員敲響了警鐘,應謹慎對待。
此外,研究人員還發現GPT-4 Assistants模型容易暴露函數調用的格式,并能夠被誘導執行任意函數調用。同時,知識檢索可以通過在檢索文檔中注入指令來進行劫持。
該研究強調了對API提供的功能進行任何添加時,都可能暴露大量新的漏洞,即便是當前最領先的GPT-4也難以幸免。研究人員警示,在使用GPT-4 API時務必小心,避免輸入任何不想讓他人看到的內容。
此次發現的GPT-4 API安全漏洞再次提醒我們,隨著技術的不斷進步,安全問題愈發突出。在人工智能領域,如何確保模型的安全性已成為亟待解決的問題。未來,研究人員和開發人員需進一步加強技術研發和應用安全,以防止潛在的安全風險。
原創文章,作者:秋秋,如若轉載,請注明出處:http://www.bdzhitong.com/article/612489.html