
近日,研究機構 AI Forensics 對微軟必應搜索引擎內置的 Copilot 功能進行了調查,結果顯示該功能在部分場合中存在嚴重的“幻覺”漏洞。根據報告,當Copilot被詢問關于德國和瑞士等地的實時選舉信息及投票結果時,它給出的答案有31%(1/3)是錯誤的。
這些錯誤包括“投票日期錯誤”、“列出往屆候選人”、“虛構候選人身份背景”、 “編造候選人涉嫌丑聞”等多種“幻覺”。此外,研究人員還發現,當Copilot輸出“幻覺”信息時,它會援引許多知名媒體網站作為“消息來源”,此舉可能對多家新聞媒體的名譽造成損害。
微軟公司承認了這一問題的存在,并表示“計劃解決相關‘幻覺’漏洞”。然而,在今年11月,研究人員再次進行測試時發現,必應 Copilot 的表現并未得到改善。
針對這一問題,研究人員呼吁社會大眾不要輕信必應 Copilot 回答的內容。他們建議用戶在查看Copilot的回答時,要仔細查看其援引的新聞鏈接,以確保獲取的信息是準確和可靠的。
微軟公司作為全球知名的科技公司,其搜索引擎產品在全球范圍內擁有廣泛的使用者。此次Copilot功能存在的“幻覺”漏洞可能會對用戶的信息獲取和使用造成影響。因此,微軟公司需要盡快解決這一問題,以保障用戶的權益和利益。
總之,此次研究機構AI Forensics的調查結果提醒我們,在使用搜索引擎和AI助手時,需要保持警惕和謹慎。同時,對于科技公司而言,他們需要更加注重產品的質量和用戶體驗,確保提供給用戶的信息是準確和可靠的。
原創文章,作者:秋秋,如若轉載,請注明出處:http://www.bdzhitong.com/article/608326.html