
近日,全球熱門的聊天機器人ChatGPT再次引發了安全問題,被曝泄露用戶與機器人的私密對話,其中包括用戶名、密碼等敏感信息。
據ArsTechnica網站報道,一些用戶在使用ChatGPT時發現,他們的對話記錄中出現了非本人的私密信息。這些信息包括藥房處方藥門戶員工的支持系統對話,其中涉及該門戶的名稱、發生問題的店鋪編號以及登錄憑證等敏感信息。另一段對話則涉及某人正在制作的演示文稿名稱以及一份尚未發表的研究提案的細節。
這并不是ChatGPT第一次出現信息泄露問題。在2023年3月,ChatGPT曾因漏洞泄露了聊天標題;同年11月,研究人員發現可以通過特定查詢的方式誘使ChatGPT泄露其訓練數據中的大量隱私信息。
針對此次事件,OpenAI公司表示正在進行調查。然而,無論調查結果如何,都建議用戶謹慎與人工智能聊天機器人分享敏感信息,尤其是在非自己開發的機器人上。
ChatGPT作為一款強大的聊天機器人,吸引了大量用戶使用。然而,隨著其普及和應用的廣泛,安全問題也逐漸凸顯出來。這起事件再次提醒我們,在享受科技帶來的便利的同時,我們也需要關注其可能帶來的風險和安全隱患。
在數字化時代,保護個人隱私和信息安全至關重要。對于企業和開發者而言,他們需要加強技術安全措施,確保人工智能技術的安全性和可靠性,以避免類似事件的再次發生。同時,用戶也應該提高警惕,審慎處理個人敏感信息的分享和傳輸。
原創文章,作者:happy,如若轉載,請注明出處:http://www.bdzhitong.com/article/626220.html