4月9日,據外媒報道,在三星的半導體部門開始允許工程師使用 ChatGPT 后不久,工作人員至少三度向其泄露機密信息。據報道,其中一名員工要求聊天機器人檢查敏感數據庫源代碼是否有錯誤,另一名員工請求代碼優化,第三名員工將錄制的會議輸入 ChatGPT 并要求其生成會議記錄。
目前,三星試圖通過將員工的 ChatGPT 提示長度限制為 1 千字節或 1024 個字符的文本來限制未來。據說該公司還在調查這三名有問題的員工,并建立了自己的聊天機器人,以防止類似的事故發生。
聊天GPT數據政策聲明,除非用戶明確選擇退出,否則它會使用他們的提示來訓練其模型。聊天機器人的所有者 OpenAI敦促用戶不要在對話中與 ChatGPT 共享秘密信息,因為它“無法從您的歷史記錄中刪除特定提示”。在 ChatGPT 上刪除個人身份信息的唯一方法是刪除您的帳戶,而這個過程可能需要多達四個星期。
在表面上,聊天GPT可能看起來像是一種可以對一系列工作任務派上用場的工具。但有科學家認為,其實用戶與 ChatGPT 分享的任何內容都可用于訓練系統,甚至可能會在其對其他用戶的回復中彈出。
原創文章,作者:蘋果派,如若轉載,請注明出處:http://www.bdzhitong.com/article/570925.html