自從2023年以來,人工智能(AI)技術不斷取得重大突破、使用場景也不斷豐富。企業(yè)和消費者都希望利用人工智能 (AI) 的規(guī)模效益,AI 已幾乎廣泛應用于各行各業(yè)。在企業(yè)日常運營中,用戶已經逐漸習慣通過AI輔助快速完成數(shù)據(jù)分析、文本轉錄、客戶支持等工作任務。在今年7月于上海舉辦的“2024世界人工智能大會暨人工智能全球治理高級別會議”上,相關部門發(fā)布了《中國AI大模型工業(yè)應用指數(shù)(2024年)》。在這份報告中可以看出,AI以及大模型的行業(yè)應用能力在包含電力、石化、鋼鐵、醫(yī)藥等重點行業(yè)中都有顯著提升。這也意味著在全球范圍內,AI已經成為企業(yè)提升生產力的主要工具之一。
根據(jù) F2 Strategy 的一項調查,超過一半的財富管理公司正在實施 AI 項目。他們感興趣的用例包括有關市場狀況和證券隨時間變化的預測性分析、用于分析文件的光學字符識別、工作流程自動化、聊天機器人等。AI 的潛力顯而易見——它可以將相應的人工操作時間縮短最多 90%。與此同時,超過 60% 的公司表示需要加大 AI 應用安全的培訓。由此可見,盡管其潛力毋庸置疑,但部署、應用AI工具的風險已經成為用戶關注的焦點。
Check Point的安全專家認為,企業(yè)用戶首先應該明確認知,不法分子也在積極使用 AI。它同樣為攻擊者帶來了好處,可幫助他們顯著擴大攻擊活動的規(guī)模和威力。攻擊者甚至可以使 AI 模型本身中毒,致其泄露敏感信息或傳播惡意內容。此外,未經充分培訓的員工可能會在向 AI 工具輸入信息時無意中暴露敏感信息,而 AI 工具隨后會將這些信息應用到其機器學習活動中,這就使得企業(yè)潛在受攻擊維度不斷增多。因此,安全控制必須融入整個 AI 生命周期,包括員工培訓。在使用任何 AI 工具之前,用戶必須了解可能輸入的所有數(shù)據(jù)的密級、用于訓練 AI 工具的數(shù)據(jù)來源,以及為保護敏感信息而實行的安全協(xié)議的具體內容。務必從一開始就將安全控制融入 AI 部署中。開放式 AI 系統(tǒng)帶來了更大的風險,因為它們對公眾開放,這雖然便于它們從大型數(shù)據(jù)集中學習,但也會被攻擊者操縱。封閉式系統(tǒng)更安全,但需要更多的人工管理和模型訓練。企業(yè)應該為員工提供深度培訓,讓他們了解工具及其工作原理,以及如何安全地使用工具,并強調哪些數(shù)據(jù)可使用,哪些數(shù)據(jù)絕不能暴露在大型語言模型 (LLM) 中,例如支持生成式 AI 應用的模型。
在實施 AI 解決方案時,必須確定工具的工作范圍,并確保它只能訪問其訓練所必需的數(shù)據(jù)。全面了解信息隱私、模型數(shù)據(jù)來源以及內置的原生安全機制。許多 AI 工具都內置防御機制,以防止濫用——舉例來說,ChatGPT 的規(guī)則旨在防止人們用其圖謀不軌,比如構建惡意軟件。然而,這些規(guī)則顯然也可通過精心編制的可掩蓋用戶真實意圖的提示詞繞過。 這是一種專門針對 AI 系統(tǒng)的提示注入攻擊。用戶必須采取強有力的控制措施,防患于未然。從廣義上講,這些控制措施屬于零信任網絡安全防護策略的范疇。
AI 工具,特別支持生成式 AI 的 LLM,不應被視為典型的軟件工具。它們更像是工具和用戶的混合體。零信任程序根據(jù)個人的工作職能、范圍和需求來限制對資源的訪問,并通過限制橫向移動的范圍,限制攻擊者通過攻擊單個員工而造成的破壞。企業(yè)添加任何軟件工具都會擴大攻擊面,為攻擊者提供更多入口點。一款工具,比如 AI 工具,如果可以無限制地訪問個人身份信息、公司機密、專有工具、戰(zhàn)略預測、競爭分析等,一旦遭到入侵,可能會帶來災難性后果。因此,在有關 AI 工具實施的戰(zhàn)略討論中,必須將對此類入侵的防范放在首位。否則,一旦網絡安全事件發(fā)生,一切為時已晚。
作為網絡安全行業(yè)長期領導者,Check Point公司近幾年一直關注AI技術為用戶帶來的風險挑戰(zhàn),并在今年年初發(fā)布Infinity AI Copilot,通過生成式 AI 服務,利用自動化將安全管理速度加快最多 90%,并通過更快的事件緩解和響應提高安全性。在今年4月,Check Point公司宣布其Infinity AI Copilot 與微軟展開合作,通過與 Microsoft Azure OpenAI 服務集成進一步增強 Check Point Infinity AI Copilot效能。增強后的解決方案現(xiàn)在能利用微軟提供的高級大型語言模型 (LLM) ,更有力、更高效地幫助用戶應對各種網絡安全挑戰(zhàn)。
Check Point公司中國區(qū)技術總監(jiān)王躍霖認為:“雖然大多數(shù) AI 工具都內置安全防護,但企業(yè)必須注意根據(jù)自身的具體需求部署更符合自身特點的安全解決方案。網絡安全風險可謂是當今各企業(yè)所面臨的主要威脅之一,因此企業(yè)有必要采取主動的安全防護以確保業(yè)務正常運營。AI技術的不斷落地不僅能夠幫助企業(yè)提升核心競爭力,同時也會帶來全新的安全威脅。模型的規(guī)模和其所攝入的數(shù)據(jù)以指數(shù)方式擴大了攻擊面,一次泄露事件就足以使公司從 AI 所獲得的所有收益化為零。因此,零信任模式下的網絡安全分析和控制、更有針對性的安全解決方案對于企業(yè)充分釋放 AI 工具的潛力必不可少?!?/p>
本文轉載自:,不代表科技訊之立場。原文鏈接:http://articlef.yulepops.com/article/m-163/1/2122024080711110540823512.html