如今,市場上有成千上萬種生成式人工智慧(生成式AI)工具,每月都有幾十種新的AI應用程式推出。事實上,一半以上的員工很可能已經在使用它來提高工作效率,而且隨著更多AI應用程式針對更多使用情境的推出,這種採用率預計還會增加。
問題在於這些第三方生成式AI應用程式中大多數未經審查或批准就被用於工作,這會給企業帶來嚴重的風險。IT和資訊安全團隊必須對企業技術生態中所使用的第三方應用程式進行審查和批准,這是因為他們需要瞭解正在使用的應用程式、它們是否安全,以及有哪些敏感的公司資料(如果有的話)進入了這些應用程式。他們還要考慮應用程式開發商如何處理漏洞等問題,以及有哪些控制措施可以將存取權限制或控制在僅限員工完成工作所需的範圍內等事項。
採用未經許可的生成式AI應用程式會導致資料洩露、惡意軟體等一系列網路安全問題。這是因為企業不知道誰在使用什麼應用程式、哪些敏感資訊會進入這些應用程式,以及這些資訊進入應用程式後會發生什麼。而且由於並非所有應用程式都是按照合適的企業安全標準構建的,因此它們也可能會提供惡意連結,並成為攻擊者進入企業網路訪問系統和資料的入口。所有這些問題都可能導致違規、敏感性資料洩露、智慧財產權被盜、營運中斷和經濟損失。雖然這些應用程式可以帶來巨大的生產力,但如果使用不安全,它們也會導致嚴重的風險和潛在後果,例如:
- 行銷團隊使用了一個未經許可的應用程式,該應用程式能夠使用AI生成精彩的圖像和影片內容。如果團隊將敏感資訊載入到該應用程式中,導致機密產品發佈細節洩露,會發生什麼情況?答案是您不願看到的“病毒式“傳播。
- 專案經理使用AI驅動的筆記應用程式來轉錄會議內容並生成摘要。但如果記錄的內容包含財報公佈前對季度財務業績的機密討論內容,會發生什麼情況?
- 開發人員使用AI助手和代碼優化服務加快產品構建。但如果從被入侵的應用中返回的最佳化代碼包含惡意腳本,該怎麼辦?
這些只是出於善意使用生成式AI而在無意中增加風險的冰山一角。但不使用這些技術可能會降低企業獲得競爭優勢的能力,因此“一刀切”並不是解決問題的辦法。企業可以而且應該考慮如何讓員工安全地使用這些應用程式。以下是一些需要考慮的因素:
能見度:人們無法保護自己不知道的東西。IT團隊在使用未經許可的應用程式時面臨的最大挑戰之一是難以及時應對安全事件,而這增加了出現安全性漏洞的可能性。企業需要監控第三方生成式AI應用程式的使用情況,並瞭解與每個工具相關的特定風險。在瞭解正在使用哪些工具的基礎上,IT團隊還應瞭解哪些資料正在進出企業系統。這種能見度有助於企業發現安全性漏洞,並快速識別和糾正。
控制:IT團隊需要能夠就是否阻止、允許或限制訪問第三方生成式AI應用程式做出明智的決定,他們可以單獨控制每個應用程式,也可以根據風險或類別進行控制。例如,企業可能想要阻止所有員工存取碼最佳化工具,但同時又想讓開發人員訪問經資訊安全團隊評估並批准供內部使用的第三方最佳化工具。
資料安全:員工是否與應用程式共用敏感性資料?IT團隊需要阻止敏感性資料洩露,保護資料不被濫用和竊取。這一點對於受到監管和受資料主權法律約束的企業尤為重要。在實踐中,這意味著需要監控發送到生成式AI應用程式的資料,然後採取技術控制手段確保敏感性資料和受保護的資料(如個人身份資訊和智慧財產權等)不會被發送到這些應用。
威脅防範:團隊正在使用的生成式AI 工具可能潛伏著漏洞。鑒於許多此類工具的開發和上市速度快得驚人,團隊往往不知道所使用的模型是否使用損壞的模型構建而成、是否是在不正確或惡意資料上訓練而成,亦或是否存在大量AI特有的漏洞。建議採取的最佳做法是對從應用程式流向企業的資料進行監控,以防出現惡意和可疑活動。
儘管AI工具在實現員工工作效率最大化方面具有驚人的潛力,並且能夠使企業實現營收和利潤的雙增長,但它們也隱藏著我們前所未見且更加複雜的新風險。企業領導者及其IT團隊有責任讓員工能夠放心地使用AI工具,同時為他們提供宣傳教育、能見度、控制措施、資料保護、威脅防範等保護手段。當安全團隊知道正在使用什麼以及如何使用時,他們就可以防止敏感性資料洩露,並防範潛伏在不安全和被入侵AI平臺內部的威脅。
- 本文為作者投稿,僅代表作者個人之觀點與意見,與本平台立場無關。涉及之著作權、言論及法律相關責任,均由作者自行承擔。