AI應用與企業的快速融合為企業創造了巨大的機遇。這些智能系統具有徹底改變運營方式、推動創新和提高生產力的潛力。雖然企業愈發積極地采用AI,但要充分發揮AI的潛力,關鍵在于落實強大的安全措施。如果企業能夠積極主動地解決安全問題,就能營造一個推動AI技術安全與普及的可信環境。
在這種環境下,企業需要對AI工具在執行訓練、推理等功能時訪問的海量數據實施管控。應對這些威脅的最好方法是使用AI驅動的解決方案,這樣采用AI的企業將脫穎而出。
AI的普及以及隨之產生的風險
生成和分析工具等AI應用的快速普及給各個行業帶來了一場巨變。麥肯錫最新調查顯示,超過75%的企業已將AI應用于各種業務功能。這一快速發展證明了AI所帶來的巨大價值。
但同其他強大技術一樣,負責任地使用AI非常重要。雖然AI的普及速度驚人,但企業仍需密切關注底層數據以及AI系統的安全性。如果能夠將安全融入到AI開發和部署的每一個環節,企業就可以放心地發揮AI的優勢并減輕潛在風險。
底層數據面臨的挑戰
企業在整合AI的過程中,需要采取擁有前瞻性的數據管理方法。Hugging Face等平臺提供了海量模型和數據集(截至目前已有超過150萬個模型和40萬個數據集)且其中大部分為開源,而企業應確保以負責任且道德的方式使用這些信息,例如使用醫療數據集時應嚴格遵守隱私法規。企業可通過落實強有力的數據治理實踐,更好地應對這些復雜性。
同樣,有關大語言模型(LLM)訓練數據的持續討論突出了尊重知識產權的重要性。如果能夠積極主動地解決這些問題,AI生態系統將變得更加可持續且合法。此外,派拓網絡研究人員發現的惡意AI模型不僅證明了保持警惕的必要性,同時也促使企業開發出專門用于識別和緩解此類威脅的安全解決方案。
需要更多的控制措施
那么企業應采取什么樣的措施?無論如何停止使用AI絕非明智之舉,而且對于希望保持競爭力的現代企業而言并不現實。
關鍵在于采用“安全設計”理念,即將安全因素融入到AI應用開發生命周期的各個階段,幫助開發者和數據專家構建強大、可信的模型。一個綜合全面的AI安全平臺應涵蓋多個關鍵領域:
· AI智能體安全:防止智能體受到新型代理威脅,例如工具濫用、身份冒充和內存操控。
· AI模型掃描:通過主動掃描AI模型發現漏洞,確保模型的使用安全。這能夠保護AI生態系統免受反序列化攻擊、模型篡改、惡意腳本等風險。
· 安全態勢管理:通過監視與AI生態系統相關的安全態勢風險,幫助企業避免因訪問或平臺配置錯誤、敏感數據泄露,及過度授權導致的安全態勢風險。
· 運行時安全:防止大語言模型(LLM)驅動的數據、AI應用和模型受到幻覺、有毒內容、資源過載、提示注入、敏感數據泄露、惡意代碼等運行時境威脅。
防御基于AI的數據泄露
在AI這片“無人區”,機遇與挑戰并存。一旦AI模型和數據集缺乏保護,隨時可能發生大規模數據泄露。鑒于AI伴隨的風險,企業似乎既離不開AI,又對其有所忌憚。但當競爭對手和攻擊者都在應用AI時,企業別無選擇。
AI能夠給企業帶來明顯的優勢,如加快應用開發速度、提高流程自動化程度、大幅提升生產力等。而要充分發揮這些優勢,企業從一開始就參考最佳實踐打下強大、安全的牢固基礎,以保障AI應用開發生命周期每個階段的安全,追蹤和監控每位員工的AI使用情況,并時刻防止AI應用中的數據遭到泄露和未經授權的訪問。