結合大語言模型(LLM)與檢索增強生成(RAG)技術,已成為企業釋放生成式AI潛力的最佳策略。IBM建議,企業應落實防範提示詞注入攻擊、加強存取控制與身份驗證等安全措施,以在享受生成式AI效益的同時,減輕資安風險帶來的影響。

生成式AI在多種應用場景中展現出強大效能,促使企業利用開源大型語言模型(Large Language Model, LLM)結合內部資料,開發專屬AI模型。然而,隨著AI技術的廣泛應用,LLM也成為駭客攻擊的重點目標。根據《OWASP Top 10 for LLM 2025》報告顯示,前三大威脅為提示詞注入攻擊、敏感資訊洩露及供應鏈漏洞。此外,系統提示洩露及向量與嵌入的弱點等新興威脅,亦對資安團隊提出了更高要求。

為提升大語言模型的準確性,越來越多企業採用檢索增強生成(RAG)技術。然而,此舉也引發了相應的資安挑戰。IBM建議,若要強化RAG的安全性,企業應先著手於防範提示詞注入攻擊,確保系統能有效抵禦惡意輸入。同時,也須確保向量搜尋的知識庫來源安全可信,並落實資料加密與保護措施。

IBM Taiwan首席安全架構師蕭皓天強調,除了上述措施,企業還應推行更全面的安全策略,包括:

  1. 加強存取控制與身份驗證:避免未經授權的使用。

  2. 持續進行稽核與日誌記錄:確保系統操作的透明性與安全性。

  3. 有效管理第三方工具漏洞:如LangChain與LlamaIndex等工具的安全性。

透過多管齊下的安全管理策略,企業不僅能充分發揮生成式AI的潛力,還能有效降低資安威脅對AI專案的衝擊。

 

熱門新聞

Advertisement