
前資安院副院長吳啟文認為,在導入AI應用之前,應先作好妥善管理AI帶來資安風險的準備,平衡AI帶來的利益及風險。
「資安是持續的風險管理,因此對威脅、趨勢掌握非常重要」,前國家資通安全研究院副院長吳啟文在今年臺灣資安大會中分享在AI時代下的資安防禦思維。
傳統的資安威脅可能來自漏洞、惡意軟體或是DDoS,然而AI等技術的快速發展,雖為企業帶來許多正面的優點,也同時使得企業面臨負面的風險增加,吳啟文以透過生成式AI寫程式為例,雖然提高開發的效率,但是其所產生的程式也可能存在漏洞,進而帶來資安風險,或是使用AI造成用戶的資料外洩。
另一方面,駭客也可能利用AI寫惡意程式,設計新型態的攻擊,或是利用生成式AI技術,以使得網路釣魚、社交工程的攻擊手法更為逼真,讓更多的使用者上當。
國外已提出AI的風險管理框架
鑑於AI的風險不容輕忽,吳啟文表示,國外已針對AI技術發展提出風險管理對策,其中NIST提出風險管理框架AI RMF 1.0,該框架提出4大管理功能,包括治理(Govern)、映射(Map)、測量(Measuree)及管理(Manage),同時也提出AI可信任的7大特性,安全、資安及韌性、隱私強化、公平性等等。NIST也特別針對生成式AI提出風險管理架構,點出資料隱私等12項重大風險,可對應AI RMF 1.0。
OWASP則是提出LLM應用程式的十大風險,例如提示詞注入、未妥善處理輸出內容、訓練資料的下毒攻擊、阻斷服務攻擊、供應鏈攻擊、機敏資料外流、不安全的外掛程式等等。
政府也將導入AI新科技作為國家未來發展方向
吳啟文指出,臺灣在前總統蔡英文執政下,提出資安即國安,將資安升級為國家安全的層次,並在2018年提出國家資通安全戰略1.0,提高政府對於資安的重視程度,同時將扶植國內資安產業發展作為執政目標,2021年提出資安即國家戰略2.0,願景為打造韌性安全可信賴的國家。
在今年,政府提出最新國家資通安全戰略2025,目的為打造堅韌、安全、可信賴的智慧國家,兩大措施包括戰略夥伴的鏈結,以及堅實資安治理機制及防護,其中堅實資安治理機制及防護底下包含4個支柱,包括全社會防衛韌性、國土防衛與關鍵基礎設施、關鍵產業與供應鏈、人工智慧應用與安全,其中的人工智慧應用與安全,目的為善用AI技術,並且平衡其可能帶來的風險,一方面將AI技術用於全社會防衛韌性、土防衛與關鍵基礎設施、關鍵產業與供應鏈的資安防護,並建立產業生態系;另方面則是要確保AI技術的安全性及可信任性。
今年接任職掌國家資通安全政策研擬、規畫及執行的資安署長的前金管會主祕蔡福隆,在接受媒體採訪時,蔡福隆也提出今後國家資通安全政策,除了應用人工智慧等新興科技外,也面臨相應的挑戰,即生成式AI帶來的風險,包括駭客利用AI技術的自動化攻擊,以及釣魚郵件、惡意軟體等。
資安防禦策略應擴及AI風險管理
對於如何管理AI可能帶來的風險?吳啟文借用世界經濟論壇WEF的報告,該報告提出平衡AI與網路安全的風險及報酬的6個問題,作為AI應用管理風險的自評依據,這些問題例如對於使用AI技術具有適當的風險承受能力,且被所有風險所有者理解?在考慮新的AI計畫時,適當的平衡風險與報酬?有效的流程以管理追蹤組織AI計畫發展?確保AI部署符合組織政策與法規義務的驗證流程?等等。
吳啟文認為,WEF的報告提出的6個問題,可讓企業或組織規畫運用AI技術時,先評估自己的準備是否已經完備,已做到上述問題的要求方能考慮AI應用,如果沒有做到則需要重新考慮是否導入AI應用。
在該報告裡也提到AI對網路安全的三個影響,威脅者運用AI提高攻擊的有效性,防禦者則運用AI提高網路安全防禦能力,第三個是AI的網路安全,主要為使用AI可能增加威脅者的攻擊面向,現有資安防禦策略需要擴大到處理AI的新弱點。
吳啟文指出,目前國內已有數產署針對AI技術建立評測機制,先以大語言模型LLM為評測對象,參考歐美的AI規範例如NIST RMF、ISO 24028、歐盟議會等等,共提出10個評測項目,包含安全性、可解釋性、韌性、公平性、透明性、可靠性、隱私等等。以手動或自動的方式進行驗證。
儘管AI可能帶來負面的風險,但是吳啟文認為,AI為中性技術,AI在資安防禦的事前、事中、事後仍能提供很好的功能,例如在事前,AI能夠自動分析海量的情資,產生比較好的威脅報告,提出預測讓組織及早因應,或是運用AI Honey Pot來蒐集更多情資,也能對新型態的未知威脅提出預測;在事中及事後方面,可利用AI作自動化調查,國外也有SOC運用AI Agent調整調查的規則。