
Google上周五(4/4)發表針對資安的實驗性AI模型Sec-Gemini v1,該模型建立在Gemini模型之上,同時整合了Google威脅情報、OSV漏洞資料庫,以及Mandiant威脅情報,並免費提供給特定的組織、機構、專家,以及非政府組織以供研究之用,並已開放申請。
Google表示,有效地支援安全維運工作流程需要最先進的推理能力,以及廣泛的現代資安知識,Sec-Gemini v1藉由結合Gemini的高階功能、接近即時的網路安全知識,以及工具來實現此一目標,該組合可於關鍵網路安全工作流程上展現卓越的性能,包括事件根本原因分析、威脅分析,以及理解安全漏洞所帶來的影響。
其中,Gemini為Google所訓練的多模態大型語言模型,類似OpenAI的GPT系列以及Anthropic的Claude系列模型;Google威脅情報(Google Threat Intelligence,GTI)則是整合了Google在全球的安全分析與專業能力;OSV(Open Source Vulnerabilities)是個由Google主導的開源漏洞資料庫與服務;Mandiant則是在2022年被Google以54億美元納入麾下的資安業者。
由於Sec-Gemini v1整合了上述的關鍵資料,使得它在用來評估資安專家對威脅情報理解能力的CTI-MCQ(Cyber Threat Intelligence – Multiple Choice Questions)基準測試中明顯超越了OpenAI的多個GPT版本、Anthropic的Sonnet-3.5 v2、DeepSeek v3與Mistral AI的Mistral Large等競爭對手。
也在分析資安事件根本原因的Cybersecurity Threat Intelligence-Root Cause Mapping(CTI-RCM)基準測試中凌駕上述模型,此一測試評估了大型語言模型理解漏洞描述的細微差別,以識別形成漏洞的根本原因,並依照CWE準確分類。
例如Sec-Gemini v1能夠判斷Salt Typhoon是個中國間諜駭客組織,可全面描述Salt Typhoon的特性,並揭露該組織所使用的安全漏洞細節。
Google指出,攻擊者只需要成功發現並利用一個資安漏洞,但防禦者卻必須抵抗所有網路威脅,此一不對稱性使得保護系統變得異常艱難、耗時且容易出錯,導入AI的資安工作流程可大幅放大資安人員的效能,有機會扭轉此一劣勢。