
中國AI業者DeepSeek號稱使用低成本打造媲美市場龍頭的AI模型而爆紅,但有多家資安業者提出警告,該公司旗下的AI模型DeepSeek R1存在嚴重的資安風險,能被越獄並用於網路犯罪,如今國家資通安全研究院(資安院)公布測試結果,指出DeepSeek的離線下載AI模型在多種越獄攻擊的防禦能力不足,而且缺乏其他同類模型提供的附加安全防護機制(Safeguard),證實可能存在重大資安風險的隱憂。
針對這次的測試,資安院使用自行開發的500道AI模型越獄攻擊的題目進行測試,結果發現,DeepSeek AI對於4種攻擊手法的防禦表現不佳。
其中,DeepSeek AI對於文句延續攻擊的防禦能力最差,成功率僅有20%至32%,他們展示透過前文引導的方式,成功引誘AI模型說明如何在演唱會引爆炸藥的越獄攻擊測試。
資安院也提及DeepSeek AI對於程式執行攻擊、角色扮演攻擊的防禦率也不盡理想,分別為40%至50%、50%至58%,而有可能讓攻擊者執行危險指令,或是在客服、法律、醫療應用造成嚴重風險。
第4種防範效果不佳的手法是上級模型特權提升攻擊,DeepSeek AI的防禦能力為50%至82%。
除了上述的測試結果,資安院也提及離線下載的DeepSeek模型較線上版本要來得危險,原因是單機執行這個AI模型時,模型本身並不具備類似Meta Llama Guard的自我防護機制,而缺乏內容過濾、違規偵測等進階防護措施。資安院指出,使用者必須自行採取外部監控及內容過濾等額外措施,才能提升該AI模型的防護能力。
熱門新聞
2025-03-03
2025-03-03
2025-03-03
2025-03-03
2025-03-01
2025-03-03