圖片來源: 

GitHub

美國國家標準暨技術研究院(National Institute of Standards and Technology,NIST)上周釋出Dioptra 1.0,這是一個用來評估AI安全及可靠性的軟體測試平臺,它支援AI風險管理框架(AI RMF)的測量功能,可評估、分析及追蹤AI風險。

Dioptra最早現身於2022年,當時NIST形容它是一個用來評估適合用來保護機器學習系統之安全技術與解決方案的方法,並讓研究人員比較用來對抗不同攻擊、資料集或各種狀況的方法。

而今釋出的Dioptra 1.0版預計提供幾項功能,一為模型測試,如第一方於開發生命周期中評估AI模型,或是第二方在收購前或於實驗室環境中以Dioptra來評估AI模型,以及身為第三方的審計員或合規官員用來評估模型的法規與道德標準。

此外,Dioptra還可協助學術界或產業的研究人員有系統地追蹤與記錄AI實驗;或是提供一個標準化平臺,讓參與AI競賽或評估挑戰的參賽者測試他們的模型;也能讓紅隊藉由模擬攻擊或對抗條件,來測試AI模型的韌性與安全性。

整體而言,NIST期望Dioptra成為一個多功能的平臺,在不同的開發階段或用途上測試、評估與確保AI模型的可靠性。

熱門新聞

Advertisement