| IBM | AI | 深度神經網路 | 誤導AI | 對抗攻擊 | 安全性

預防AI被誤導,IBM開源檢測模型及對抗攻擊的工具箱

IBM研究團隊近日開源了檢測模型及對抗攻擊的工具箱Adversarial Robustness Toolbox,提供開發人員加強AI模型被誤導的防禦性,讓AI系統變得更加安全,目前支援TensorFlow和Keras,未來預計會支援更多框架

2018-04-18