| 生成式AI | Nightshade

防止圖片遭擷取,新工具讓創作者對AI模型下毒

芝加哥大學研究人員發表攻擊AI模型新手法,一旦AI業者使用研究人員刻意變造過的圖文資料,來訓練底層模型,研究人員就能破壞模型的生成功能

2023-10-25