| GPT-3.5 Turbo | ChatGPT | 訓練資料汲取攻擊

研究人員要求ChatGPT重複輸入特定文字,逼得ChatGPT洩露訓練資料

11月28日公開的一項研究報告顯示,當研究人員要求基於GPT-3.5 Turbo的ChatGPT不斷地重覆輸入諸如"poem"或"company"等單字,就可成功攻陷該系統,讓它吐出訓練資料

2023-11-30