| 深度偽造 | Deepfake | Microsoft Designer | 生成式AI

被指用來生成Taylor Swift假裸照,微軟修改文字轉圖像模型Designer

媒體404 Media發現網路流傳的提示輸入手法,的確能夠繞過Microsoft Designer的安全機制,成功生成名人假裸照。微軟雖未證實Taylor Swift假裸照風波是否因自家文字轉圖像AI工具而起,但已經修補了Designer被有心人士惡意利用的相關漏洞

2024-01-30