從今年1月中以來,ChatGPT、OpenAI成為全球科技領域的最熱門關鍵詞,鋒頭之健,可能更勝2020年曾蔚為風潮的語音社群平臺Clubhouse。

這段期間許多人紛紛展示用ChatGPT而找到的解答,產生的詩、文、笑話、圖像、程式碼,並討論其品質與正確性。在此同時,關於AI能否取代人類工作,有那些類型的工作者會因此失業的話題,再度受到熱議。

IT大廠陸續揭露他們基於語音AI技術而成的新服務,或是以此強化既有線上服務的特色。例如,Google於2月6日初步展示正在開發的互動對話AI服務Bard,提供問答查詢的功能,當中搭配他們發展的AI模型LaMDA輕量版;微軟則於展出AI技術助陣的全新Bing搜尋引擎與Edge瀏覽器,提供更好的搜尋與完整交談體驗,強調能在瀏覽網頁時運用AI輔助操作工具,他們聲稱Bing運用比ChatGPT更強大的新世代OpenAI大型語言模型,而且是專為線上搜尋所特製的。

這股浪潮在更早之前就已掀起,例如,去年9月,有人用AI 繪圖工具Midjourney而在美術展獲獎,引發關注,大眾也更加了解生成式AI(Generative AI)威力。

然而,AI引發的爭議也可能越演越烈。例如,最近臺灣有作家與網友為了AI繪圖的名稱與定義,在社交網站吵起來;一些資安廠商對ChatGPT提出警告,例如,Check Point在1月揭露可能有相關活動出現——他們在地下論壇發現有駭客試圖繞過OpenAI限制,將ChatGPT用於惡意活動,並公布截圖,後續他們又揭露有犯罪組織討論用ChatGPT改進功能簡易的竊密程式(Infostealer)原始碼。

CyberArk提到ChatGPT雖然可限制存取特定內容、預防用戶接觸不當內容,但使用上仍存在著盲點,能用於簡易建立多型態(polymorphic)惡意軟體,像是如果我們單純要求它產生一段能以Shellcode方式注入explore.exe檔的Python程式碼,它會回覆此舉不恰當,提醒你這麼做的後果,並建議你採取遵循道德與安全的作法,然而,當研究人員利用一些言詞鍥而不捨地提出一連串包含多種細緻條件限制要求的命令,ChatGPT居然就照辦了,雖然產生的結果並不完整,但從廠商測試的結果來看,似乎也讓人訝異AI是會妥協的;若直接請它將一段程式碼改寫成多種形式,ChatGPT似乎無法判斷此要求有害與否,而傻傻地按照這要求產生結果。

諸如此類的對話AI測試,應是今年常見話題,若最終我們接受這類技術應用出現在身邊,屆時大家關注的會是如何趨吉避凶。

在此同時,最近我們也看到越來越多IT廠商提出「Responsible AI」。例如,思科在2月上旬舉行的歐中東非洲用戶大會,企業策略長暨應用系統總經理Liz Centoni表示,除了關注如何用生成式AI強化既有產品與解決方案的應用案例,以及如何建置在更多應用系統的基礎架構上,像是基礎架構程式碼自動化、獲得資料詮釋力而能用於障礙排除、應用程式資安漏洞管理。她說,AI也是思科的責任,需持續關注遵循道德與倫理的AI,而在思科提出的Responsible AI Framework框架中,目前涵蓋了倫理、風險、安全,以及責任等層面,可協助他們進行AI應用,而且,生成式AI所帶來的議題將會越來越大、越來越多,如版權、抄襲、深度學習偽造(Deepfake),可能接踵而來,但相對而言,也促使「負責任的AI(Responsible AI)」必須實現。

英特爾在2月9日也發表社論〈Unlocking the Potential of Generative AI〉,提到他們在負責任AI要求之下所扮演的角色,並且表明他們對於生成式AI採取的兩種策略。

首先是預防傷害,例如,他們去年11月展示的Deepfake即時偵測技術FakeCatcher,以及前年11月提出的避免抄襲爭議圖像生成器(具有模仿力卻能產生高品質、具遮罩感知特性的重建圖像);另一個是改善生活,例如,推動語音合成計畫,幫助無法說話的人們,並與Dell、勞斯萊斯、英國運動神經元病協會合作進行數位化故事書計畫,透過互動式網站讓任何因病影響說話能力的人,能夠錄製聲音,將其用於輔助語音設備上。

不只是上述廠商或IT界要表態,隨著AI浪潮以更大聲勢席捲而來,所有企業與組織都必須思考與表達對於AI的態度,並且進行內部與外部的溝通,這已是無法迴避的議題。

專欄作者

熱門新聞

Advertisement