Google新興技術、競爭力暨永續發展政策資深總監David Weller專為Google提供AI治理、監管、永續發展等政策建議,也參與美國等多國政府AI公共政策建議。他認為,兼顧AI創新和風險的良好做法是找出現有監管機制的不足之處,並想辦法補足,而不必急著訂定AI專法。(攝影/王若樸)

生成式AI在2024年大放異彩,大型語言模型(LLM)不斷更迭出新,催生出大量AI代理,比如Google前陣子發表的Gemini 2.0-Flash模型,延伸驅動了4款AI代理,有能理解手機螢幕和網頁元素的行動裝置代理、瀏覽器代理,還有研究專用代理和程式開發代理。這些代理具備多模態能力,不只懂文字、圖片、影片和音訊,還知道怎麼運用工具、API來自動完成複雜任務,比只懂單一模態的代理更厲害了。

但在這波AI浪潮中,企業要兼顧創新、業務效率和安全合規,就得仰賴良好的AI治理和監管策略。David Weller是Google新興技術、競爭力暨永續發展政策資深總監,他專門為Google提供AI治理、監管、永續發展等政策建議,也與美國在內等多國政府合作,參與重大公共政策建議。

他先前到訪臺灣,接受iThome專訪,分享了他對AI治理和監管議題的看法:

 Q  能否簡介你在Google的工作角色?

 A  我在Google工作10多年,是公共政策團隊的一員,負責AI政策、經濟競爭力、貿易政策和永續發展政策的研究與建議。我們團隊會整合這些領域的洞察,提出適當且有益的公共政策建議,供政府、企業和其他利害關係人參考,來推動科技進步,讓經濟和社會變得更好。

我的核心工作是思考AI公共政策框架,並幫助Google和政府了解相關議題。因為,很多的AI進步,都發生在私部門,比如許多生成式AI的基礎,都來自於Google在2017年發布的Transformer論文。因此,美國政府制定AI責任等新規則時,往往會想了解企業的觀點,我們會提出Google的建議方案,比如適當的AI護欄措施、兼顧AI創新且合理運用的方法,供政府參考。這就是我在Google的角色。

 Q  就與政府機構溝通AI政策的經驗中,你有哪些重要觀察?

 A  我們與世界各國政府密切合作,大家確實在努力解決AI監管、AI政策制定等問題。

先退一步來說,我認為,人們和政府正努力在AI的兩種想法間保持平衡。一方面,他們想:哇!AI擁有巨大潛力,可以提高經濟生產力,讓社會更有競爭力,還能幫助解決棘手的挑戰,如醫療健康、氣候變遷等。

AI是一項非常強大的技術,它能幫我們做到以前做不到的事、獲得新洞察。盡管經濟學家對AI能提高多少生產力和GDP,給出了不同預測,但他們都一致認為,如果公私部門充分部署AI,將帶來巨大好處。這是一個想法。

另一個想法是對周遭風險的擔憂,這通常是因科幻電影和尚未遇到的情況而起,擔憂科技接下來的發展方向。

我認為,許多政府正在考慮這兩個課題,尤其去年,許多目光都聚焦在第二個課題,我相信臺灣也有類似討論。而大眾關心哪一面,取決於政府的思考方式。

但只關注其中一種是危險的。假設只考慮風險,我們要做的是,防範未來的不利因素,但我們不確定這些不利因素是否會真的發生,反而斷絕了運用AI技術的能力。

同理,當政策制定者只關注機會,認為AI能解決世界上所有問題,這也是危險的。政府得考慮特定風險,尤其AI是一項新技術,會出現新問題,所以政府必須兼顧AI發展與風險防範。就我觀察,政府會透過不同方式,來實現這種平衡。

在Google,我們經常談論,如何兼顧AI的大膽創新和負責任。我們非常相信,這兩點是可以同時做到的,而不是只能擇一。你必須兼顧兩者。

 Q  能否舉例說明,政府如何兼顧AI機會與風險?

 A  美國、新加坡政府已經取得了很好的平衡。首先,就風險來說,這兩國政府清楚知道,現行的法律系統和現有的監管機構,普遍來說已經足夠發展AI監管了。因為,我們有時會誤解,沒有一部規範AI的專法,AI就不受監管。

事實並非如此,AI是項底層技術,就像汽車引擎蓋下的引擎;AI在各個產業中的角色,也是如此。因此,監管機構需要的是,被授權去監管各個產業。比如醫材監管機構,得確保新醫療器材安全、經過適當測試,並正確告知消費者風險。這也是美國和新加坡政府的做法,與其急於制定全新的AI監管法規,不如評估現況、找出不足之處,並設法補足。我看到,這兩國政府優先專注創新,並積極研究AI技術,同時制定軟性指引, 來避免過早推出嚴格的監管措施、阻礙了AI發展。

再來,AI正快速發展,有許多潛在風險,美國和新加坡政府正以謙虛的態度面對這些問題。以美國為例,在制定新的重大監管限制或規範前,政府需要了解AI發展狀態,因此頒布了白宮行政命令,要求企業在模型達到一定能力時,向美國政府回報,讓政府理解最新的AI進展。新加坡也在2019年制定類似的指導方針。這讓政府在採取硬性法律前,更了解事情的全貌。

另外,制定出各國政府認同的AI監管國際標準也很重要。如果各國政府沒有協調,只制定出各自的法規,我們很快就會陷入一團糟。比如,臺灣一家公司想將其AI產品部署到其他國家,就會遇到各國法規限制問題。

在機會方面,我也看到,美國和新加坡政府投資創新、以確保技術發展,臺灣政府也在這方面投入許多。許多政府也正努力從教育著手,來讓勞動力做好準備、因應AI對就業產生的影響。

 Q  能否聊聊Google自己的AI治理做法?

 A  當然。早在2018年,Google就提出了AI原則,就像是內部憲法一樣,規定了我們將如何擁抱AI、哪些領域不得發展AI,並建立類似的指導原則。同時,我們也建立了內部治理框架,來在開發新產品和服務時,能符合AI原則和外部最佳實踐。

舉例來說,幾年前,Google開發了一款可以讀唇語的AI工具。當時的開發初衷是,讓聽障民眾能理解別人在說什麼,這是一個驚人的好處。但另一方面,讀唇語技術可能會被濫用,比如用於大規模監視。

因此,我們以AI原則和道德規範來判斷,這項專案該如何進展,最後決定將它部署在其他技術中,來幫助身障人士,而非單純以開放API或開源等方式提供。

另一個例子是蛋白質結構資料庫AlphaFold Protein Structure Database,全球將近200萬名研究人員正在使用它,來開發新藥或治療方法。當Google DeepMind開發AlphaFold時,我們針對是否要公開這個資料庫,進行了密集的討論。我們請來外部生物醫學倫理專家,以及Google內部的倫理專家,來考慮開放與否的利弊,最終採取了不同於讀唇語技術的做法,開放給外界使用。

另一方面,就像我們2023年對白宮做出的承諾,我們在正式發布最先進的AI模型和系統前,都會先進行外部測試與紅隊演練。同時,我們也高度參與美國國家標準暨技術研究院(NIST) AI風險管理框架的開發,提供一個結構化的方法,幫助企業識別、評估和管理AI風險,這也和我們的內部管理流程相互呼應。

 Q  你建議臺灣企業如何推動AI治理?

 A  雖然我比較熟悉公共政策建議,但我會給幾個建議,一是建立非常明確的內部治理機制,二是與外部生態系進行對話,這非常重要。就好比AlphaFold資料庫的例子,當企業遇到新問題,請與外部專家討論。你不會希望只靠電腦科學家來解決問題,你需要特定領域的專家、倫理學家、哲學家,需要廣泛的利害關係人參與討論,而不是像在內部工作一樣,獨立作業。

另一方面,我也會建議企業,遵循NIST AI風險管理框架和ISO 42001人工智慧管理系統標準。這對企業建立自己的AI系統來說,是個非常好的起點。

熱門新聞

Advertisement