圖片來源: 

美國國防部

在3月時,媒體揭露Google正與美國國防部合作執行Maven計畫,以人工智慧(AI)技術辨識飛行器所拍攝的影片中的物體,這項計畫引發Google員工不滿,即便官方曾聲明,Google僅提供機器學習服務TensorFlow API,且參與的部分並未用於攻擊之用。員工仍無法信服,連署寫信要求Google執行長Pichai Sundararajan即刻停止Maven合作計畫,且訂立明確政策,保證Google未來也不會加入這類計畫。

電子前線基金會(Electronic Frontier Foundation,EFF)表示,目前看起來的情況完全不如Google官方聲明的那樣,員工寄給Pichai Sundararajan的信件暗示,Google不僅只有提供TensorFlow API,還提供公司最先進的機器學習專業,以及工程人員直接協助美國國防部。

而對於Google官方聲明,所參與的影像識別並無用於攻擊之用,EFF引述美國國防部自家的文章以及文件,其影像分析技術被經常性的用於反叛以及反恐任務。這些證據顯示Google所參與的Maven計畫內容,與官方宣稱的完全不同。

EFF表示,如果他們對這些公開文件理解正確,Google的系統會標記無人機拍攝到的物體及人物供軍方審查,並在某些情況,軍方會發射導彈襲擊這些目標。

EFF樂見Google內部對於此專案的辯論以及行動,也對人工智慧的應用提出看法。EFF認為,當社會就人工智慧的非軍事用途的透明度、風險以及問責制度,還未達一定程度的共識時,貿然地在軍事用途上使用,更是危險的行為。

EFF還提到,目前的人工智慧技術仍處在難以控制的階段,而且往往在令人意料之外的情況下失效,當這些失效發生在軍事行動的應用上,所造成的結果將可能使衝突升級或是更大的不穩定。

目前沒有任何人工智慧應用在軍事行動上的安全和道德的公共標準,EFF指出,Google高層不應假設,軍事機構已經充分評估了風險,或是不負責的認為不需考慮責任歸屬問題。

對於人工智慧應用在軍事上的現況,EFF提出4個問題,第一問、是否應該要建立具有約束力的國際組織,來限制人工智慧的軍事用途?EFF表示,或許這件事很困難,或是有其他方式代替,只是現行結構令人不安,以人工智慧用在目標識別上是一個明確的項目,應該制定法律來規範。

第二問、是否有可信的研究過程或是部署,來減緩人工智慧可能導致的安全以及地緣的不穩定問題。第三問、軍事承包機構是否可以保證不將人工智慧應用在自主攻擊性武器?或是確保任何防禦性的自主武器都經過精密設計,能夠避免意外傷害。第四問、是否可以建立獨立的倫理委員會?能以公開透明的方式進行責任監督,並且具備否決計畫的權利。

EFF認為,Maven計畫是這項議題的起點,而Maven計畫的細節並未對外公開,但儘管如此,顯然Google無論是對公司員工或是對社會大眾,都沒有以公開透明的負責態度處理此事。

熱門新聞

Advertisement