圖片來源: 

OpenAI

由於ChatGPT帶來的風潮,各大科技公司無不爭相在自己的產品,加入大型語言模型,由於這類語言模型技術的既有限制,使得用戶容易獲得具偏見、冒犯性,甚至是與事實不符的輸出,現在OpenAI開始著手一系列改進,試圖解決當前ChatGPT存在的系統限制。

官方解釋,ChatGPT是一個大型神經網路,模型行為學習自廣泛且龐大的資料,並非是由明確的程式碼寫死。ChatGPT模型經過預訓練和微調兩階段,在預訓練階段,模型會從網際網路資料集中,學習預測語句下一個單詞的方法,但是在這個學習的過程,同時也學習了網際網路中帶有偏見言論。

因此在微調階段,OpenAI需要用較小的資料集微調ChatGPT,以規範模型的行為,這些小資料集由人工審查者根據OpenAI指引創建而成。

不過,由於OpenAI無法預測所有用戶的可能輸入,因此僅在指引中概述幾個類別,人工審查者根據這些指引類別,審查和評分一系列輸入可能的模型輸出,之後再由模型總結這些審查者的回饋,套用在給用戶的回應中。

即便經過微調階段,ChatGPT仍然無法解決偏見問題,官方提到,雖然他們的指引裡面,明確規範審查者不應該偏袒任何政治團體,但在當前的微調階段,仍可能在過程中加入偏見。

目前OpenAI解決偏見的方法,是盡可能在指引中,向審查者清楚解釋偏見的潛在陷阱和挑戰,以及具有爭議的人物和主題,並且使微調過程變成一個反饋循環,每周透過會議來解決遇到的問題,並且一再澄清指引,透過迭代讓模型表現越來越好。

除了偏見之外,ChatGPT還存在多個問題,像是拒絕不應該拒絕的請求,或是無法在應該拒絕的時候拒絕請求,甚至會編造內容,OpenAI承諾會繼續改進這些ChatGPT的預設行為。而由於每個用戶對於人工智慧的期待都不同,因此OpenAI正在改進ChatGPT,將讓用戶有更多自定義空間。

另外,OpenAI也希望讓使用者甚至是公眾,能夠影響ChatGPT的系統規則,避免言論權力過度集中的問題,最終使得ChatGPT能夠廣納觀點,但OpenAI坦言,這項功能有其挑戰性,目前先以紅隊的形式來檢視ChatGPT,不過他們正在建立機制,希望以公眾意見教育人工智慧。

熱門新聞

Advertisement