OpenAI在其大型語言模型GPT-3.5 Turbo添加微調功能(Fine-Tuning),讓使用者能夠自定義模型,並且有能力大規模執行這些模型,以滿足自家特殊用例的需求。

語言模型微調是指,在一個經預訓練的模型上,進一步使用特定資料集進行訓練,以適應某一特定任務或是應用的方法。官方提到,經過他們測試顯示GPT-3.5 Turbo經過微調之後,在特定任務上的表現,甚至可以超過GPT-4的基礎能力。

模型微調可讓企業創造出具差異化的應用,提高模型的可操縱性,使模型更好地遵循指令,像是要求模型總是生成特定語言的回覆。在程式碼完成(Code Completion)或編寫API呼叫時,確保特定的回應格式更是重要,因此開發者也可以使用微調模型,將提示語轉換成JSON片段,並應用在自家系統中。模型微調也可以供企業調整想要表現的風格,知名品牌可以根據企業形象調整模型的輸出基調。

微調的好處除了使其適應特殊任務之外,還能讓使用者的以較短的提示語,獲得類似的輸出效能,官方提到,早期測試者可以將提示語長度縮短90%,使每次API呼叫更快速,也更節省成本。而且現在微調後的GPT-3.5-Turbo模型,可以處理的Token數達4,000,是之前微調模型的兩倍。

官方也公開了微調價格,花費主要分為初始訓練成本和使用成本,使用具有10萬Token的訓練檔案微調gpt-3.5-turbo,經過3次完整走訪訓練,預估成本約為2.4美元。今年稍晚,OpenAI還會推出新功能,允許使用者針對函式呼叫與gpt-3.5-turbo-16k模型微調。

在7月時,OpenAI宣布GPT-3基礎模型,包括ada、babbage、curie和davinci都將於2024年1月4日退役,而OpenAI也預告將以替代模型babbage-002、davinci-002,作為基礎模型和微調模型,用戶可以使用Completions API查詢存取這些模型。

熱門新聞

Advertisement