| GPT-4o | 微調 | OpenAI

OpenAI推出GPT-4o微調服務

OpenAI開始提供頂級模型GPT-4o的微調功能,開發人員能以客製化資料集來調整GPT-4o,讓模型輸出更符合特定應用需求

2024-08-21

| 微軟 | Azure AI | Phi-3 | 微調

微軟Azure AI推出小語言模型Phi-3微調工具、新增Llama 3.1、GPT-4o mini等模型

Azure AI開放用戶使用小語言模型Phi-3進行微調,同時上架多款新模型包括OpenAI GPT-4o mini、Meta Llama 3.1 405B、Mistral Large 2,以及Cohere Rerank

2024-07-29

| OpenAI | API | 微調 | GPT-4o mini

OpenAI公布GPT-4o mini微調工具對抗最新Meta Llama 3模型,免費使用2個月

OpenAI微調工具可由API使用,現階段提供給tier 4和tier 5用戶,後續預計推展到所有收費等級的用戶

2024-07-24

| Amazon Bedrock | AWS | Custom Model Import | 微調 | 客製化 | 模型

Amazon Bedrock提供模型客製化服務

AWS發表Amazon Bedrock平臺的Custom Model Import新功能,讓企業用戶將模型上傳Bedrock微調並為特定應用客製化

2024-04-24

| OpenAI | 微調 | AI模型 | 自訂模型 | Custom Model

OpenAI擴大AI模型微調功能、也提供輔助微調服務

OpenAI公布AI模型微調新功能,供企業或開發商自行微調模型以開發想要的AI應用

2024-04-08

| IT周報 | 合成資料 | Hugging Face | Groq | LoRa | 微調 | Gemma | google

AI趨勢周報第244期:Hugging Face開源最大合成資料集Cosmopedia

Hugging Face開源全由Mixtral模型生成的250億個Token合成資料集;突破GPU瓶頸!Groq用LPU推論引擎提供最快LLM服務;Google開源AI模型Gemma;BigQuery推出向量搜尋功能,還支援RAG;復旦大學開源優化器LOMO,大幅降低LLM訓練的記憶體資源

2024-02-23

| 大型語言模型 | LLM | 微調 | 安全風險 | AI安全 | 模型安全 | GPT-3.5 Turbo | Llama-2

研究顯示微調LLM會削弱模型安全性

IBM研究院與普林斯頓大學、維吉尼亞科技大學聯合發表的論文指出,有三種方法可以透過微調LLM破壞開發者為模型加入的安全防護,例如數十萬組資料集中一旦含有不到100則的有害資料,就足以影響Meta Llama-2及OpenAI GPT-3.5 Turbo的安全性

2023-10-16

| google | LLM | 蒸餾 | 微調

Google開發逐步蒸餾技術,小資料小模型也能打敗LLM

Google開發逐步蒸餾(Distilling Step-by-Step)技術,以較少資料訓練專用小模型,效能即可優於少樣本提示語言模型,解決龐大模型的部署挑戰,同時也使小模型效能可超越大型語言模型

2023-09-23

| OpenAI | GPT | 語言模型 | 微調

OpenAI對GPT-3.5 Turbo添加微調功能,允許用戶以自有資料調整模型

OpenAI對大型語言模型GPT-3.5 Turbo增加微調功能(Fine-Tuning),供用戶客製化模型,以更符合特定用例需求

2023-08-23