| Nvidia | Common Crawl | DCLM | Nemotron

Nvidia發布6.3兆Token大型英文資料集Nemotron-CC

Nvidia發表6.3兆個Token的Nemotron-CC英文語料庫,含1.9兆合成資料。經實驗測試,以高品質子集Nemotron-CC-HQ訓練的80億參數模型,在MMLU分數上比Llama 3.1 8B模型提升5分

2025-01-13

| DCLM | 蘋果 | 小語言模型

蘋果再公布二款小模型DCLM

蘋果發表規模分別為14億及70億參數的DCLM模型家族,號稱效能與Llama 3、Gemma或Mistral不相上下,同時更節省訓練運算資源

2024-07-22