| Meta | Llama 4 | Maverick | Scout

Meta公布MoE架構開發的Llama 4,開源4000億、1090億參數的Maverick、Scout

Meta公布第一個混合專家(MoE)模型家族Llama 4,其中包含4000億參數的Maverick及1090億參數的Scout

2025-04-07