作者:
zzahoward (Cheshire Cat)
1.163.78.138 (台灣)
2025-01-30 07:26:03 → demintree: distillation不是微調啊,會有爭議的是他拿別人的大模型來當他自己的訓練
MoE也不是新概念,其實OpenAI和Gemini裡面都是 60F 01-30 08:19
→ demintree: 結論是他們很有效率的用其他人的模型為輔助產生了新的模型,這對於很多新進廠商很有幫助 64F 01-30 08:22
… 共有 19 則推文,點此顯示
作者:
gn02118620 (Howard)
1.200.7.21 (台灣)
2025-01-29 08:59:54 噓 demintree: 可以給開源training的連結嗎,他GitHub上只放訓練好的模型和inference的程式 354F 01-29 14:57