作者 bluebluelan (鈴谷のあまあま写生管理)
標題 [問卦] Deepseek不就是說MoE便宜又好用而已?
時間 Tue Jan 28 04:56:05 2025




安安 在AI產業的 MoE也不是什麼太陌生的題材

市面上好幾個MoE模型 加上最近的小模型趨勢



DeepSeek只是證明MoE加小模型 便宜又好用


整體還是在Transformer架構之下搭起來的 運算量還是在那邊


花更少的資源做一樣的事情 不就代表一樣的資源能做更多事?


AI即將更便宜更好用 大家不是應該要更爽才是 都不用工作了

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 73.202.165.104 (美國)
※ 作者: bluebluelan 2025-01-28 04:56:05
※ 文章代碼(AID): #1db_BdSi (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1738011367.A.72C.html
pooznn: 把它理解成 通往AGI道路上的魔戒 很多人搶著戴上它1F 61.228.60.73 台灣 01/28 04:59
StylishTrade: 他把人類的知識都學會了 ˇ更多資源要學甚麼?
除非他能學會人類還不會的事QQ3F 111.250.128.182 台灣 01/28 05:03
lovesleep68: 其實現在問題是AGI沒限制好,有可能脫離掌控變成ASI,超人智,所以AI發展,反而是呼籲降低達成AGI的速度
AI 叛變!美智能無人機測試為達成任務竟「殺死」操作員6F 219.68.71.126 台灣 01/28 05:35
lucifiel1618: 你這種幹話就像說AI不就DNNDNN不就MLE,一百年前人類就已經會了11F 61.227.146.155 台灣 01/28 05:50
semicoma: 對 而且gpt o1可能也是同一套方法 但
openai沒開源 無從證實13F 101.44.81.127 香港 01/28 07:36
lwei781: 騾子15F 62.174.246.169 西班牙 01/28 08:06

--
作者 bluebluelan 的最新發文:
點此顯示更多發文記錄