※ 本文轉寄自 ptt.cc 更新時間: 2026-02-13 10:27:46
看板 Stock
作者 標題 [新聞] 中國智譜發布新開源模型 勝過Gemini3
時間 Thu Feb 12 12:02:58 2026
原文標題:
GLM-5: From Vibe Coding to Agentic Engineering
原文連結:
https://z.ai/blog/glm-5
發布時間:
2026-02-12
記者署名:
無
※原文無記載者得留空
原文內容:
We are launching GLM-5, targeting complex systems engineering and long-horizon a
gentic tasks. Scaling is still one of the most important ways to improve the int
elligence efficiency of Artificial General Intelligence (AGI). Compared to GLM-4
.5, GLM-5 scales from 355B parameters (32B active) to 744B parameters (40B activ
e), and increases pre-training data from 23T to 28.5T tokens. GLM-5 also integra
tes DeepSeek Sparse Attention (DSA), significantly reducing deployment cost whil
e preserving long-context capacity.
我們正式推出 GLM-5,其目標是應對複雜系統工程與長時程智慧體任務。規模化仍然是提升
通用人工智慧智慧效率最重要的方法之一。與 GLM-4.5 相比,GLM-5 的規模從 3,550 億參
數(其中 320 億為啟動參數)擴展至 7,440 億參數(400 億啟動參數),並將預訓練數據
從 23T 提升至 28.5T Token。此外,GLM-5 整合了 DeepSeek 稀疏注意力機制,在大幅降
低部署成本的同時,仍保有優異的長文本處理能力。
通用人工智慧智慧效率最重要的方法之一。與 GLM-4.5 相比,GLM-5 的規模從 3,550 億參
數(其中 320 億為啟動參數)擴展至 7,440 億參數(400 億啟動參數),並將預訓練數據
從 23T 提升至 28.5T Token。此外,GLM-5 整合了 DeepSeek 稀疏注意力機制,在大幅降
低部署成本的同時,仍保有優異的長文本處理能力。
Reinforcement learning aims to bridge the gap between competence and excellence
in pre-trained models. However, deploying it at scale for LLMs is a challenge du
e to RL training inefficiency. To this end, we developed slime, a novel asynchro
nous RL infrastructure that substantially improves training throughput and effic
iency, enabling more fine-grained post-training iterations. With advances in bot
h pre-training and post-training, GLM-5 delivers significant improvement compare
d to GLM-4.7 across a wide range of academic benchmarks and achieves best-in-cla
ss performance among all open-source models in the world on reasoning, coding, a
nd agentic tasks, closing the gap with frontier models.
強化學習旨在彌補預訓練模型在「勝任」與「卓越」之間的差距。然而,由於強化學習訓練
效率低下的問題,將其大規模應用於大型語言模型仍具挑戰性。為此,我們開發了「slime
」——一種新型的非同步強化學習基礎設施,能顯著提升訓練吞吐量與效率,從而實現更細
粒度的後訓練迭代。憑藉在預訓練與後訓練方面的進步,GLM-5 在各項學術基準測試中相較
於 GLM-4.7 有顯著提升,並在推理、程式碼編寫與智慧體任務方面,於全球所有開源模型
中達到了頂尖表現,進一步縮小了與前沿模型之間的差距。
效率低下的問題,將其大規模應用於大型語言模型仍具挑戰性。為此,我們開發了「slime
」——一種新型的非同步強化學習基礎設施,能顯著提升訓練吞吐量與效率,從而實現更細
粒度的後訓練迭代。憑藉在預訓練與後訓練方面的進步,GLM-5 在各項學術基準測試中相較
於 GLM-4.7 有顯著提升,並在推理、程式碼編寫與智慧體任務方面,於全球所有開源模型
中達到了頂尖表現,進一步縮小了與前沿模型之間的差距。
心得/評論:
https://i.meee.com.tw/DAfKbgq.jpg
![[圖]](https://i.meee.com.tw/DAfKbgq.jpg)
智譜 (2513.HK) 發布了新一代大模型 GLM-5,基準測試已超越 Google 的 Gemini 3 系列
,僅次於 Claude Opus 4.6 與 GPT-5.2 (深度思考模式)。
作為全球首個上市的純AI模型公司,上市後的第一個旗艦模型依舊維持MIT開源,任何人現
在都能下載直接用,這要怎麼賺錢?不過市場看起來很熱烈,早盤最高達到+33%了。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.79.16.163 (臺灣)
※ 作者: h0103661 2026-02-12 12:02:58
※ 文章代碼(AID): #1fZL3v94 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770868985.A.244.html
推 : 能跟我說一下何時台灣才跟得上?1F 02/12 12:04
推 : DEEPSEEK,MINIMAX也推新的2F 02/12 12:04
推 : 有沒有新的鬼故事模板...3F 02/12 12:04
→ : 去年殺nv,今年殺狗4F 02/12 12:04
→ : 99 GOOG5F 02/12 12:04
→ : 台灣有台積電6F 02/12 12:04
→ : 唉都什麼時候了還在刷比分7F 02/12 12:04
噓 : 上次那個還有氣嗎 放消息就是出貨吧8F 02/12 12:05
推 : 怎麼有種既是感XD9F 02/12 12:05
推 : 去年已經示範過一次了,這次肯定不能錯過....10F 02/12 12:05
→ : 狗狗要多殺個20%了 99狗狗11F 02/12 12:05
→ : 這個鬼故事去年講過了12F 02/12 12:05
推 : 呃..嗯…13F 02/12 12:06
噓 : 中又贏14F 02/12 12:06
→ : 看起來GPT越來越難回收成本了,好期待永動機跑不動15F 02/12 12:06
→ : 都要買晶片的16F 02/12 12:06
→ : 的時候。17F 02/12 12:06
推 : 又要殺硬體嗎18F 02/12 12:06
噓 : 沒創意19F 02/12 12:07
→ : 沒有新的劇本?20F 02/12 12:07
噓 : AI目前就都狗屁21F 02/12 12:07
推 : deepfuck22F 02/12 12:09
推 : 去年過年的劇本又來一次23F 02/12 12:09
推 : 好厲害 大家都懂24F 02/12 12:10
推 : 贏麻了25F 02/12 12:11
噓 : 去年演過一次26F 02/12 12:12
推 : 今天就抓出說自己是claude 笑死27F 02/12 12:12
推 : 蒸餾真的猛XD 看來以後預訓練都是花錢讓別人爽而已28F 02/12 12:13
推 : 笑死29F 02/12 12:13
推 : 鬼故事來了 年後開盤有鑽石撿嗎30F 02/12 12:13
推 : 這劇本我看過了 謝謝31F 02/12 12:13
→ : 蒸餾效果這麼好 以後大家都蒸餾就好啦32F 02/12 12:13
→ : 接下來競爭力就真的是比推論成本了
→ : 接下來競爭力就真的是比推論成本了
推 : 誰信34F 02/12 12:14
噓 : 去年過年就演過一遍了35F 02/12 12:14
推 : 說那麼多我還不是需要google~C36F 02/12 12:15
推 : 一定爛37F 02/12 12:15
推 : 中國什麼都贏 贏麻了38F 02/12 12:15
推 : 比誰家模型訓練成本最低! 捲起來~39F 02/12 12:15
推 : 好耶 又能加碼賺更多40F 02/12 12:16
推 : 贏麻啦哪次不贏41F 02/12 12:19
推 : 又來?42F 02/12 12:19
推 : 去年被deepshit 騙過一次了 今年還來?43F 02/12 12:19
推 : 這劇本好熟悉44F 02/12 12:20
→ : 喔喔喔喔是喔好怕喔45F 02/12 12:20
推 : 又一個貼牌大模型 好喔46F 02/12 12:21
推 : 新年鬼故事 台股又又又躲崩47F 02/12 12:22
推 : 中國什麼都要幹到供給過剩,房地產暴雷、電動車也48F 02/12 12:23
→ : 炸掉、現在AI也要免費送
→ : 炸掉、現在AI也要免費送
→ : 只針對單一訓練資料拿高分 實際上好不好用不知道50F 02/12 12:23
→ : 反正白菜價也不錯,不拿白不拿51F 02/12 12:24
推 : 沒用呀 美國又不用你們的52F 02/12 12:24
→ : 中又贏,無敵的吧53F 02/12 12:25
推 : 支又贏 支吹高潮54F 02/12 12:25
推 : 中國最喜歡的 燒錢搶市占環節55F 02/12 12:25
→ : 提高大家變現難度
→ : 提高大家變現難度
推 : 長江存儲不炒了嗎57F 02/12 12:26
→ : 然後技術是抄/蒸餾來的 壓低成本58F 02/12 12:27
→ : 那個deepseek我們不要了59F 02/12 12:27
→ : 最爛是阿祖。砸大錢被蒸餾仔超車兩次60F 02/12 12:28
推 : 哇,好厲害喔,中又贏(平淡61F 02/12 12:28
→ : 就互相競爭,有什麼了不起的,這之後也會被超越的62F 02/12 12:29
→ : 現在AI就看中美爭霸而已 其他人都邊緣化了63F 02/12 12:30
推 : 現在大陸基建能源多到滿出來,就只差算力而已64F 02/12 12:31
推 : 谷歌只要等別家慢慢追上再不慌不忙丟出新的碾壓模65F 02/12 12:31
→ : 型就好
→ : 型就好
→ : 別的國家因為電力散熱基建跟不上,蒜粒放倉庫67F 02/12 12:32
推 : 凹嗚~狗狗買在321,慘了我要哭了68F 02/12 12:32
推 : 孤狗被殺到頭破血流 好扯69F 02/12 12:32
推 : 要過年了 又來?70F 02/12 12:32
噓 : 科科,整天吹,上次吹完deepseek後一樣沒人鳥71F 02/12 12:33
推 : 別吹了 大家都走路去洗澡72F 02/12 12:35
→ : *洗車
→ : *洗車
推 : 贏麻了74F 02/12 12:37
→ : 好了啦 我信還不行嗎75F 02/12 12:37
推 : 華為昇騰算卡發威了XDD76F 02/12 12:37
推 : 讚啦!過完年有便宜的GOOG可以撿77F 02/12 12:38
推 : 又掰故事壓低吃貨 玩不膩78F 02/12 12:38
推 : 中國ai洗不動了79F 02/12 12:39
推 : 好了啦 天朝又雙贏了 贏到沒朋友80F 02/12 12:40
推 : 來了,蒜粒過剩…「那個GPU我們不要了」81F 02/12 12:41
推 : 好了啦,中國一定強82F 02/12 12:42
→ : 意思意思 跌個5% 讓我補票上車
→ : 意思意思 跌個5% 讓我補票上車
推 : 支贏 可惜支吹都很窮買不起陸股84F 02/12 12:44
→ : 強不強需要時間證明,但中吹又能開始洗文大吹特吹了85F 02/12 12:44
推 : 支那AI還真不敢用86F 02/12 12:45
推 : 4.7 flash還行87F 02/12 12:46
推 : 大家都會88F 02/12 12:47
→ : 改拿打敗gemini打廣告了,gpt真的下去了嗎89F 02/12 12:48
推 : 勝啦 那次不勝90F 02/12 12:49
推 : 等贏過claude opus 4.6再跟我說91F 02/12 12:51
推 : 智譜炒股有一套,股東賺利益 用戶享免費92F 02/12 12:52
→ : GLM-5 就是一套蒸餾Claude的鬼才炒股之作
→ : GLM-5 就是一套蒸餾Claude的鬼才炒股之作
→ : 鬼故事太早了94F 02/12 12:54
→ : 美國軟體股被血洗 有夠慘95F 02/12 12:54
→ : 但對用戶來說應該性價比拉滿96F 02/12 12:54
推 : 99goog97F 02/12 12:55
推 : 去年DS時刻讓歐美破防,今年字節SD時刻讓歐美AI破防98F 02/12 12:56
推 : 遲早會開發反蒸餾的惡搞方法99F 02/12 12:56
→ : 所以上次那個deepsh_t怎麼了100F 02/12 12:57
推 : 破三小防 支那人開口就說謊101F 02/12 12:58
→ : 蒸餾claude的垃圾模型 笑死
→ : 沒有美國人創新 支那什麼東西都做不出
→ : 蒸餾claude的垃圾模型 笑死
→ : 沒有美國人創新 支那什麼東西都做不出
推 : 過年鬼故事 又要來一次喔 好了啦104F 02/12 12:59
噓 : 蒸餾蒸起來105F 02/12 13:00
→ : 用過一次還被看穿的招 再用是能騙到什麼人106F 02/12 13:00
→ : 美國被打到滿地找牙 也太慘 美吹繼續裝瞎哈哈107F 02/12 13:00
推 : 支吹真可憐 偷東西還輸人108F 02/12 13:01
→ : HBM EUV 也都做不出 偷東西還輸 可憐啊
→ : HBM EUV 也都做不出 偷東西還輸 可憐啊
噓 : 忘記去年那個dp 了嗎?還要繼續吹捧啊?110F 02/12 13:03
推 : 感覺openai才要怕111F 02/12 13:05
→ : 等等八卦一堆支吹網軍又跑來..112F 02/12 13:06
推 : gemini有全家桶設計太方便了113F 02/12 13:06
推 : 最近還抓到支那間諜偷TPU 的新聞 可憐啊 廢物國家114F 02/12 13:07
→ : HBM今年要國產囉,EUV原型機已經出來了115F 02/12 13:07
推 : 去年鬼故事要開始了嗎116F 02/12 13:07
→ : AI需求衰退 記憶體需求也衰退
→ : AI需求衰退 記憶體需求也衰退
→ : 連拆解DUV都還裝不回去 現在幻想EUV做出來了喔118F 02/12 13:08
→ : 笑死 陸製HBM那種垃圾東西沒人要 EUV原型機還在吹119F 02/12 13:09
→ : 長新存儲連1a都做不出 可憐
→ : 長新存儲連1a都做不出 可憐
推 : 這是今年的鬼故事嗎?121F 02/12 13:10
推 : 最多死openai,狗的優勢沒變122F 02/12 13:10
→ : 東升西降 以後ai就是大陸說的算的產業123F 02/12 13:12
→ : 美國AI全是華人 有人超崩潰124F 02/12 13:14
推 : 支那人只剩這個可以說嘴嗎 可憐 廢到笑125F 02/12 13:15
→ : 好了啦 去年deepseek用過了126F 02/12 13:22
推 : 去年過年封關期間的鬼故事 又想來一次 ?127F 02/12 13:26
推 : 這個劇情去年好像看過了欸128F 02/12 13:28
→ : 跟去年的鬼故事差不多 有沒有新一點的?129F 02/12 13:29
推 : 一年一度的大特價要來了 這次記得歐硬130F 02/12 13:29
推 : 剛封關馬上就鬼故事131F 02/12 13:31
推 : 台灣沒電132F 02/12 13:32
噓 : 哇靠有智障在吹中國ai真可憐 你不知道中國人也不用133F 02/12 13:38
→ : 自己ai嗎
→ : 黃種人都是華人美國崩潰
→ : 自己ai嗎
→ : 黃種人都是華人美國崩潰
推 : deepseek演過一次了136F 02/12 13:39
推 : 這麼厲害,所以可以低腰撿 Google 了嗎137F 02/12 13:39
→ : 為什麼總是別人先推出中國再推出,能不能 有創意一點138F 02/12 13:39
推 : 進一步縮小了與前沿模型之間的差距…怎到了標題就139F 02/12 13:39
→ : 變成勝過Xxx
→ : 變成勝過Xxx
→ : 放屁141F 02/12 13:40
→ : 太猛了 還開源誒142F 02/12 13:40
噓 : 蒸嵧酒就便宜貨沒人要喝呀,AI也是一樣143F 02/12 13:40
推 : 現在最紅的是seedance 2.0, 這個根本無人在意144F 02/12 13:41
→ : 看被deepshit騙過一次的會不會再被騙一次145F 02/12 13:42
→ : 484都要買我大GG做的晶片啊146F 02/12 13:44
噓 : 中國的模型我到現在還沒覺得好用過 限制他媽多147F 02/12 13:47
推 : 開源真的猛148F 02/12 13:48
推 : 又來了 煩不煩啊 誰再被騙一次誰蠢149F 02/12 13:53
→ : gemini寫扣本來就最屎的啊150F 02/12 13:53
→ : 爛到中國模型都能屌打那種
→ : 爛到中國模型都能屌打那種
推 : 影視颶風才被盜用個資 中國AI就是沒道德底線 再強152F 02/12 13:56
→ : 也不敢用
→ : 也不敢用
推 : 還有人記得Deepseek嗎154F 02/12 13:58
→ : seedance很多人用155F 02/12 14:01
噓 : 不要抄劇本啦156F 02/12 14:01
→ : 支那人被電完繼續去其他地方造謠 嫩157F 02/12 14:04
推 : 叒超車?158F 02/12 14:04
→ : 兩個帶頭的都在轉應用了你還在刷分159F 02/12 14:05
→ : deepseek part two160F 02/12 14:08
→ : 鹿港股買起來 老招惹
→ : 鹿港股買起來 老招惹
推 : 中國的開源模型把美國搞到現在AI還在賠錢血虧162F 02/12 14:11
→ : Seedance這種訂閱價格,根本不給Sora和Veo活路啊
→ : Seedance這種訂閱價格,根本不給Sora和Veo活路啊
![[圖]](https://i.imgur.com/YnhcBU5h.jpg)
→ : 喊一喊就贏的話,那冠軍或許是印度吧!哈!166F 02/12 14:25
→ : 故事了無新意 繼續噴167F 02/12 14:27
推 : Preview pro high 版本跟 Antigravity 裡的Pro hi168F 02/12 14:29
→ : gh差別很大嗎?
→ : gh差別很大嗎?
推 : 貼皮模型?170F 02/12 14:33
推 : 難道沒有新版的假鬼故事了嗎?171F 02/12 14:34
→ : 中國來送錢了172F 02/12 14:41
噓 : 贏麻了173F 02/12 14:41
推 : 問它洗車問題174F 02/12 14:45
→ : 支企吹牛沒輸過,實際體驗沒贏過175F 02/12 14:49
推 : 蒸餾claude然後説贏了 我看有誰蠢到考古題還做錯176F 02/12 14:55
推 : 我不太信,吹牛沒停過 要看實際笑死人177F 02/12 15:01
推 : 沒人在乎178F 02/12 15:08
推 : 太好了,過年又有鬼故事,年後殺盤撿鑽石179F 02/12 15:09
噓 : 還在偷180F 02/12 15:10
推 : 他這模型開源的商業模式是什麼啊181F 02/12 15:34
推 : 有賺錢才是真的 其他都是蝦逼逼182F 02/12 15:52
→ : 來幫沒上到美股車的人183F 02/12 15:52
→ : 美股跌就是買
→ : 美股跌就是買
推 : 軟體準備捲起來了185F 02/12 16:02
推 : 每年過年都要來這招就是186F 02/12 16:18
→ : 中國都是先捲人再思考怎麼盈利187F 02/12 16:21
推 : 喔,好窩188F 02/12 16:23
推 : 笑死 沒人在乎189F 02/12 16:44
推 : 又贏了190F 02/12 16:44
→ : 沒人在乎191F 02/12 16:46
推 : 考古題192F 02/12 17:01
推 : 3天漲了一倍 有夠妖193F 02/12 17:17
推 : 燒硬體絕對是最白癡的,讓這些沒能力的硬體商賺到194F 02/12 17:19
→ : 贓款,希望股東能把軟體巨頭CEO全部裁掉
→ : 贓款,希望股東能把軟體巨頭CEO全部裁掉
→ : 完了196F 02/12 17:25
→ : 鬼故事要來了嗎?197F 02/12 17:39
推 : AI模型要管啥盈利模式?你哪隻眼睛看到巨頭純靠AI198F 02/12 17:41
→ : 獲利?反正我給你看也沒差,你看了就是要跟著我們
→ : 的想法走,但你不看我們就是中國裡面自己進步,一
→ : 個你看或不看都要死的概念,這招真的厲害!
→ : 獲利?反正我給你看也沒差,你看了就是要跟著我們
→ : 的想法走,但你不看我們就是中國裡面自己進步,一
→ : 個你看或不看都要死的概念,這招真的厲害!
噓 : 拉基dicksit2代嗎 哈哈哈哈202F 02/12 18:30
推 : 還有人信?203F 02/12 19:03
推 : 我覺得1F真好笑,你怎會相信中國的新聞204F 02/12 19:24
推 : 中國AI確實強啊?我誤解了嗎205F 02/12 20:37
→ : 還來喔鬼故事206F 02/12 21:12
![[圖]](https://i.imgur.com/dUem14hh.jpg)
![[圖]](https://i.imgur.com/XjSyi85h.jpg)
![[圖]](https://i.imgur.com/HC14s5Eh.jpg)
![[圖]](https://i.imgur.com/GR4MDiwh.jpg)
→ : 如果還有人為這個鬼故事嚇到恐慌我覺得還是早點送211F 02/12 21:46
→ : 幸福給別人ㄅ
推 : https://imgur.com/TtlFmH2.jpg
→ : https://imgur.com/QQtfC1U.jpg
→ : 幸福給別人ㄅ
推 : https://imgur.com/TtlFmH2.jpg
→ : https://imgur.com/QQtfC1U.jpg
![[圖]](https://i.imgur.com/TtlFmH2h.jpg)
![[圖]](https://i.imgur.com/QQtfC1Uh.jpg)
→ : https://imgur.com/T2tx3qI.jpg215F 02/12 22:00
→ : 我不知道智譜的GLM有沒有比Gemini聰明
→ : 但是Gemini看戲的心態真的很像鄉民
→ : 我不知道智譜的GLM有沒有比Gemini聰明
→ : 但是Gemini看戲的心態真的很像鄉民
![[圖]](https://i.imgur.com/T2tx3qIh.jpg)
推 : 活鯰魚幹的好不逼一下永遠不知道狗哥會端出啥來218F 02/12 22:09
推 : 中又贏219F 02/12 23:11
→ : 訊號,過陣子記得加碼美股220F 02/12 23:32
推 : 笑死 Claude怎麼擋IP還是會被借算力出去221F 02/12 23:49
噓 : 突然想到某年過年是deepseek鬼故事222F 02/13 00:52
推 : 這都在吹捧 以後中國學生抄隔壁學霸答案得分也要獎223F 02/13 05:05
→ : 勵?價值觀有夠錯亂 為達宣傳目標可以不擇手段
→ : 勵?價值觀有夠錯亂 為達宣傳目標可以不擇手段
推 : 這幾天過年就要推出DS了吧225F 02/13 06:35
推 : 炒股的 大家繼續用claude+gemini226F 02/13 06:51
推 : DS蠻好用的 +1227F 02/13 08:05
推 : 市場還會被騙第二次?228F 02/13 08:54
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 3 累積人氣: 422
作者 h0103661 的最新發文:
- Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b y Cerebras, is availa …170F 98推 4噓
We are launching GLM-5, targeting complex systems engineering and long-horizon a gentic tasks. Scali …228F 119推 17噓- 38F 15推
- 12F 4推
- 13F 10推
點此顯示更多發文記錄
→
guest
回列表(←)
分享
