看板 Stock作者 afflic (afflic)標題 Re: R: [請益] 為什麼中國越來越強?時間 Sat Feb 1 06:16:32 2025
給一些覺得中國很爛的人看看市場現在在擔心些什麼
艦長J快訊 重要的突破要多寫一次
2025/1/31
總之,這幾天是一次很燒腦的過年假期,感覺比平常還要認真研讀資料,甚至大年初一晚
上還有大陸券商辦專家論壇..... 這個市場實在太捲。
當然,花了這些精神做功課,就是要研究一下開年後的投資動作,究竟是新春大特賣趕快
撿便宜、還是苗頭不太對腳底要抹油?很遺憾的,這幾天研究下來,個人目前對硬體的看
法越來越偏向後者,但相關的AI應用卻可能加速發展。
DS的論文重點以及它在演算法上的突破,網路上已經有很多人分享,我就不再贅述;直接
講幾個觀察到的重點吧~
1. 還記得Apple為了推銷Apple Intelligence,將iPhone 全面升級到8GB以上嗎?這僅僅
是為了跑一個3B 參數的小模型而已。 現在,有人成功用一張 Nvidia RTX 6000 (48GB V
RAM) 就可以跑動 DS 671bn 參數的大模型,而且這個模型還開源可以直接下載。
這代表什麼意思?以後企業或個人要佈建AI,可能買一台具有高階顯卡的電腦就做的到。
不用每個月花200USD訂閱OpenAI、不用CSP租賃昂貴的AI server & 網路..... 在地端佈
署AI 變得簡單&便宜許多。這兩天已經有看到朋友的公司開始研究把AI模型的佈建轉為
在地端執行的可能性。
2 各大廠紛紛投入:短短幾天,可以看到微軟、AWS、NVIDIA 都開始提供DS R1 模型的服
務。由於對硬體的要求的確不高,百萬token 輸出的價格只要2.19美元(作為對比: Ope
nAI的輸出價格爲60美元/百萬Token),價差接近30倍。
NVIDIA 官方也有描述:在單個NVIDIA HGX H200系統上,完整版DeepSeek-R1 671B的處理
速度可達3,872 Token/秒。僅需一個系統就可以完整運作DS R1 大模型。就算企業依然需
要利用雲端來佈建AI,需要的系統&價格也比之前簡化許多。
3 NV關鍵優勢不再? 這兩年來,我們持續提到NV產品在大模型與高運算力方面的優勢,
包括記憶體的使用、NVlink多卡串聯、Scale-up/out 的領先等等;在探討下一代Rubin或
更後面的產品,討論的是一個機櫃做到NVL 144/288 、如何處理這麼大功耗的產品、系統
架構該如何演進等等;重點不僅僅是“教主產品做的比別人好”,而是“不用教主的產品
就根本無法訓練&使用這些大的模型”。
忽然間,這個必要性被打了一個大問號。
進而延伸的問題:HBM、CoWoS等等原本為了在空間體積功耗等等限制下塞進最多算力的技
術,是不是仍然必要?還是有許多便宜的替代品可以用?
BTW,很多人喜歡把政治問題扯進來。對我來說,探討DS本身到底用了多少卡有意義嗎?
沒有,重點是現在實際佈署R1的硬體需求就是極低;其次,它有沒有抄OpenAI? 應該有吧
~ 不過OpenAI 的 GPTBoT 在網路上不顧版權的到處亂抓資料也不是一兩天的事情了~
抓完還不開源勒。對投資而言,整個市場結構的變化,比這些枝微末節的小事重要多了。
投資總有風險,本人過去績效不做未來獲利之保證。最近詐騙猖獗,本人不收會員、不用
追蹤、不騙流量、不需粉絲、更不必按讚分享開啟小鈴鐺。快訊僅供好友交流之用,如果
你與我看法不同,你肯定是對的千萬不要被我影響。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.14.25.245 (臺灣)
※ 作者: afflic 2025-02-01 06:16:32
※ 文章代碼(AID): #1ddKl2fP (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738361794.A.A59.html
※ 同主題文章:
Re: R: [請益] 為什麼中國越來越強?
02-01 06:16 afflic
推 ggian123: 大陸愈來愈強 研發能量世界頂尖
台灣愈來愈爛 錢拿去點麵線
上層領導決定基礎 台灣真的愈來愈慘1F 02/01 06:26
→ breacal: 這麼強,中國股市的怎麼爛成這樣?4F 02/01 06:43
→ dostey …
噓 dostey: 這模式是偷用別人95%算力成果,自己只出5%算力,真5F 02/01 06:45
→ dostey: 的是無本買賣
→ afflic: 中國一家公司強,不等於中國整個股市強啊7F 02/01 06:56
→ shawnfu: 靠call ChatGPT api distillation 在強也幹不過GPT老師跟學生的關係,學生的極限就頂多跟老師一樣8F 02/01 07:00
→ afflic: 幹不幹得過其實不太重要
中芯也幹不過台積電
但能把聯電世界力積電捲死就夠了10F 02/01 07:01
→ shawnfu: 能卷的都是相對成熟的產業
你就期待DS用中芯製GPU研發出AGI 還是NV+TSM13F 02/01 07:04
→ afflic: 你可能看不太懂這篇文章擔心的點?
DS不用幹過NV+TSM啊
市場只擔心硬體需求減少,營收獲利就……15F 02/01 07:06
→ shawnfu: 你比較看不懂吧... 未來的AI不會只有Chat bot18F 02/01 07:11
推 ejnfu: AI又不是只有LLM,我覺得現在擔心算力過剩還太早19F 02/01 07:11
→ shawnfu: 會有更多應用需要更多算力 老黃都吹過了20F 02/01 07:11
→ afflic: 沒關係,看不看得懂不重要
重要的是市場跌給你看了21F 02/01 07:12
→ ejnfu: 市場很多都是反應短線情緒的,長期投資的就不用在意一時震盪23F 02/01 07:13
→ afflic: 也許你是對的市場是錯的
但這就是市場上目前多數參與者反應的想法25F 02/01 07:14
→ WTF55665566: 結果就如我講的 大廠都拆解Deepseek模型跟上後 又是算力對決
跟改進蒸汽機效率反而帶動整體煤炭需求一樣28F 02/01 07:35
推 patrol: 我只知道網咖最後大多倒了31F 02/01 07:50
→ wr: 先別管這麼多 你的對帳單在哪32F 02/01 07:56
推 xcc54154: 所以你買a股跟上海滬深沒? 沒買閉嘴33F 02/01 08:06
→ hantulee: 大家看一堆人吹噓中國好才進大陸股市,結果跌到一塌糊塗35F 02/01 08:15
推 etset: deepseek 救中國 遙遙領先37F 02/01 08:15
推 love80: 別生氣,股版大家都只是在猜未來而已,中國股市不好人盡皆知,要超越美國也不可能。重點是如果能持續產出所有能低成本取代美國的產品,那的確是大部分的國家就越來越不需要被美國綁架了42F 02/01 08:35
推 kissa0924307: 關稅戰也是每個人都說跌啊 導致通膨啊 結果川普上一任期通膨沒超過3% 整天聽左媒找專家唱衰 投資準備賠錢46F 02/01 08:42
噓 ellight: 糾正你兩點671B完整載入還是需要1.5T以上的RAM
那些能單卡跑起來的都是人工智障版本
不然我llama3.2跑個1B也用不到8GvRAM49F 02/01 08:42
推 yftsai: 其實中國越來越強無庸置疑的吧,不然美國幹嘛搞一堆政策制裁中國?53F 02/01 08:46
推 jjoonnyy: 學生比老師強的比比皆是吧! 例如台積電56F 02/01 08:48
噓 ellight: AI落地已經好幾年了你這兩天才聽到你也太IE57F 02/01 08:48
→ payneblue: 好了啦 強爆了 然後你投資中國股市了沒?58F 02/01 08:48
→ Alwen: NV基本面就發生微妙的變化惹阿= =59F 02/01 08:51
推 shter: AI落地哪來好幾年,你PC本地的檔案都訓練完了?
以後要的是PC本地照片掃到媒體庫建縮圖同時也訓練完63F 02/01 08:55
噓 ellight: DS也是依賴PTX運算紮紮實實的賴在N卡身上65F 02/01 08:56
→ Adrian: ai不是只有llm66F 02/01 08:56
→ shter: 你就能在本地AI打個"海邊"找出所有目錄內有海的 jpg67F 02/01 08:56
→ ellight: DS會影響最大的是服務多人時可以減少記憶體使用68F 02/01 08:57
→ IBIZA: 這個意味著也有機會用組合語言運作在其他的顯卡上而不用依賴CUDA
根據reddit的測試, 336G ram可以跑671B69F 02/01 08:57
噓 ellight: 也就是滿血載入1.5T後續服務每個人最低16G72F 02/01 08:59
→ IBIZA: 不用 1.5T73F 02/01 09:00
→ ellight: 所以你看hynix股價也遭殃就是這回事74F 02/01 09:00
推 epicurious: 多菜才在糾結DS 能否幹掉GPT,看文章都看不到重點,希望這種人永遠留在股市
然後還有可以導出DS不錯就要人買鹿港的奇葩,DS不75F 02/01 09:01
推 patrol: 幹不掉就會越來越虛弱阿,星門功能越來越多,網
咖跟不上就只能越來越便宜最後倒閉,大概4這樣78F 02/01 09:03
→ epicurious: 錯這篇的重點是de-rating硬體,但可能可以做多軟體吧,關鹿港屁事
一堆人腦中沒有政治就當機,摳連80F 02/01 09:03
→ IBIZA: 還在星門..83F 02/01 09:04
推 shter: 不要忘記三十年前要做伺服器都要買大型 UNIX 主機84F 02/01 09:04
→ IBIZA: 現在大家討論的是怎麼把可用的版本裝到家用電腦上85F 02/01 09:05
→ shter: Linux 出來後一般 x86 微電腦個人PC都可以架站了86F 02/01 09:05
推 behapppy: 說別人偷,你連偷的本事都沒87F 02/01 09:05
→ IBIZA: 我完全沒有獨顯的NB, 可跑7B, 35B龜速88F 02/01 09:05
噓 ellight: 地端跑滿血671B的我目前看到的都是用NVMe89F 02/01 09:05
→ IBIZA: 目前當然都是NV90F 02/01 09:06
推 patrol: 留在鹿港的真的不適合投資91F 02/01 09:06
→ IBIZA: 但未來有機會不是NV了
大家看到的是新方向 笨蛋才會糾結在 現在92F 02/01 09:06
推 patrol: 也有機會不是台g了94F 02/01 09:07
→ IBIZA: 更不要說資訊根本不對95F 02/01 09:07
推 patrol: 隕石還掉下來了美債違約了呢96F 02/01 09:07
噓 ellight: 你是不是不知道NVMe是指SSD 不是顯卡vRAM97F 02/01 09:08
→ IBIZA: 說實在我還真不知道98F 02/01 09:09
→ WLM531: 每天看這些中國自慰寶 上來耍寶就覺得好笑99F 02/01 09:09
推 Homeparty: deepseek配備需求很低,如果是聊天用,大概30-40 token每秒,寫程式6~10秒token,翻譯大概1~6token就夠了。使用專門模型,大概5萬內就可以到15 token。336F 02/01 15:13
推 Homeparty: 滿血版也不一定要用A100,已經有人用6,000美元自組一般程式開發,5萬內就可以了342F 02/01 16:51
--