作者:
zxwxz (zxwxz)
42.73.112.255 (台灣)
2025-02-03 14:50:11 推 Mosskappa: 板上恐慌仔只會喊nv 50 tsm100 5F 02-03 15:10
作者:
laptic (靜夜聖林彼岸花)
180.74.216.191 (馬來西亞)
2025-02-03 14:00:00 推 Mosskappa: AMD:現在還有人在乎我的財報嗎 506F 02-03 15:00
推 Mosskappa: 你們很急著用股市的錢嗎,放著就好啦 727F 02-03 15:45
推 Mosskappa: 誰能告訴我現在又在V啥 749F 02-03 15:51
→ Mosskappa: 川普有說答應他三個條件可以取消關稅 753F 02-03 15:52
… 共有 25 則推文,點此顯示
作者:
laptic (靜夜聖林彼岸花)
180.74.219.17 (馬來西亞)
2025-01-31 08:30:00 推 Mosskappa: 利空全部放出來一口氣消化也是好事 154F 01-31 12:05
推 Mosskappa: 放心啦 大家看到沒跌多少會搶著買 365F 01-31 15:20
… 共有 8 則推文,點此顯示
作者:
laptic (靜夜聖林彼岸花)
180.74.219.17 (馬來西亞)
2025-01-30 08:30:05 → Mosskappa: 不用太擔心 992F 01-31 00:55
… 共有 7 則推文,點此顯示
作者:
freeclouds (創造自己新的人生)
1.200.7.190 (台灣)
2025-01-28 23:59:47 推 Mosskappa: 如果deepseek能選擇肯定也會用最好的鏟子,中美最頂尖的人才不會僅僅只要開發堪用的模型 299F 01-29 01:12
→ Mosskappa: 如果堪用就可以那deepseek可以原地解散了現在就開始吃老本 303F 01-29 01:13
→ Mosskappa: 至少目前看perplexity和OpenAI 要繼續加大支出,目 332F 01-29 01:17
… 共有 31 則推文,點此顯示
作者:
su35 (謠指部-指揮官)
36.233.228.11 (台灣)
2025-01-28 20:07:21 推 Mosskappa: 下一步是AI AGENT 257F 01-28 21:11
推 Mosskappa: 特斯拉跌到200那時候更慘,一堆人說賣車的估值這麼高不合理 298F 01-28 21:21
… 共有 7 則推文,點此顯示
作者:
cosmo7897 (普萊兒)
114.137.239.24 (台灣)
2025-01-28 16:30:19 推 Mosskappa: NV是一件好公司,擠掉一點泡沫後依然是科技巨頭、 28F 01-28 16:48
→ Mosskappa: 價值成長股。 30F 01-28 16:48
作者:
TSLA5566 (青埔撸鐵男孩)
118.231.193.78 (台灣)
2025-01-28 15:21:46 推 Mosskappa: 祖克柏在月中大力稱讚deepseek ,科技巨頭一定知道有料,阿祖後來又加大資本支出。 6F 01-28 15:24
作者:
breathair (拆了?簡單了)
42.74.99.187 (台灣)
2025-01-27 21:55:30 推 Mosskappa: 而且DS是蒸餾OpenAI的數據,之後要發展更強大的模型模型的成本只大不小 50F 01-27 22:10
推 Mosskappa: AI也不只LLM吧,現在高端硬體依然供不應求,也不是想買就買得到。 87F 01-27 22:24
作者:
Axwell (Axwell)
180.217.130.60 (台灣)
2025-01-27 18:47:39 推 Mosskappa: 有一個盲點是deepseek是蒸餾那些昂貴模型的數據訓練的,所以不代表那些高成本訓練的模型沒意義 208F 01-27 19:59
作者:
Sixigma (六西格瑪)
123.193.249.136 (台灣)
2025-01-27 15:59:11 推 Mosskappa: Deepseek成本便宜是跳過了訓練用了llama的模型跟openai的數據,直接跳到推理階段,那以後難道前面那 182F 01-27 16:42
→ Mosskappa: 部分的模型就不需要投入了嗎 185F 01-27 16:42
推 Mosskappa: 訓練llama也要用高成本訓練啊,deekseek也是用lla 471F 01-27 17:49
作者:
xephon (Usagi)
124.6.9.125 (台灣)
2025-01-27 12:03:23 推 Mosskappa: 貼圖要先貼網址再打字… 101F 01-27 12:33
作者:
kouhenry (科科)
114.41.86.103 (台灣)
2025-01-27 02:32:01 推 Mosskappa: Deepseek的基底是其他開源模型,這個模型的訓練成本跑不掉 5F 01-27 02:50
作者:
Lushen (pttlushen)
36.229.55.152 (台灣)
2025-01-25 17:49:15 推 Mosskappa: 那在deepseek架構上卷算力不是更強? 7F 01-25 17:57
推 Mosskappa: advance money destroy 43F 01-25 18:46
推 Mosskappa: 訓練跟推理是不一樣的東西,不要搞混了 62F 01-25 19:20
推 Mosskappa: 問題是AMD顯卡CP值也沒NV好啊,不比頂級的也是 93F 01-25 20:05
作者:
wangrg (孤身不寂寞)
50.114.155.132 (香港)
2025-01-24 21:59:57 推 Mosskappa: NV的PEG才0.5 高估在哪
哭啊錯頻 33F 01-24 22:14