作者 zxwxz (zxwxz)標題 Re: [請益] AI最花錢的時間已經過了嗎?時間 Mon Feb 3 14:50:11 2025
短期目標就是AGI,長期目標就是ASI,其他任何形式的東西都只是花邊,所謂的AGI就是你
直接可以用GPU算力去轉換你的所有非物理員工,原則上你只需要僱用機房仔排除故障而已
,這當然一開始超級花錢,但隨著時間成本會急劇下降,且超越你所能找到的員工能力
DeepSeek 只是一次成本優化的良好範例,並沒有創造出新的範式,一個優化引擎可以讓你
的車省下95%的油,不代表你可以不用油開車
Scaling Law才是真正的重要的核心,目前的Scaling Law是短期經濟帳撞牆,DeepSeek 的
研究表明經濟帳撞牆有短期突破,但要知道的,基礎模型ModelSize擴大100倍,才大約有2
倍智力回報,推理模型會在相同模型大小上有100倍效益,相當於2倍基礎模型放大會有2倍
智力回報
至於說MOE對於未來擴展是不是最優範式還不確定,如果不能簡單Scale Up這個基礎架構,
那未來擴展還是會受限
但到了AGI時期就不一樣了,你可以每次針對不同Scale的Model做一定程度的自動化優化,
包含最底層的PTX重寫,到最上層的算法優化,這時局我敢說大企業絕對會往下押注,這與
一般使用者無關,但一定會受惠
目前絕對還遠遠不到Edge Device的局面,DeepSeek R1完整版要16張H100才擺得下所有參數
,蒸餾完的東西都屬玩具而已,而且遠端才能透過Time Sharing極大化GPU usage rate,你
Local端的利用率5%都不到,相同價格你雲端的能力會至少是2倍以上,更何況未來GPU會越
來越便宜
股價短期一定還是會下殺,晶片關稅一定會殺到底,但未來長遠絕對是利多,估計要到Open
AI 跟其他AI Lab開始拿AGI做自己的雲端ASIC,但短時間很難跟Nvidia正面翻臉,畢竟NV跟
台積電的交情,談到的晶片產量不可能直接搶單的,亞洲人情世故還是會把這件事情緩一緩
※ 引述 《ImHoluCan (爺)》 之銘言:
: 標題: Re: [請益] AI最花錢的時間已經過了嗎?
: 時間: Mon Feb 3 13:59:46 2025
:
: ※ 引述《gerychen》之銘言
: : 就算Deepseek是蒸餾其他AI模型
: : 但就是能夠做出效能好成本低的模型
: : 而那幾間巨頭砸在AI的錢
: : 就是在奠下AI發展的基礎
: : 以Deepseek的發展來說
: : 未來是不是任何公司都只需要用相對低的預算
: : 就能再做出一個新的AI模型?
: : 也就是說AI浪潮最花錢的時間已經過了?
: : 那未來還會有像前幾年那樣的晶片或算力需求嗎?
:
:
:
: 客群不ㄧ樣,你怎麼把客群混在ㄧ起說?
:
: DeepSeek 客群是免費仔 與 本來不會用AI 的那群人
:
: 巨頭的AI 花的巨額費用 是給專業 本來就會花的人
:
:
:
: 1.Apple iPhone 幹嘛買新的?
:
: 拿iPhone 8也不需要,
:
: 滑滑網站 拍拍照 看看影片都差不多
:
: 甚至用便宜對岸中階安卓cp 值爆打
:
: 幹嘛用ios 呢?
:
: Apple 應該倒閉才對,鬼才買新iPhone,主流要cp 用中階安卓就好
:
:
:
: 2.奈飛 幹嘛訂閱?是白痴嘛?
:
: 網路隨變打線上看,各種網站,各種盜版
:
: 爽看到爆cp 爆力高 成本0元
:
: 怎麼還有弱智花錢訂閱奈飛?
:
: 奈飛怎麼不倒閉?
:
:
: 3.特斯拉幹嘛買?
:
: 中國電車爆打,甚至幹嘛買新車,買二手爽用就好
:
: 特斯拉應該馬上立刻倒閉才對
:
:
:
: 特斯拉 蘋果 奈飛
:
: 都有遇到增緩減速 甚至有很多對手更屌
:
: 但目前不都都頭腦壯壯?
:
:
: 蘋果 特斯拉 增速放緩+關稅
:
: 也都遇過,怎麼還不倒閉?
:
:
:
: 花錢肯定有好處
:
: 而不花錢用免費的 肯定有壞處 就看你用在什麼地方
:
:
:
:
: Nvidia 永遠重點是AI 到底有沒有賺頭?
:
: 才是讓巨頭要不要大量投資硬體
:
: deepseek 就直白的表示AI真的有賺頭
:
: 連本來就不用AI的免費仔都在用
:
:
:
: 笑巨頭幹嘛花大錢投資硬體
:
: 如同看盜版0元的人笑那些花幾百元的人低能
:
:
: ----
: Sent from BePTT on my iPhone 16
:
: --
: ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.105.61.157 (臺灣)
: ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738562388.A.ADB.html
: 推 Shiang1225 : 確實 02/03 14:00
: 推 SKzzz : 精闢 02/03 14:01
: 推 Aska0520 : 克群真的不同 02/03 14:01
: 推 kuosos520 : 小聲一點,還沒買夠 02/03 14:01
: 噓 centaurjr : iphone 8拍照差很多...你可以試試看再回來唬爛 02/03 14:02
: 推 realmd : 但是投資方會更務實 以前溢價都收的盤子買法不在有 02/03 14:02
: 推 wanybear2002: 同意,太多免費仔習慣成自然了 02/03 14:02
: → realmd : nv的毛利可以預期一定會掉 02/03 14:03
: 推 jwiww : 樓下說可以繞過CUDA護城河 02/03 14:06
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.73.112.255 (臺灣)
※ 作者: zxwxz 2025-02-03 14:50:11
※ 文章代碼(AID): #1de6Sbjy (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738565413.A.B7C.html
推 ImHoluCan: DeepSeek 完全打開新世界大門
要是增加硬體能更聰明,那肯定有賺頭1F 02/03 14:57
推 hulu63: 感覺這篇很有見地,雖然看不懂但只能推了3F 02/03 15:03
※ 編輯: zxwxz (42.73.112.255 臺灣), 02/03/2025 15:09:08
推 Mosskappa: 板上恐慌仔只會喊nv 50 tsm1005F 02/03 15:10
推 maxangel: 運算成本減少只會讓更多應用投入6F 02/03 15:11
推 capssan: 我覺得應該說只有LLM達不到AGI8F 02/03 15:17
推 abcd5566: 訓練歸訓練。要供幾億人用的推論花的才多9F 02/03 15:23
→ CCH2022: 短線客盤中決鬥只是過程。
法人機構也是要買賣才有收入。
只要人類經濟活動繼續,硬體天花板永遠會被打破,我是不可能回去用十幾年前的電腦跟手機還有汽車、家電等應用,如果誰說可以那代表他從此時此刻就不需要再升級所有硬體的產品。10F 02/03 15:23
→ cablate: LLM由於學習底層機制所以他永遠到不了AGI,這是學術界共識了,所以思考鏈也只是噱頭而已,不會真的有人以為LLM有神經自主思考能力吧?17F 02/03 15:58
推 duriamon: 人腦參數量70B功耗60W記憶體4GB,好好想想吧!呵呵!20F 02/03 16:02
→ cablate: 拿人腦比?要確欸,機器最大的毛病就是要用10句甚至100句話解釋人類用1句話就能懂的東西23F 02/03 16:10
推 duriamon: 當然是人腦比呀!死抱那種虛無飄渺算力增加無上限的理論是被Altman洗腦的傻子嗎?連微軟都不買單了,AI要用實際面來看去做發展而不是什麼Scaling Law一直往上加,我還以為是參加老鼠會呢!笑死!
實際上AI模型發展的基礎目的是達到類似於人類水準就可以應用了,AI的優點是可以大量複製、記憶體一定超過4GB,熱插拔隨時上線轉換成需要的專家,這樣就足夠裝載到AI機器人裡面了,該不會有人以為要AGI才能自動駕駛吧?
那我們平常開車通勤的人類是智障嗎?25F 02/03 16:13
推 duriamon: deep seek會紅就是因為看到了我講的方向的曙光,要不然繼續給Altman投錢虧死你,他還整天作弊玩花招,Altman就是個生意人,當初看到ChatGPT之父Ilya提出Scaling Law理論就拿來整天掛在嘴邊,肖想跟摩爾定律一樣可以用來洗腦人,那個微軟就是第一代憨憨,現在人家下車了,有人繼續接棒,可憐哪!軟銀,呵呵!美國是要搞AGI沒錯,但是沒人說AGI一定會遵循Scaling Law,蒸餾就是這個現象的部分答案,因為你以為參數量400B以上很好,但是裡面有很多垃圾知識。
模型為了回答問題每次轉那個400B參數根本是浪費資源,呵呵!36F 02/03 16:39
--