※ 本文轉寄自 ptt.cc 更新時間: 2025-02-07 11:05:34
看板 Stock
作者 標題 Re: [情報] 50美元訓練出媲美DeepSeek R1
時間 Thu Feb 6 18:54:35 2025
好的
google 要不要把昨天財報上的說750億設備支出
變成50美元支出?
李飛飛能直接表明蒸餾Google
Google 最好不知道還給你研究所蒸餾
那昨天Google 財報2025還要支出750億呢?
還是明天台灣派人去蒸餾meta Google chatGPT?
看看他們要不要給蒸餾
※ 引述《LimYoHwan》之銘言
: 標題:
: 李飛飛團隊用不到50美元訓練出媲美DeepSeek R1的AI推理模型
: 來源:
: Futu
: 網址:
: https://tinyurl.com/ydrtdbu8
: 內文:
: 李飛飛等斯坦福大學和華盛頓大學研究人員近日以不到50美元的雲計算費用訓練了一個名
: 叫s1的人工智能推理模型。該模型在數學和編碼能力測試中的表現與OpenAI的o1和DeepSe
: ek的R1等尖端推理模型類似。研究人員表示,s1是通過蒸餾法由谷歌推理模型Gemini 2.0
: Flash Thinking Experimental提煉出來的。
: https://i.imgur.com/kFg9GjU.jpeg
: 斯坦福大學以及華盛頓大學的研究團隊展示了一種極低成本的 AI 訓練方法,被稱為 S1
: 。
: S1 僅使用 6 美元就能達到 OpenAI o1-preview 級別的推理性能!同時匹敵Deepseek R1
: 推理時間可控:S1 通過簡單的“Wait”機制,控制大模型的思考時間,提高推理能力。
: S1 不是 OpenAI o1 或 DeepSeek R1 的直接復刻,但它揭示了在推理時微調 AI 的潛力
: ,甚至可以媲美 Reinforcement Learning(強化學習)。
: OpenAI 和 DeepSeek 早期研究發現,AI 在回答問題時“思考得更久”,往往能得出更好
: 的答案。但過去並沒有清楚解釋:如何在推理階段控制 AI 的思考時間?
: S1 的創新點: S1 論文提供了推理時間擴展(Inference Scaling)的具體實現方法:
: 核心思想:
: 如何在不改變 AI 訓練過程的情況下,提高 AI 解決複雜問題的能力?
: 方法:讓 AI 在推理時“多想幾秒”,自動檢查自己的答案,從而減少錯誤,提高正確率
: !
: 結果證明,這種方法比 OpenAI o1-preview 還要好!
: 最重要的是:而且只用了 1000 道題! 這比一般 AI 訓練的數據少了 800 倍,但效果仍
: 然很強!
: 此外,該模型可以在筆記本電腦上運行,並且其訓練成本僅為 6 美元。
: 論文下載
: https://arxiv.org/pdf/2501.19393----
Sent from BePTT on my iPhone 16
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.141.220.124 (臺灣)
※ 作者: ImHoluCan 2025-02-06 18:54:35
※ 文章代碼(AID): #1df9Jk4p (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738839278.A.133.html
※ 同主題文章:
02-06 16:56 ■ [情報] 50美元訓練出媲美DeepSeek R1
02-06 17:16 ■ Re: [情報] 50美元訓練出媲美DeepSeek R1
● 02-06 18:54 ■ Re: [情報] 50美元訓練出媲美DeepSeek R1
02-07 08:14 ■ Re: [情報] 50美元訓練出媲美DeepSeek R1
推 : 看ptt就知道我的獲利都從哪些人手上來的了1F 02/06 18:57
→ : 你有了解模型跟基礎設備的差異嗎…2F 02/06 19:00
推 : 所以就是資本收割籌碼的手段,了解的就不會恐慌反3F 02/06 19:01
→ : 而開心能補貨@@
→ : 而開心能補貨@@
推 : 大家都等抄答案就好5F 02/06 19:02
→ : 努力寫題的是白痴
→ : 努力寫題的是白痴
推 : 我比較喜歡李冰冰 唯一支持7F 02/06 19:03
→ : 各位AI大師,要不要組ㄧ隊?8F 02/06 19:03
→ : 李飛飛跟google很熟啦 都副總裁了 應該有講好吧9F 02/06 19:10
![](https://img.youtube.com/vi/3O7b2HZCXKM/0.jpg)
→ : 沒有一個頭後面要怎麼蒸餾,還是大家都在原地互相蒸11F 02/06 19:13
→ : ?
→ : ?
推 : 這波NV持續吃AI基建的大餅,因為目前AI發展除了大陸13F 02/06 19:16
→ : 被鎖死,全部都用NV的CUDA,目前仍很難看到取代性。
→ : deep seek跟現在的開源鬼故事,反而是證明搞不好H10
→ : 0那種5奈米晶片提供的算力及成本CP值就足夠了,怕是
→ : 未必會一直需要增加晶體管密度。
→ : 被鎖死,全部都用NV的CUDA,目前仍很難看到取代性。
→ : deep seek跟現在的開源鬼故事,反而是證明搞不好H10
→ : 0那種5奈米晶片提供的算力及成本CP值就足夠了,怕是
→ : 未必會一直需要增加晶體管密度。
→ : 而且基建要算力、後續運作、實體終端也都要算力啊,18F 02/06 19:17
→ : 又不是只有訓練需要
→ : 又不是只有訓練需要
推 : 我蒸餾你的蒸餾他的蒸餾 會不會後面變成閉環20F 02/06 19:18
→ : 並不是單靠蒸餾,是新模型的架構以及訓練方法都開始21F 02/06 19:19
→ : 跟2023年流行的原始方式不同,早期像GPT3、4根本就
→ : 只是鸚鵡的增強版,而且還是很肥很胖要高額飼料錢的
→ : 鸚鵡。
→ : 跟2023年流行的原始方式不同,早期像GPT3、4根本就
→ : 只是鸚鵡的增強版,而且還是很肥很胖要高額飼料錢的
→ : 鸚鵡。
→ : 我小時候也看過有人說pentium效能已經夠用了25F 02/06 19:21
→ : 現在的進展就跟AlphaGo一開始需要人類老師手把手教26F 02/06 19:21
→ : 後來自己跟自己下棋自己學是類似的情況,整天說蒸餾
→ : 的根本搞不清楚狀況,笑死!
→ : 後來自己跟自己下棋自己學是類似的情況,整天說蒸餾
→ : 的根本搞不清楚狀況,笑死!
![[圖]](https://i.imgur.com/2LHAnz3.jpeg)
推 : pentium本來就夠用了30F 02/06 19:24
→ : win xp再戰20年不是問題
→ : 大多數文書處理電腦…那個不是pentium就夠用了
→ : win xp再戰20年不是問題
→ : 大多數文書處理電腦…那個不是pentium就夠用了
→ : 晶體管密度越密價格越貴,除非台積電降價,要不然連33F 02/06 19:24
→ : 蘋果都吃不消,以為台積電會一直得利的我倒不認為,
→ : 因為技術發展也是要看CP值的,這點OpenAI就是不良示
→ : 範,你要錢要過頭大家都受不了。
→ : 蘋果都吃不消,以為台積電會一直得利的我倒不認為,
→ : 因為技術發展也是要看CP值的,這點OpenAI就是不良示
→ : 範,你要錢要過頭大家都受不了。
→ : 不夠用單純就是某些軟體一直修改37F 02/06 19:25
→ : 才搞得不夠用
→ : 才搞得不夠用
→ : 原本一個房間大的大型主機變成擺在桌上的小方塊 這39F 02/06 19:25
→ : 麼強的能力怎麼可能不夠用 難道你會需要比核武還複
→ : 雜的計算嗎?
→ : 麼強的能力怎麼可能不夠用 難道你會需要比核武還複
→ : 雜的計算嗎?
→ : 我就舉例iphone4就好42F 02/06 19:26
→ : 那時候我拿iphone4上ptt…l
→ : 現在拿iphone16上ptt
→ : 那時候我拿iphone4上ptt…l
→ : 現在拿iphone16上ptt
推 : 李飛飛曾任google的副總裁 說不定google的模型就是45F 02/06 19:26
→ : 他一手策劃 這叫左手換右手
→ : 他一手策劃 這叫左手換右手
→ : 到底差別在哪裡?47F 02/06 19:26
→ : 問題是現在靠軟體設計模型的架構跟演算法進步直接讓48F 02/06 19:26
→ : 需求卡在5奈米,你花大錢搞1-2奈米就變盤子了,呵呵
→ : !
→ : 需求卡在5奈米,你花大錢搞1-2奈米就變盤子了,呵呵
→ : !
推 : 五代機夠用了不用開發六代了嗎,燒再多錢也要搞啊51F 02/06 19:27
→ : ,軍備競賽就是這樣
→ : 真正的AI不在語言模型
→ : ,軍備競賽就是這樣
→ : 真正的AI不在語言模型
→ : 其實花大錢當盤子沒差…其實以70億人口平均下去54F 02/06 19:27
→ : 根本不算多
→ : 這些科技公司都是以全球70億人口規模去計算的
→ : 根本不算多
→ : 這些科技公司都是以全球70億人口規模去計算的
推 : 沒有所謂的夠用這種事的57F 02/06 19:28
→ : 我還是要老話一句,人類大腦參數70B功耗60W記憶體4G58F 02/06 19:29
→ : B,你一身都只需這樣的配備等級就可以吃喝拉撒生老
→ : 病死,現在擺明軟體演算法還有很大的進步空間。
→ : B,你一身都只需這樣的配備等級就可以吃喝拉撒生老
→ : 病死,現在擺明軟體演算法還有很大的進步空間。
噓 : 蒸餾也要先有大模型 所以大模型要先訓練出來61F 02/06 19:30
→ : AI結合醫療就是很多絕症攻克的曙光,太多路能走了62F 02/06 19:30
→ : ,沒人會停下腳步
→ : ,沒人會停下腳步
→ : 當然硬體功耗也有很大的進步空間,現在實在太耗電,64F 02/06 19:30
→ : 吃電怪獸不是叫假的!
→ : 吃電怪獸不是叫假的!
→ : 說得很好啦 算力越高越好 但是現在都有低成本差不多66F 02/06 19:31
推 : 樓上 現在就算的比人類快了67F 02/06 19:31
→ : 性能的AI出來了 還一直堆算力這方向有沒有問題?68F 02/06 19:31
→ : 耗電跟發熱問題就是要靠先進製程克服阿...69F 02/06 19:32
→ : 更小更快更省電 製程目標也就這樣
→ : 更小更快更省電 製程目標也就這樣
→ : 算的比人類快但明顯還比人類笨,你算加減乘除數Stra71F 02/06 19:34
→ : berry有幾個r比AI還要在行,現在是AI記憶體不止4GB
→ : 所以你覺得AI好像比人類聰明,但放到同等級距,你屌
→ : 贏AI。
→ : berry有幾個r比AI還要在行,現在是AI記憶體不止4GB
→ : 所以你覺得AI好像比人類聰明,但放到同等級距,你屌
→ : 贏AI。
→ : 前提那個成本是真的75F 02/06 19:35
→ : 連馬斯克都不認的東西
→ : 連馬斯克都不認的東西
推 : 所以幻方比OpenAI、微軟跟馬斯克有錢嗎?77F 02/06 19:36
推 : AI聖杯拿到前談算力夠都是假的78F 02/06 19:37
→ : AGI出來之前,醫療、軍工上面還是大有可為79F 02/06 19:37
推 : Google怎樣說都是賺錢的吧 他可以用ai節流 裁員/節80F 02/06 19:37
→ : 省資源 開源 開發新應用 應該沒有什麼先前支出回
→ : 報的問題 開發模型是一定要投入開發 比如搜尋 不投
→ : 入開發等別家用ai搶市佔嗎 現在卷模型 下波卷應用
→ : ai應用市場更大 需要更便宜的硬體更低的成本
→ : 省資源 開源 開發新應用 應該沒有什麼先前支出回
→ : 報的問題 開發模型是一定要投入開發 比如搜尋 不投
→ : 入開發等別家用ai搶市佔嗎 現在卷模型 下波卷應用
→ : ai應用市場更大 需要更便宜的硬體更低的成本
推 : 人腦的記憶力很差,不能完全比吧85F 02/06 19:38
推 : 說不定下季就從750億美金變150億美金86F 02/06 19:38
→ : 而且你怎麼會認為人很聰明87F 02/06 19:38
→ : 大公司策略沒那麼靈活88F 02/06 19:38
推 : Google要做的又不是只到這邊為止89F 02/06 19:40
推 : 要知道中國擺明要跟美國競爭了,川普一定會把AI放90F 02/06 19:41
→ : 在國安層級的高度
→ : 在國安層級的高度
→ : 投資人就是要看到你花一堆資本支出,設備都可以折92F 02/06 19:41
→ : 舊攤提,而且現在7巨花的錢都是自己賺的現金流和之
→ : 前低利借的錢,根本不怕燒
→ : 舊攤提,而且現在7巨花的錢都是自己賺的現金流和之
→ : 前低利借的錢,根本不怕燒
推 : 人類很聰明呀!GPT-4參數量大概有175B的吃電怪獸卻95F 02/06 19:41
→ : 連9.11跟9.9哪個大都不知道,連草莓英文幾個r都會數
→ : 錯。
→ : 連9.11跟9.9哪個大都不知道,連草莓英文幾個r都會數
→ : 錯。
→ : 現在有推理模式,可以自我糾正錯誤了98F 02/06 19:42
推 : ?????99F 02/06 19:43
→ : 人腦4GB記憶體是究極壓縮的成果,讓人類的功耗只有6100F 02/06 19:43
→ : 0W,卻能有愛因斯坦的性能。
→ : 0W,卻能有愛因斯坦的性能。
推 : 看用什麼角度思考,現在AI已經可以解奧賽題目了,102F 02/06 19:45
→ : 比當初轟動世界的gpt3.5強大太多
→ : 比當初轟動世界的gpt3.5強大太多
推 : 9.11 跟 9.9的原因是訓練資料當成版本號104F 02/06 19:45
推 : 我要講的不是吹噓人類很棒,而是AI模型仍有很大的進105F 02/06 19:46
→ : 步空間包括架構跟演算法都是。
→ : 步空間包括架構跟演算法都是。
推 : 解的出數奧題目,解不出9.9跟9.11哪個大107F 02/06 19:47
推 : AI一開始畫畫不也是畫不出手指嗎108F 02/06 19:48
→ : 像Altman之前那種Scaling Law教主模樣,拼命堆參數109F 02/06 19:49
→ : 量,是不會開發出人類這樣精緻又厲害的大腦的。重點
→ : 是在可接受的功耗成本下達到人類程度外加相比人類無
→ : 限大的記憶體,這才是AI的目標。
→ : 量,是不會開發出人類這樣精緻又厲害的大腦的。重點
→ : 是在可接受的功耗成本下達到人類程度外加相比人類無
→ : 限大的記憶體,這才是AI的目標。
→ : NV真的完了113F 02/06 19:49
推 : 一直蒸餾484以後5毛錢就能訓練?114F 02/06 19:51
推 : 但愛因斯坦不是全才 比較像現在特化後的115F 02/06 19:53
→ : 現在他們在搞得根本是想弄出全才
→ : 現在他們在搞得根本是想弄出全才
→ : 台灣怎麼還不跟上?117F 02/06 19:54
推 : 其實OpenAI 的訓練成本也是一直降低,沒有只是無腦118F 02/06 19:55
→ : 堆算力、參數
→ : https://i.imgur.com/UTW8AWU.jpeg
→ : 這圖是推論,訓練的沒有存
→ : 堆算力、參數
→ : https://i.imgur.com/UTW8AWU.jpeg
→ : 這圖是推論,訓練的沒有存
![[圖]](https://i.imgur.com/UTW8AWUh.jpeg)
推 : 所以才流行MoE呀!你遇到你不會的問題會怎麼做?愛122F 02/06 19:56
→ : 因斯坦不會修水電他會自己研究到當水電工嗎?還是打
→ : 個電話叫人來修?
→ : 因斯坦不會修水電他會自己研究到當水電工嗎?還是打
→ : 個電話叫人來修?
→ : 如果水電工很貴 愛因斯坦會自己研究怎麼修水電@n@a125F 02/06 19:57
→ : AI模型很多重大進展都是模擬人類大腦的結果,只是哪126F 02/06 19:58
→ : 個有效需要try and error,這點華人最擅長了,呵呵
→ : !
→ : 個有效需要try and error,這點華人最擅長了,呵呵
→ : !
推 : 人類是演化幾十萬年的結晶,AI發展不會這麼快。DS129F 02/06 19:59
→ : 執行長也說五年內很難有agi 。但還是要做
→ : 執行長也說五年內很難有agi 。但還是要做
推 : 急著蒸出能塞進edge跟機器人的model 就是未來五年131F 02/06 19:59
→ : 的贏家 以為機器人喊喊而已嗎?今年就是前哨站了
→ : 的贏家 以為機器人喊喊而已嗎?今年就是前哨站了
→ : 美國AI這塊也很多是清華北大的學生,或是華裔133F 02/06 20:00
→ : 所以我才說預估是4-6年可以搞出AGI,NV會一直吃AI基134F 02/06 20:02
→ : 建大餅,我早就講過了,呵呵!
→ : 跟台灣比較有關的是台積電會扮演什麼角色,台積電被
→ : 川普點名下勢必要降價跟設廠才能繼續吃餅,要不然光
→ : 川普亂搞就夠台積電受的了,萬一真的被我講中5nm就
→ : 夠用,台積電的優勢就會慢慢縮小。
→ : 建大餅,我早就講過了,呵呵!
→ : 跟台灣比較有關的是台積電會扮演什麼角色,台積電被
→ : 川普點名下勢必要降價跟設廠才能繼續吃餅,要不然光
→ : 川普亂搞就夠台積電受的了,萬一真的被我講中5nm就
→ : 夠用,台積電的優勢就會慢慢縮小。
→ : 台灣政府還不快買AI建設,真的要輸對岸了140F 02/06 20:05
→ : 台灣還不快買硬體
→ : 台灣還不快買硬體
→ : 好了早就講過了預言家 我只問一句 你賺多少142F 02/06 20:07
→ : 又一堆恐慌仔? 國年笑話還不夠?143F 02/06 20:09
推 : 關你屁事?deep seek酸建議去等OpenAI股票上市去all144F 02/06 20:09
→ : in呀!笑死!
→ : in呀!笑死!
推 : 台灣 AI 早就遠輸給中國了好嗎... AI 現在就是美中146F 02/06 20:10
→ : 爭霸局面
→ : 爭霸局面
→ : 中國不能用google148F 02/06 20:10
推 : 台灣只能玩地方包圍中央 edge晶片跟硬體至少我們系149F 02/06 20:11
→ : 統廠還是有優勢
→ : 統廠還是有優勢
推 : 台灣哪有那麼多閒錢自己研發151F 02/06 20:11
推 : 硬體邊際效應下降之後,現在的AI競賽152F 02/06 20:12
→ : 已經來到算法優化了。硬體當然也需要,
→ : 但是溢價搶買的時光已經過去了,硬體越
→ : 等越便宜,你在等硬體的時候,優化算法
→ : 才是王道了
→ : 接下來應用面白家爭鳴,QQQ接下來應
→ : 該能跑贏現在貴森森的NV
→ : 已經來到算法優化了。硬體當然也需要,
→ : 但是溢價搶買的時光已經過去了,硬體越
→ : 等越便宜,你在等硬體的時候,優化算法
→ : 才是王道了
→ : 接下來應用面白家爭鳴,QQQ接下來應
→ : 該能跑贏現在貴森森的NV
→ : ASIC至少我們拿到的製程一定贏對面159F 02/06 20:13
推 : 也不是沒有錢,就錢被拿去養動物了吧?動物園營收會160F 02/06 20:13
→ : 看漲嗎?呵呵!
→ : 看漲嗎?呵呵!
→ : “我早就說過了!我早就講過了!早就告訴你們了”162F 02/06 20:17
→ : 真好奇這些人在股市賺多少 科科科
→ : 真好奇這些人在股市賺多少 科科科
推 : COVID時我講拿台股賺的去美股繼續賺,我還真有說過164F 02/06 20:18
→ : ,呵呵!
→ : ,呵呵!
→ : 以前用google時,有在限制只能搜尋甚麼嗎? 甚麼都找166F 02/06 20:28
推 : 不認識李飛飛Google很難嗎? 看新聞不會自己Google查167F 02/06 20:28
推 : 連中吹都不敢買陸股,哥也早就說過了168F 02/06 20:28
→ : 證唷? 自己陰謀論瞎猜!169F 02/06 20:28
→ : 才有市場,ai模型問甚麼都能答才好用170F 02/06 20:28
推 : 事實鏟子只會越賣越貴171F 02/06 21:10
推 : 台灣的 AI 人才十個有九個半去美國了,要怎麼發展?172F 02/06 21:18
→ : 台灣人真的搞笑,台積電才是讓台灣人才都死掉的地173F 02/06 21:57
→ : 方
→ : 方
推 : 喔 然後?175F 02/06 22:48
→ : 適合走芬蘭模式 眾多新創?
→ : 還不是像htc一樣 稍有起色就被買走
→ : 適合走芬蘭模式 眾多新創?
→ : 還不是像htc一樣 稍有起色就被買走
推 : 台積電讓台灣人才死掉 對啦 張忠謀一定是想殘害台178F 02/06 23:07
→ : 灣才說台灣人只有代工才能贏別人
→ : 灣才說台灣人只有代工才能贏別人
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 96
作者 ImHoluCan 的最新發文:
- 好的 google 要不要把昨天財報上的說750億設備支出 變成50美元支出? 李飛飛能直接表明蒸餾Google Google 最好不知道還給你研究所蒸餾 那昨天Google 財報2025還要支出7 …179F 45推 1噓
- ㄧ直有deepseek 這新聞 新聞媒體真的很雞掰, ㄧ直洗新聞, 洗到目前用deepseek ㄧ直斷線,伺服器繁忙,根本不能用! 免費仔就低調好嗎,搞到大家都不能好好用 Deepseek問個簡單的 …204F 58推 6噓
- 26F 9推 4噓
- 47F 17推 3噓
- 28F 4推 5噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享