看板 Stock作者 LDPC (Channel Coding)標題 Re: [新聞] OpenAI執行長:DeepSeek令人驚豔 但關鍵時間 Tue Jan 28 15:24:11 2025
就是算力才是絕對 (新聞用運算這詞可能不太好懂)
https://x.com/karpathy/status/1883941452738355376
吃瓜可以看下面翻譯
https://x.com/op7418/status/1884065603184681162
無窮算力->無窮智能 這就是OpenAI和Andrej Karpathy, Jim Fan甚至認為
高算力模型可以訓練更強大模型 不要忽視scale
像之前有人在懷疑v3有用到gpt合成數據 Andrej論點是 你要合成高品質數據 也是要算力
這又跟老黃提到高品質render ->算力
好了QQ 不要再跌了 我已經在看youtube學習如何炸薯條了
※ 引述《rayisgreat (在過往中無盡徘徊)》之銘言:
: 原文標題:
: OpenAI執行長:DeepSeek令人驚豔 但關鍵在運算
: 原文連結:
: https://www.cna.com.tw/news/aopl/202501280099.aspx
: 發布時間:
: 中央社 2025/1/28 13:29(1/28 13:48 更新)
: 記者署名:
: 曾依璇/李佩珊
: 原文內容:
: (中央社舊金山27日綜合外電報導)人工智慧(AI)公司OpenAI執行長阿特曼今天說,中
: 國新創公司「深度求索」(DeepSeek)的R1模型「令人印象深刻」,但OpenAI認為更強大
: 的運算能力是OpenAI成功的關鍵。
: 路透社報導,成本低廉的中國AI模型DeepSeek上月開始吸引全球目光,當時這家公司在論
: 文中表示,使用較低性能的輝達(Nvidia)H800晶片訓練其DeepSeek-V3模型,只花費不
: 到600萬美元。
: 根據DeepSeek官方微信帳號貼文,上週推出的DeepSeek-R1模型比OpenAI的o1模型便宜20
: 倍到50倍,依任務內容而有不同。
: 阿特曼(Sam Altman)在社群平台X寫道:「DeepSeek的R1模型令人印象深刻,尤其是以
: 這個價格所能實現(的結果)。」
: 他還說:「但我們主要是很高興能繼續執行我們的研究藍圖,並認為要成功完成任務,現
: 在比以往都更重要的是更多運算。」(譯者:曾依璇/核稿:李佩珊)1140128
: 心得/評論:
: https://imgur.com/iSz2Nr0
: OpenAI 執行長 Sam Altman
: 今日也對近來興起的中國 DeepSeek 發表了回應
: 台股美股會繼續往下or往上回彈?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.21.72.78 (美國)
※ 作者: LDPC 2025-01-28 15:24:11
※ 文章代碼(AID): #1dc8OUwy (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738049054.A.EBC.html
※ 同主題文章:
Re: [新聞] OpenAI執行長:DeepSeek令人驚豔 但關鍵在運算
01-28 15:24 LDPC
=_= 你沒搞懂 沒那些gpt4o存在(用高算力產生) 你v3訓練用的數據集可能都產不出
※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:25:31
※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:26:24
→ losage: 問題是湯匙也是老黃造的,這場暴跌他最冤好嗎3F 01/28 15:27
→ NCKUFatPork: Deepseek只是精練而已 底層還是大模型還是尻別人的8F 01/28 15:29
→ opticalman: 中國學chatgpt成就DS,DS被分析完,還不是要靠算力成就另一個里程盃......總結:AI 更進化需演算法+算力10F 01/28 15:30
推 create8: 幹,我要去少林寺學料理了13F 01/28 15:31
推 x2159679: deepseek的底層大模型好像還是用openai的......14F 01/28 15:31
推 gk1329: 自然界可以參考鴨16F 01/28 15:33
→ poru: NV都開釋了!只是市場還在恐慌17F 01/28 15:33
→ gk1329: 人腦不是自然界最大的 但算法是最好的
現代人類腦容量還比古代少的多18F 01/28 15:33
→ gk1329: 光推算力 大概就跟一個國家人口一直增加 難道就會進步嗎22F 01/28 15:35
→ Hina: 老黃暴跌冤 ?? 因為事實就證明不需要這麼高階的25F 01/28 15:36
→ Hina: 你現在問老美幾大AI 看還會想買高階的嗎
生意人最重要的一件事 成本 這是永遠不變的
花越少的錢 賺越多的錢 這就是生意人28F 01/28 15:37
推 ejnfu: 你等之後財報周看軟體巨頭有沒有下調資源支出就知道了31F 01/28 15:38
推 x2159679: AI模型現在根本還沒到賺錢階段吧
AI會被吹那麼大是因為還做一個夢,這個夢還沒實現33F 01/28 15:38
推 tom77588: 工欲善其事 必先利其器,硬體還是最重要35F 01/28 15:39
→ x2159679: AI現在這些東西都只是在做夢過程中的副產物而已
倒不如說如果美國真的更重視和中國的軍備競賽反而會投入更多資源36F 01/28 15:40
推 strlen: 這邊大概多數人沒做過生意吧?我做一個產品花了一年42F 01/28 15:51
→ strlen: 時間一百萬成本 然後製造一個1000元 推出後被對手拿去研究改造他只花一個月十萬元 做一個只要100元
拓荒者當然花比較多錢不是嗎?DS公佈的600萬訓練成本也是單獨算V3 r1沒公佈 前期研發試誤跟設備成本也完全沒公佈 大家可以思考一下 這些通通都也是可以公佈的 為什麼DS只選擇公佈V3訓練成本
如果真的要證明我可以降本增效 應該是全都公佈吧?然後呢 中國政府還加碼一兆元投資AI 為何要加碼?44F 01/28 15:52
推 ohlong: 有人分析r1 是post training 這樣就合理了 基礎結構一樣之下pre training 算力一樣得消耗那麼多 講白就濃縮雞湯塊賣你比較便宜不是正常的事52F 01/28 15:55
→ strlen: 照很多人說算力過剩 現在不是應該減碼嗎.....?55F 01/28 15:55
推 ohlong: 看到現在覺得根本不足以影響長期需求 反而是要看川普那個瘋子到底要搞啥毛56F 01/28 16:01
推 walelile: NV B系列重點也擺在推論上,宣傳比上代快15x58F 01/28 16:01
推 LADKUO56: Deepseek八成是抄的吧 怎麼看就華西街要出貨59F 01/28 16:02
推 NexusPrime: 如果DS是拿現有的模型再加以改進訓練,那低成本是合理的,跟從無到有完全不能比60F 01/28 16:03
→ finhisky: 機構出貨會搭配新聞 一邊崩一邊出嗎?63F 01/28 16:08
推 JaccWu: 搞不好也在跌阿川想要加關稅的事啊
加關稅成本or稅金增加 晶片價格上升 但毛利沒增加64F 01/28 16:11
推 a187: 會翻漢堡了嗎67F 01/28 16:19
推 walelile: 人類炸的薯條有比機器好吃嗎? 成本有比機器便宜嗎?68F 01/28 16:23
推 AirLee: 那很好啊不用花錢買nv的卡69F 01/28 16:26
推 a0808996: OpenAI只想賣鼎泰豐 但是ds只是賣幸福餐盒
但是普羅大眾 都偏向買幸福餐盒 只能說客群不同ㄅ我覺得在探討的是變現率 幸福餐盒能獲利
但是鼎泰豐 要賠錢經營70F 01/28 16:27
→ walelile: OpenAI問題是o1訂價太高,4o mini比DS V3 API便宜o1定價高一方面可以減少擠壓到人類的工作74F 01/28 16:30
推 a0808996: ds能靠免費 提高普及率 再出一個高階版的給人訂閱76F 01/28 16:33
→ walelile: 以DS免費放model+低價,中國會有一票人幹不過AI
低階碼農估計能砍一半以上,翻譯砍一半,美工砍一半77F 01/28 16:33
推 a0808996: 成本夠便宜出一個免費的 讓你看廣告也能獲利
其他人還要打嗎79F 01/28 16:35
→ walelile: 他都免費放出來了,別人可以直接拿來用
OpenAI今天遇到的問題,就是明天DS的問題
中國還要處理接下來更嚴重的失業問題
今天DS省下前段model的成本,別人省整個model的成本一樣開API, 別人可以在殺50%價格81F 01/28 16:37
推 a0808996: 開源的好處就是大家 一起優化阿
不能說 沒受益阿86F 01/28 16:40
→ walelile: 我是不信有那麼多廠商要找人優化
光是他現在放出來的版本就夠強了, 買卡內捲一定發生88F 01/28 16:41
→ IBIZA: 訓練數據集不是用其他AI產生90F 01/28 16:44
推 a0808996: 你這樣說 那ds幹嘛要開源 真的佛心來做功德的嗎91F 01/28 16:46
→ IBIZA: 訓練數據集主要是來自各種爬蟲專案, 還有各種專業92F 01/28 16:46
→ IBIZA: 或非專業的電子書庫、百科全書
之前V2版時公布的數據集概略資料是說60%程式碼10%數學30%自然語言文本
程式碼的部分來自GitHub跟The Stack Flow
程式碼的部分來自GitHub跟The Stack Overflow95F 01/28 16:47
→ invidia: 先準備紙箱去公園佔位ㄅ101F 01/28 16:57
--