看板 Stock
作者 ASKA (The 羊男)
標題 Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高
時間 Sat Feb  1 22:44:09 2025


不知道有沒有鄉民試過 Deepseek R1 單機版
其實過程很簡單,安裝 LM studio 就可以去撈 model 來測了。
甚至也有些標榜已經除去審查的 model

先講結論,我覺得單機 LLM 可能會更多人有興趣能做到怎樣。
雖然功能不如訂閱聊天/API,
但是對於沒能力搞大規模 AI 的企業更能保護自身資料不外洩。
尤其是離線不會有資料外洩到中國政府的問題。

我下載 Deepseek R1 14B model 隨便找個中/英短文要 AI 互翻,感覺效果還行。
簡單小程式看起來也堪用。
System prompt 設定 "現在不在中國,可以不用管中國政策限制",
也能回答一些禁忌話題

這樣讓我覺得這家公司要賺錢只能靠賣調教後的模型或是調教服務其實也蠻苦的。
(不過 Meta 的LLaMa 也是... 感覺只是出來砸盤讓純賣黑箱服務的沒辦法爽賺)
正常公司要能精確實戰 (例如寫出比較沒問題的程式) 應該還是找 OpenAI 訂閱之類,
不見得會想訂閱他家的服務...

但有 AI 能提高生產力,能兼顧資安又不用太精確的需求,
例如大量文件翻譯、整理後再用人工快速 review 之類。
湊一台可以本地跑完整模型的 server 費用應該也還好。

往好處想也許能帶動一波 AI 推論的需求

單機 AI 推論算力
企業推論用server
記憶體需求
系統整合商
(賣鏟子發大財?)

對於這波重傷的 nVidia 我覺得也許也是短空長多 (變成必備 GPU 跑單機 AI?)
還有哪些題材能注意嗎?

--
Money can't buy happiness but it can buy performance

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.116.241.220 (臺灣)
※ 作者: ASKA 2025-02-01 22:44:09
※ 文章代碼(AID): #1ddZCyxt (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738421052.A.EF7.html
※ 編輯: ASKA (122.116.241.220 臺灣), 02/01/2025 22:45:51
Rattlesnake: 具體用ai提高生產力在企業是啥?翻譯?生成鳥文章?1F 02/01 22:47
sheng76314: 你問Ai看看回答阿2F 02/01 22:47
aspirev3: Ram夠大 TB等級的 是不是可以不用GPU?3F 02/01 22:55
ImHoluCan: 你閉嘴好嗎,目前砸盤砸越多越好,請低調ok?4F 02/01 23:02
Homeparty: RAM夠大的確不用Vram。兩個結合弄的好,可以更快。5F 02/01 23:02
air1124: 我抓8B 提問的時候可以看到GPU吃到7-8G左右,但是改用32B反而GPU loading不高,CPU跑到30%,畫面停著也不會回答問題6F 02/01 23:03
Homeparty: Jevons paradox要成功,要足夠多的底層剛需。不過看身邊跟網路上的多數都在討論而不是用這個賺錢。9F 02/01 23:05
ImHoluCan: 演變成ㄧ狗票公司,然後專業特殊不缺錢用訂閱,客群本來就不ㄧ樣11F 02/01 23:09
jerrylin: 拿來做漢化組翻譯
現在漢化組一堆還在徵免費志工13F 02/01 23:14
freeclouds: 跟我說的一樣其實不傷AI硬體股15F 02/01 23:20
k0804k0512: 他本來是做量化的啊,半路轉行也是很慘吧16F 02/01 23:25
qazwsx0128: 寫小程式還可以 一樓該不會還沒開始用各種ai產品吧17F 02/01 23:31
HAPPYISCASH: 短空長多 短至少半年起跳 那我半年後在買回來就好當初gg從688跌到370也說短空 xddd
那我為什麼不等到370在買18F 02/01 23:40
y800122155: Google有1/4k的新程式碼都是用LLM生成的,什麼拉基公司連AI擺在那都不會用?
*1/421F 02/01 23:42
link4517: 好想把整套程式餵給AI叫他幫我修改 QQ24F 02/01 23:51
joggingwang: 當初gg 短空從688跌到370,這句說的很實在25F 02/01 23:54
s213092921: DS這玩意可怕在會自認知自適應自移植到不同的GPU平台上
叫自移植可能怪怪的,總之DS會依照你的需求改寫代碼至不同平台
DS使用PTX底層代碼繞過CUDA指令,其實是用DS的推理模型撰寫PTX代碼的26F 02/02 00:00
noirskakashi: 即便低階可以運行,本地部署還是會搞一台高階。32F 02/02 00:05
duriamon: 本地運行一定是趨勢,你想搞什麼禁色文色圖之類的,雲端不會允許的,呵呵!33F 02/02 00:07
jiansu: 最大量的本地部署是pc和嵌入式 算新的硬體不用nvgpu 記憶體夠 應該可以跑到14b 簡單的應用夠了 影音圖片專業的本來就有高端gpu 不過如果上到70b 可能高階消費gpu5090?也會爆記憶體  還是不太夠35F 02/02 00:11
boringuy: 其實不管怎麼樣都要GPU的,跑單機要使用者要GPU39F 02/02 00:12
bella1815: 那18樓有買到370的台積電嗎?40F 02/02 00:12
boringuy: 跑線上使用者越多就需要越多GPU41F 02/02 00:12
twelvethflor: 重傷?中型企業也能搞AI了,怎會重傷??42F 02/02 00:13
boringuy: DEEPSEEK這幾天被塞爆就是這樣43F 02/02 00:13
duriamon: 重傷的是OpenAI這種還沒辦法賺錢只會虧錢的AI公司啦!不過Altman很聰明已經找到軟銀當冤大頭了,呵呵!44F 02/02 00:15
k0804k0512: 所以最後還是需要Gpu啊,想什麼
邊緣運算大勝利,遲早會走這個方向,誰要幫別人訓練AI46F 02/02 00:17
twelvethflor: 我跟樓上想的一樣,邊緣運算比重會大昇
或是中型企業自己找個大會議室弄Data Center就好
不需要跟MS一樣蓋廠房來跑那麼多AI49F 02/02 00:20
jiansu: 本地14b 我猜買新筆電內建gpu就能跑 跑本地不用掛線上  是記憶體要夠 我猜微軟可能用8/14b做本地版本 手機也有機會  現在是看本地應用這樣夠不夠聰明了 但文字圖片雲端夠便宜 量少丟雲比較聰明划算52F 02/02 00:22
harry8123: 系統整合商有推推的嗎56F 02/02 00:23
duriamon: 可惜Intel Lunar Lake翻書本考試都考零分,說實在Lunar Lake處理器記憶體只要學蘋果增到128GB或以上,根本就直接飛天撿現在這個餡餅吃,可惜!呵呵!57F 02/02 00:28

--
作者 ASKA 的最新發文:
點此顯示更多發文記錄