顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2025-02-06 16:33:54
看板 Stock
作者 ImHoluCan (爺)
標題 Re: [新聞] DeepSeek日活躍用戶達2,000萬 達Cha
時間 Thu Feb  6 11:52:25 2025


ㄧ直有deepseek 這新聞

新聞媒體真的很雞掰,

ㄧ直洗新聞,

洗到目前用deepseek ㄧ直斷線,伺服器繁忙,根本不能用!

免費仔就低調好嗎,搞到大家都不能好好用


Deepseek問個簡單的問題:

「幫我列出  美國各大重要經濟數據 包含公布與未公布 (日期也要),還有各大美國大型科
技公司財報日期時間」

Deepseekㄧ直思考然後伺服繁忙

 https://i.imgur.com/0haGZZI.jpeg
[圖]

按R1 連網都試過,都伺服器繁忙

不按給的答案是2023年,是三小?!
 https://i.imgur.com/5Qmytoc.jpeg
[圖]


Deepseek目前問一個問題搞了15分鐘才給答案

之後叫他列表格 伺服器繼續繁忙!

Deepseek 問ㄧ個問題要半小時是三小?


—————————————————————




而目前chatGPT 也是免費

R1思考 連機全開

幾秒解答還是最新2024答案

叫他列表格也是幾秒完成


https://imgur.com/a/0hlqVP3
[圖]





免費就低調,不然deepseek 繼續伺服器繁忙,要變垃圾了







※ 引述《anti87》之銘言
: 原文標題:DeepSeek日活躍用戶達2,000萬 達ChatGPT逾40%
: 原文連結:https://www.ctee.com.tw/news/20250206700707-430804
: 發布時間:2025.02.06  10:52  工商時報  賴瑩綺
: 記者署名:2025.02.06  10:52  工商時報  賴瑩綺
: 原文內容:
: 大陸媒體報導,DeepSeek上線20天,每日活躍用戶數量(Daily Active User,DAU)已達

: 2,000萬,成為全球DAU增速最快公司。
: DeepSeek每日活躍用戶數(DAU)為2,215萬。也意味著其DAU已達到ChatGPT日活躍用戶的

: 41.6%,並且成功超越字節跳動推出的豆包的每日活躍用戶數1,695萬。
: 目前全球AI產品日活總排行榜,ChatGPT以5,323萬的日活躍用戶數穩居榜首,DeepSeek以

: 2,215萬的日活躍用戶數緊隨其後,位列第二,豆包則以1,695萬位列第三。
: 報導還指出,DeepSeek在香港成立兩間公司,兩公司分別為Deepseek Limited、
: DEEPSEEK (HK) LIMITED,企業類型均為私人股份有限公司。
: DeepSeek即杭州深度求索人工智能基礎技術研究有限公司已成功註冊多枚DeepSeek商標,

: 國際分類涉及社會法律、設計研究、科學儀器等。
: 心得/評論:
: Deepseek上線20天,每日活躍用戶已經達到兩千萬,已經是全球DAU增速最快公司
: 並且超越字節跳跳動推出的豆包的用戶數1695萬----
Sent from BePTT on my iPhone 16

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.105.61.157 (臺灣)
※ 作者: ImHoluCan 2025-02-06 11:52:25
※ 文章代碼(AID): #1df37xv8 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738813947.A.E48.html
WTF55665566 : 你可以下載到自己電腦燒顯卡運算啊1F 02/06 11:53
WTF55665566 : GPT3都可以了 只是比線上難用多了 要自己訓練
s011109     : 還是本來就是垃圾3F 02/06 11:54
necrophagist: 一開始還能用 但現在的狀態真的爛 伺服器算力不足4F 02/06 11:54
fdkevin     : 昨天晚上用也是這樣5F 02/06 11:54
WTF55665566 : 算力不足的問題開始體現6F 02/06 11:56
mopa        : 阿就算力不足啊7F 02/06 11:57
zonppp      : 這叫做飢餓行銷  懂的就懂8F 02/06 11:57
tw00172848  : 算力不足 NVVVVV9F 02/06 11:57
Leo4891     : 免費的還嫌啊10F 02/06 11:58
mopa        : DS已死啦,中國又拿不到算力,怎摸擴充,華為910來11F 02/06 11:58
mopa        : 擋嗎
wr          : 免費的是沒啥好嫌 但chatGPT也免費阿...13F 02/06 11:59
Leo4891     : 越多人用 ds越燒錢  當然要限制人數14F 02/06 11:59
ImHoluCan   : CharGPT 變超聰明,感覺有更新過15F 02/06 11:59
WTF55665566 : 有競爭有差GPT變強了+116F 02/06 12:00
Leo4891     : 反正都開源了 之後美國各大模型都會跟上ds甚至更好17F 02/06 12:00
Leo4891     : 用
amd3dnow    : 點麵線app的用戶數有多少?19F 02/06 12:00
patrol      : 就說中吹吹半天,人數一多還是死,耗不贏網路巨頭的20F 02/06 12:01
patrol      : 多問幾個問題光電費就燒死你了
mopa        : 不是訓練要算力,推論更需要算力,因為作為分母的用22F 02/06 12:04
mopa        : 戶非常多,除非你的服務只給幾百個人用。
Roger5566   : openAI之前就擠香腸 現在被逼才拿出真本事24F 02/06 12:05
Roger5566   : 但利潤就少很多 所以微軟股價才跌這麼多
jack529     : 自己跑啊26F 02/06 12:06
patrol      : 嗯,如果把卡超頻極限使用也可能撐不過兩年,到時不27F 02/06 12:06
patrol      : 只燒電,還燒卡
littlebroken: 競賽對消費者是好事 對股民就不好說了29F 02/06 12:06
littlebroken: o1確實變聰明 這就是開源的威力嗎
ssarc       : 所以你還是需要台積電的晶片31F 02/06 12:07
pt993526    : 算力好解決吧 從新加坡縣多走私一點設備進去就好32F 02/06 12:07
ssarc       : 你以為很夠用,但現實是永遠不夠用33F 02/06 12:07
a79111010   : GPT在那當牙膏仔 果然還是要有個對手才行34F 02/06 12:08
wr          : 簡單說 節省算力可以增加普及率 但算力需求是無盡的35F 02/06 12:08
hensel      : 中吹? 不如去問創世神的fedgpt,應該沒人用超多資36F 02/06 12:09
hensel      : 源
rbull       : 跟一開始的無線上網一樣吧 一定不夠用的38F 02/06 12:09
yangtsur    : 微軟振作點39F 02/06 12:09
boringuy    : 就說了還是需要GPU,deepseek是模型成本變低,但使40F 02/06 12:09
boringuy    : 用者跑模型還是需要算力
patrol      : 嗯,不確定會是誰的晶片,反正最後老美一定拿大頭42F 02/06 12:09
mopa        : 應該說DS可以節省訓練的算力,但是推論的算力取決於43F 02/06 12:10
mopa        : 用戶數,沒有人嫌客人少的。
ssarc       : 曾經我也以為手機上網的流量夠用45F 02/06 12:10
mopa        : 嫌客人多46F 02/06 12:11
fluffyradish: 最後還是233047F 02/06 12:12
IanLi       : 免費就什麼問題都丟上去亂問,塞也給你塞死48F 02/06 12:13
kausan      : 留著自己慢慢用49F 02/06 12:14
wr          : 跟能源一樣 節省能源是一種手段 但能源需求是無限的50F 02/06 12:14
Sixigma     : 等一下啦升騰就只有h100 60%吼一直催51F 02/06 12:14
IanLi       : 伺服器容量不會只差一倍,能跑也是很厲害了52F 02/06 12:15
AGODC       : 就是算力不足53F 02/06 12:17
ssarc       : 免費就隨便用,付費更要用到回本54F 02/06 12:17
calvincock  : 這種東西也在喊低調是哪邊有問題…. 直接perplexit55F 02/06 12:17
calvincock  : y套r1就好了啊
r40491101   : 本來就垃圾吧,不是錯58F 02/06 12:21
r40491101   : 樓上怎麼老愛貼這個人啊……愛看自己慢慢看就好了
noirskakashi: 等過幾個月設備上來應該就好很多,現在池子就這麼大60F 02/06 12:22
jenchieh5   : gpt最近突然強化很多,果然有競爭才會刺激進步61F 02/06 12:23
beavertail97: 不只gpt聰明,現在微軟copilot新功能-深度思考-的62F 02/06 12:23
beavertail97: 答案也好用,
tw19930419  : 垃圾可以逼gpt開新功能 長見識了64F 02/06 12:23
wr          : 過幾個月別的AI公司也會用一樣的算法配上更強的算力65F 02/06 12:24
rbull       : 有時候垃圾文可以逼出大老回文啊66F 02/06 12:24
seemoon2000 : 我今天第一次載來用 他R1是不是只有服務器忙碌答案67F 02/06 12:24
help1268    : AI也能當牙膏廠68F 02/06 12:27
wr          : 算法越強普及度越高 算力需求增加 然後就科技奇異點69F 02/06 12:28
lakershank  : 真的有夠難用,別瞎BB乖乖屯算力70F 02/06 12:29
kobebrian   : 早就說了 硬體才是王道 軟體放出來大家還不都一樣71F 02/06 12:30
jasperhai   : 輝達笑而不語72F 02/06 12:30
fgwilliam   : 會相信某郭的話,柯憐啊73F 02/06 12:31
CLisOM      : deepssek不會起來因為中國硬體受限,但openAI也會74F 02/06 12:32
CLisOM      : 受創因為一堆企業有了開源能以更低成本與openAI競
CLisOM      : 爭,美國企業也能用開源
fluffyradish: 畢竟是文組…77F 02/06 12:32
seemoon2000 : 我覺得還是早點收費吧 這個用到很躁78F 02/06 12:33
DPP48       : 不爽自己架70B啊79F 02/06 12:35
wr          : 上一個改變世界的科技是網路 下一個估計就是AI了80F 02/06 12:35
b9513227    : 高能兒說不用堆效能的不是嗎81F 02/06 12:37
swimbert    : 沒有買到足夠算力82F 02/06 12:39
good5755    : 沒買到NV卡還是有差83F 02/06 12:40
ssarc       : 虛擬的前提都是實體84F 02/06 12:42
sheng76314  : DS頓就馬上切一個 現在都有整合的 一次幾個再用85F 02/06 12:44
mainsa      : 低成本又多人用塞成垃圾蠻合理的吧86F 02/06 12:44
IBIZA       : 自己裝一台啊87F 02/06 12:52
IBIZA       : 開源的東西,最方便的就是你自己可以搞一台出來自己
IBIZA       : 用
WTF55665566 : 用過開源自己載下來的 不會比線上好用 除非你公司90F 02/06 12:56
WTF55665566 : 要一個團隊自己去訓練 或是你是很熟底層代碼處理的
WTF55665566 : 專門人士
WTF55665566 : 你顯卡設備不夠力跑的更慢
WTF55665566 : 結論就是這個世代AI就是決戰算力 誰掌握越多優勢越
WTF55665566 : 大 跟蒸汽機時代的煤礦 內燃機時代的石油一樣
ssarc       : 自己組?我為什麼不換一家用就好96F 02/06 12:59
beavertail97: 使用者付費很合理,但還是希望gpt月費降價97F 02/06 13:02
IBIZA       : 不用訓練啊 直接裝訓練好的98F 02/06 13:02
IBIZA       : 你裝起來就跟線上的一樣啊
IBIZA       : 還可以自己調參數 關filter
a19851106   : 他資料就到2023阿101F 02/06 13:03
IBIZA       : 企業當然會喜歡自己裝  機密資訊不外流啊102F 02/06 13:03
WTF55665566 : 然後企業要訓練終究要提升硬體算力103F 02/06 13:05
WTF55665566 : 個體戶自己載下來麻煩的要死 像是翻譯 我弄下來還
WTF55665566 : 要再搞幾個相關需要的翻譯模型 不然那翻出來的品質
WTF55665566 : 搞不好比谷歌機翻更爛
WTF55665566 : 重點是弄完這些要算還是比網頁版慢 那搞笑嗎?
NexusPrime  : 早就說過了,訓練成本低又如何,你要多人使用就是108F 02/06 13:06
NexusPrime  : 看硬體能力
qxpbyd      : 買perplexity pro啊,免費的就這樣110F 02/06 13:07
squelch     : 我問 真值表 狀態轉移表 跟激勵表 三者是什麼關係111F 02/06 13:08
squelch     : 以JK正反器 怎麼換算 只有R1答對 。你是要問問題還
squelch     : 是要轉成檔案輸出?檔案 輸出是付費功能
IBIZA       : 搞不清楚狀況的是你吧, DeekSeek用零頭的算力就能服114F 02/06 13:08
IBIZA       : 務40%的user
IBIZA       : 能服務多少人是 總算力/ per算力
n8526781    : 怎麼沒人用gemini嗎?免費的,原po的問題一問就給117F 02/06 13:10
IBIZA       : per算力低 服務同樣的人 總算力就低118F 02/06 13:10
IBIZA       : WTF, 我已經跟你說了 不需要訓練
IBIZA       : 除非你是要訓練自己特殊任務的模型
IBIZA       : 不然DS是安裝後就能開始回答問題的
dferww55    : 服務40%,但是很卡,幾乎跑不動122F 02/06 13:11
IBIZA       : 但他的總算力可能只有ChatGPT的1/100甚至更低123F 02/06 13:12
IBIZA       : 1%的算力能服務40%的人
dferww55    : 服務40%只是指下載人數吧,我也有下載但幾乎跑不動125F 02/06 13:12
dferww55    : 還是只能回去用GPT
SRNOB       : gemini 垃圾 還有DEI色彩 氣死127F 02/06 13:13
IBIZA       : 40%是指每日活躍使用人數128F 02/06 13:13
HiuAnOP     : DeepApple飢餓行銷!129F 02/06 13:15
NexusPrime  : 40%的人又不是同一秒一起問,同時問我看只能服務幾130F 02/06 13:16
NexusPrime  : 千人
LMgogo      : 2000萬的免錢仔 要錢剩多少132F 02/06 13:20
xammmmm     : 話說他的模型有開源嗎?133F 02/06 13:27
IBIZA       : 用比例計算 理論上同一時間應該比例也差不多啊134F 02/06 13:29
IBIZA       : 甚麼叫做模型開源.
WTF55665566 : 我就跟你講我自己嘗試過了本機運算了 純搞語音模型136F 02/06 13:29
WTF55665566 : 沒有外加別的 翻譯的還比機翻爛 我還得自己手動調
WTF55665566 : 整一堆… 不如回去用GPT線上
IBIZA       : 模型=程式+訓練, 能開源的只有程式139F 02/06 13:29
IBIZA       : GPT線上你是用API才能訓練自己模型
IBIZA       : 你自己裝本機運算是怎麼訓練自己模型?
xammmmm     : 原來如此感謝分享142F 02/06 13:33
zzahoward   : 本機運算? 你用哪個版本的?143F 02/06 13:37
TaiwanUp    : 不買越多 花越多144F 02/06 13:38
guowei616   : 胡扯 中吹說一台電腦一張顯卡就能運算145F 02/06 13:38
cosmite     : 算力不足 繼續吹 哈哈146F 02/06 13:42
Leo4891     : 最終要搶市占率  你還是需要算力  在那說多省都沒147F 02/06 13:42
Leo4891     : 用 是客家人喔
Leo4891     : 至少要像搜索引擎這樣順暢才行
zzahoward   : 八成不是跑671b的150F 02/06 13:45
kapiobhee   : 這樣不好嗎 難道給gpt擠牙膏151F 02/06 13:46
guagua1101  : 所以乖乖來買gb200吧152F 02/06 13:47
zzahoward   : DS本身爆紅是因為他的模型...153F 02/06 13:51
WTF55665566 : 模型優化很快團隊就能拆解跟上 這幾天Chatgpt變強154F 02/06 13:54
WTF55665566 : 馬上證明這一點 但算力是你實打實的天險 你要怎麼
WTF55665566 : 在人家優化模型的前提下用比較差的算力來競爭?現
WTF55665566 : 在不就是證明無法了?
loopdiuretic: 用過還真的蠻難用的 不過未來可期….吧158F 02/06 13:54
WTF55665566 : 怎麼為覺得人家家大業大 會研究不出你deepseek的優159F 02/06 13:55
WTF55665566 : 勢?
zzahoward   : 拆解是因為人家開源...大模型堆硬體大家都知道161F 02/06 13:55
zzahoward   : WTF56你都還沒說你本地布署的版本是哪個
zzahoward   : 你說R1難用 結果R1能力公認的強
zzahoward   : 現在大家說難用是因為DS本身的server被擠爆了
zzahoward   : 至於個體戶算力  大概5~6tkn的機器就可以處理多數
zzahoward   : 問題 難一點的或長一點的20tkn也夠嗆了
WTF55665566 : 說白一點就是 要優化模型既然比堆算力容易 那大團167F 02/06 13:59
WTF55665566 : 隊要優化拆解跟上以後又擁有你無法比擬的算力你要
WTF55665566 : 怎麼競爭?還不是得拼算力差距?
WTF55665566 : 啊怎麼deepseek就會被擠爆CHATGPT就沒有被擠爆?這
WTF55665566 : 不就是差距?
as6633208   : 真的卡到用不了==172F 02/06 14:00
as6633208   : 問第一題還可以,第二題幾乎就死了
WTF55665566 : 得回去看才曉得 我試過好幾個大語音模型 不過結論174F 02/06 14:01
WTF55665566 : 是都不會比其線上版好用 除了GPT這種最新沒開源無
WTF55665566 : 法驗證外
as6633208   : deepseek本地要好用還真得看情況,前天才用過別人本177F 02/06 14:06
as6633208   : 地部署的ds r1回答品質完全不如網頁的,本地的等很
as6633208   : 久答案還是錯的,而且越錯越離譜,然後現在網頁那個
as6633208   : 也幾乎用不了,嗯,我評價不如gpt,即使是網頁的dee
as6633208   : pseek回答第一次品質不錯,但接著問就會發現答案越
as6633208   : 問越發散越離譜,非創作類的業務根本用不了
zzahoward   : 你們電腦配備是不是不行啊183F 02/06 14:08
Morphee     : 可憐啊 我本地端用671b,用到飽184F 02/06 14:17
beariscut   : 最好自己裝跟deepseek會一樣 光Azure的deepseek就185F 02/06 14:18
beariscut   : 跟官方不一樣了  說是開源但還是很多多細節沒公開
zzahoward   : 該換顯卡啦 或是用我那篇那方法把模型全丟RAM跑187F 02/06 14:18
duriamon    : 那個WTF本來就亂講話,他根本不懂裝懂啦!呵呵!188F 02/06 14:20
KrebikShaw  : DS真的會越問越離譜189F 02/06 14:21
DPP48       : 搞不好是用到1.5b的190F 02/06 14:22
DPP48       : 呼叫LDPC大佬解惑
zxcas       : 手機版gpt一直閃退,根本也是爛東西192F 02/06 14:25
IBIZA       : 本地部署的你要看是多少b參數的  671b的就跟DS的一193F 02/06 14:41
IBIZA       : 樣啊
IBIZA       : 大模型堆硬體是沒錯  但堆怎樣的硬體還是有差
IBIZA       : DS 671b大概20萬的機器就能跑
a9564208    : 不是被ddos 嗎?197F 02/06 14:43
IBIZA       : Azure的DS r1有部署chatbot嗎?198F 02/06 14:48
as6633208   : deepseek 同一串真的會越問越發散,你要做一長串反199F 02/06 14:55
as6633208   : 覆詢問的邏輯推理還是得用O1或claude,ds問到第三個
as6633208   : 次就常常發散到外太空去了,收斂不回來原本問題
zzahoward   : 671b就我之前發那篇文就跑很順啦 還不用GPU202F 02/06 14:56
zzahoward   : 8tkn的產出夠嗆了
s12111424   : 免費仔還嫌哦204F 02/06 15:46

--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 65 
作者 ImHoluCan 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
guest
x)推文 r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇