作者 howtotell (貓在鋼琴上昏倒了)
標題 Re: [閒聊] DeepSeek是不是真的很強?
時間 Sun Feb  2 14:39:04 2025



yt看到以後花了我兩個小時在摸  完全不會寫程式也不用高昂配備就可以給地端用


https://www.youtube.com/watch?v=Td_jdwRHofo




要注意

1.問問題cpu會飆車

2.可以用於工作  我餵他吃法律  他吃得算開心

這東西可以吃地端資料就可以用於工作  但還沒想到能幹嘛...



=================
FROM deepseek-r1:7b
PARAMETER temperature 0.5
SYSTEM """
記事本輸入敘述對話需要參考的內容(地端無法讀網路 只能地端)
然後去除.txt即可
可以做角色扮演也可以回答指定法條 ====的上方是EW內容
"""
=================
指令
cd C:\Users\user\Desktop\1 檔案路徑
ollama create EW -f ./EW EW是檔案名稱,要先將EW打好
ollama run EW


https://i.imgur.com/yhUnMGF.jpeg
[圖]
https://i.imgur.com/R4K0eRS.jpeg
[圖]

還沒讀地端資料時
回答跟大便一樣..不過當初chatgpt也是從亂回開始
https://i.imgur.com/SqL7HCW.jpeg
[圖]


讀地端資料後就像個人了
https://i.imgur.com/w2wHmkM.jpeg
[圖]

※ 引述《protoss97 (wei)》之銘言:
: ※ 引述《subsonic (索尼克)》之銘言:
: 試著讓deepseek寫一小章
: ### **第一章:黑船之繭(1890)**
: 森鷗外的手錶停在凌晨三時十七分。
--
https://www.youtube.com/watch?v=sEQf5lcnj_o Unravel - Tokyo Ghoul OP [Piano]

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.249.251 (臺灣)
※ 作者: howtotell 2025-02-02 14:39:04
※ 文章代碼(AID): #1ddnCDzi (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738478349.A.F6C.html
※ 同主題文章:
Re: [閒聊] DeepSeek是不是真的很強?
02-02 14:39 howtotell
kuninaka: 地端是啥1F 02/02 14:40
greg7575: 抓到了,中共同路人2F 02/02 14:41
guogu: 其實用lmstudio更簡單 不用打任何指令3F 02/02 14:41
可是我用lm  studio很慢  不知道為甚麼...可能是他更吃資源

kuninaka: 接地氣的意思嗎4F 02/02 14:41
guogu: 然後聽說7B審查會比較多一點 可是8B的中文又比較差一點5F 02/02 14:43
RandyOrlando: 怎麼一堆人都是拿去玩養自己的AI老婆XD6F 02/02 14:46
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:48:11
oo231469785: 工作上叫本地機房也是說地端啊 支語警察是不是沒工作過 點點點7F 02/02 14:47
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:52:39
ericrobin: 用gpu跑32b 4Q基本沒問題 用cpu滿恐怖的
       *Q49F 02/02 14:50
guogu: 你的電腦配備呢? 我用起來是lmstudio快非常多
因為它有vulkan加速 A卡也能用11F 02/02 14:51

我是老機器  GA401  16gb ram  rtx 2060
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:53:56
guogu: 如果不用gpu體感是跟用ollama差不多 實際不知道
因為ollama也沒顯示每秒幾個token13F 02/02 14:52
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:55:12
guogu: 2060 6GB的話應該勉強塞得下去才對
https://i.meee.com.tw/QGvxqdy.png
不過可能太緊繃 所以你用lmstudio VRAM不夠 所以沒GPU加速用ollama它有幫你塞進去有用到GPU加速所以就快很多15F 02/02 15:05
[圖]
howtotell: 感謝大大  我找找看能不能硬塞..19F 02/02 15:07
joejoe2: 有promt可以繞過審查吧20F 02/02 15:12
arrenwu: 會大吃CPU的話 速度還真的會慢到一個難受21F 02/02 15:12
guogu: temperature設0.5會不會有點低阿?
https://i.meee.com.tw/TgkuvBF.png deepseek建議22F 02/02 15:12
[圖]
kuninaka: 這一定要用GPU跑的24F 02/02 15:14
guogu: 寫作設到1.5呢 雖然1.5感覺很怪 一般不是0~1嗎?25F 02/02 15:14
howtotell: 我目前用0.5的對話其實就滿長的,1.5他可能需要更多資源我不知道能不能負擔
其實我要的也只是簡單的問與答,但是0.5他現在就打幾百字了26F 02/02 15:20
guogu: 理論上temperature是不影響回應長度的30F 02/02 15:26
Ning01: 溫度影響的不是長度,而是發散性或創意性31F 02/02 15:26
guogu: 他是讓模型更有機會去選擇機率比較低的結果
設高一點理論上會比較有"創意"32F 02/02 15:26

--
作者 howtotell 的最新發文:
點此顯示更多發文記錄