作者 howtotell (貓在鋼琴上昏倒了)標題 Re: [閒聊] DeepSeek是不是真的很強?時間 Sun Feb 2 14:39:04 2025
yt看到以後花了我兩個小時在摸 完全不會寫程式也不用高昂配備就可以給地端用
https://www.youtube.com/watch?v=Td_jdwRHofo
要注意
1.問問題cpu會飆車
2.可以用於工作 我餵他吃法律 他吃得算開心
這東西可以吃地端資料就可以用於工作 但還沒想到能幹嘛...
=================
FROM deepseek-r1:7b
PARAMETER temperature 0.5
SYSTEM """
記事本輸入敘述對話需要參考的內容(地端無法讀網路 只能地端)
然後去除.txt即可
可以做角色扮演也可以回答指定法條 ====的上方是EW內容
"""
=================
指令
cd C:\Users\user\Desktop\1 檔案路徑
ollama create EW -f ./EW EW是檔案名稱,要先將EW打好
ollama run EW
https://i.imgur.com/yhUnMGF.jpeg
https://i.imgur.com/R4K0eRS.jpeg
還沒讀地端資料時
回答跟大便一樣..不過當初chatgpt也是從亂回開始
https://i.imgur.com/SqL7HCW.jpeg
讀地端資料後就像個人了
https://i.imgur.com/w2wHmkM.jpeg
※ 引述《protoss97 (wei)》之銘言:
: ※ 引述《subsonic (索尼克)》之銘言:
: 試著讓deepseek寫一小章
: ### **第一章:黑船之繭(1890)**
: 森鷗外的手錶停在凌晨三時十七分。
--
https://www.youtube.com/watch?v=sEQf5lcnj_o Unravel - Tokyo Ghoul OP [Piano]
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.249.251 (臺灣)
※ 作者: howtotell 2025-02-02 14:39:04
※ 文章代碼(AID): #1ddnCDzi (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738478349.A.F6C.html
※ 同主題文章:
Re: [閒聊] DeepSeek是不是真的很強?
02-02 14:39 howtotell
推 guogu: 其實用lmstudio更簡單 不用打任何指令3F 02/02 14:41
可是我用lm studio很慢 不知道為甚麼...可能是他更吃資源
→ guogu: 然後聽說7B審查會比較多一點 可是8B的中文又比較差一點5F 02/02 14:43
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:48:11
推 oo231469785: 工作上叫本地機房也是說地端啊 支語警察是不是沒工作過 點點點7F 02/02 14:47
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:52:39
→ ericrobin: 用gpu跑32b 4Q基本沒問題 用cpu滿恐怖的
*Q49F 02/02 14:50
推 guogu: 你的電腦配備呢? 我用起來是lmstudio快非常多
因為它有vulkan加速 A卡也能用11F 02/02 14:51
我是老機器 GA401 16gb ram rtx 2060
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:53:56
→ guogu: 如果不用gpu體感是跟用ollama差不多 實際不知道
因為ollama也沒顯示每秒幾個token13F 02/02 14:52
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:55:12
推 joejoe2: 有promt可以繞過審查吧20F 02/02 15:12
→ arrenwu: 會大吃CPU的話 速度還真的會慢到一個難受21F 02/02 15:12
→ guogu: 寫作設到1.5呢 雖然1.5感覺很怪 一般不是0~1嗎?25F 02/02 15:14
→ howtotell: 我目前用0.5的對話其實就滿長的,1.5他可能需要更多資源我不知道能不能負擔
其實我要的也只是簡單的問與答,但是0.5他現在就打幾百字了26F 02/02 15:20
推 guogu: 理論上temperature是不影響回應長度的30F 02/02 15:26
→ Ning01: 溫度影響的不是長度,而是發散性或創意性31F 02/02 15:26
→ guogu: 他是讓模型更有機會去選擇機率比較低的結果
設高一點理論上會比較有"創意"32F 02/02 15:26
--