※ 本文轉寄自 ptt.cc 更新時間: 2024-11-02 16:57:15
看板 PC_Shopping
作者 標題 [閒聊] 想玩AI繪圖一定要買顯卡嗎?
時間 Sat Nov 2 05:47:57 2024
各位高手安安
小弟AI小白最近想玩看看AI繪圖或者本地端大語言模型
無奈原本的顯卡只有3070 8g 跑下去覺得體驗實在很差
但看看目前主流的這些顯卡的價格...
無奈原本的顯卡只有3070 8g 跑下去覺得體驗實在很差
但看看目前主流的這些顯卡的價格...
實在有點花不太下去
想問看看如果想玩AI繪圖的話
有滿多雲端服務或API的方式
這樣跟自己買一張本地端跑圖比起來
價格不會比較划算嗎?
因為看到板上好像滿多人手骨都滿粗的
很多人都願意投資這些錢來買顯卡跑
所以有這個疑問...
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.1.34 (臺灣)
※ 作者: EBVirus 2024-11-02 05:47:57
※ 文章代碼(AID): #1d9KoFB1 (PC_Shopping)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1730497679.A.2C1.html
推 : 問就是買,財力即算力1F 123.192.226.189 台灣 11/02 05:53
→ : AI入門VRAM其實最重要 至少16G2F 125.228.52.126 台灣 11/02 05:57
→ : 記憶體不夠你連圖都沒辦法生出來
→ : 記憶體不夠你連圖都沒辦法生出來
推 : 沒打算投入相當預算,乾脆就打消念頭吧4F 36.228.108.27 台灣 11/02 06:00
→ : 顯卡好好拿來打遊戲不好嗎
→ : 反正不管哪種方法,投入一堆生出的 AI 圖
→ : 八成跟網路上某個其他人的 AI 圖差不多
※ 編輯: EBVirus (36.239.1.34 臺灣), 11/02/2024 06:11:43→ : 顯卡好好拿來打遊戲不好嗎
→ : 反正不管哪種方法,投入一堆生出的 AI 圖
→ : 八成跟網路上某個其他人的 AI 圖差不多
推 : 找縮小的量化模型8F 111.252.31.59 台灣 11/02 06:20
→ : 裝lm studio裡面各種大小都有
→ : 裝lm studio裡面各種大小都有
推 : 3060-12g比3070好10F 42.73.206.207 台灣 11/02 06:21
推 : 不然你要買AMD顯卡來玩AI嗎?11F 111.82.146.153 台灣 11/02 06:27
推 : 微軟的bing image也能玩12F 223.140.115.34 台灣 11/02 07:16
推 : 好奇用8600G有幫助嗎13F 182.235.142.11 台灣 11/02 07:28
→ : 你直接訂閱NovelAI之類的就好了吧...14F 27.51.16.198 台灣 11/02 07:40
→ : 4060 Ti 16G15F 220.129.134.171 台灣 11/02 07:42
推 : 會拿來生財就買 純玩玩買線上服務就16F 125.229.194.48 台灣 11/02 07:45
→ : 好
→ : 好
→ : 本地當然要顯卡18F 61.230.93.50 台灣 11/02 07:48
推 : 線上的先玩玩看19F 122.116.86.152 台灣 11/02 07:49
推 : 計算力對於速度的影響還是滿大的21F 220.142.204.65 台灣 11/02 07:55
推 : 現在也可以用一般記憶體來替代顯存
→ : ,記憶體可以加多一點
推 : 你也可以多組幾台電腦,放在那邊讓
→ : 他們跑就是了
推 : 現在也可以用一般記憶體來替代顯存
→ : ,記憶體可以加多一點
推 : 你也可以多組幾台電腦,放在那邊讓
→ : 他們跑就是了
→ : 你要拿來賺錢的就投資壓 想玩玩的26F 61.227.25.86 台灣 11/02 08:13
→ : 線上那些買一兩個月過過癮就好
→ : 線上那些買一兩個月過過癮就好
推 : 記憶體可以說能替代但是如果VRAM不夠用28F 220.135.152.215 台灣 11/02 08:13
→ : ,把VRAM塞爆然後offload到記憶體,如果
→ : 只是實驗性玩玩看可以,如果要穩定用跟
→ : 流暢的體驗VRAM一定要夠
→ : ,把VRAM塞爆然後offload到記憶體,如果
→ : 只是實驗性玩玩看可以,如果要穩定用跟
→ : 流暢的體驗VRAM一定要夠
推 : 花一點錢買線上網站幫算生AI圖的吧,32F 220.129.5.22 台灣 11/02 08:13
→ : 除非是做遊戲之類需要大量產圖,要不然
→ : 通常是玩幾天就膩了。
→ : 除非是做遊戲之類需要大量產圖,要不然
→ : 通常是玩幾天就膩了。
→ : 塞記憶體那個之前不是會變超慢?35F 61.227.25.86 台灣 11/02 08:13
→ : NV有改進了?
→ : NV有改進了?
→ : VRAM offload到記憶體我個人是覺得很慢37F 220.135.152.215 台灣 11/02 08:18
推 : 我覺得雲端買API比較划算 玩一下你就膩了38F 36.235.198.99 台灣 11/02 08:20
→ : 用API還能做別的事情
→ : 用API還能做別的事情
→ : 你如果很認真想玩 網路超多教學社團討論40F 27.51.16.198 台灣 11/02 08:21
→ : PTT也有AI_Art或電瞎西恰都能討論 根據你的
→ : 文章內容 我是建議你買網站服務就好....
→ : PTT也有AI_Art或電瞎西恰都能討論 根據你的
→ : 文章內容 我是建議你買網站服務就好....
推 : 我也覺得api用用看看再說吧,除非是有閒43F 220.135.152.215 台灣 11/02 08:23
→ : 錢、研究或是工作用
→ : 錢、研究或是工作用
推 : 會很慢沒錯,現在用pony 或者sdxl也45F 220.142.204.65 台灣 11/02 08:26
→ : 很慢,雖然出圖的精度高很多
→ : 很慢,雖然出圖的精度高很多
推 : 我是買4060ti 16G來跑47F 36.224.236.210 台灣 11/02 08:46
推 : 稍微玩用線上就好 要自己訓再考慮買48F 223.140.237.84 台灣 11/02 09:06
推 : 你玩得很熟在買顯示卡玩LOCAL運算49F 36.239.126.217 台灣 11/02 09:59
推 : 我都用ipad pro M2跑本地端 還算堪用50F 203.75.79.40 台灣 11/02 10:02
→ : 怎麼可能玩幾天就膩啦 慾望是無窮的好咩
→ : civitai模型一堆你以為是怎麼來的?!
→ : 怎麼可能玩幾天就膩啦 慾望是無窮的好咩
→ : civitai模型一堆你以為是怎麼來的?!
推 : 之前有板友分享用8600G,主記憶體共享53F 42.77.152.174 台灣 11/02 10:09
→ : 16G,就是NPU太弱,看你要不要等AMD更
→ : 強的SOC上市囉
→ : 16G,就是NPU太弱,看你要不要等AMD更
→ : 強的SOC上市囉
→ : 玩一玩體驗的話用線上的吧56F 36.226.114.116 台灣 11/02 10:36
→ : 你錢多,一年有個七八萬預算就可以不買57F 122.100.112.197 台灣 11/02 10:37
→ : 人家做訓練是要生產賺錢的
→ : 人家做訓練是要生產賺錢的
推 : 你已經有3070 最低投資就換4060 16G吧59F 36.226.114.116 台灣 11/02 10:39
推 : cpu可以跑啊 只是跑很慢而已60F 182.234.98.55 台灣 11/02 11:08
→ : 不然就用google Colab租一個gpu來跑
→ : 不然就用google Colab租一個gpu來跑
推 : 也可以跟CSP租算力 或買現成的SaaS62F 101.137.120.245 台灣 11/02 11:46
→ : 玩玩的話現在有很多線上的吧63F 106.1.217.55 台灣 11/02 12:05
推 : 3070會體驗很差嗎? 我1070用stable di64F 118.167.227.204 台灣 11/02 12:46
→ : ffusion的pony還玩得滿開心的。 但是可
→ : 能用途不一樣,我就畫開心的
→ : ffusion的pony還玩得滿開心的。 但是可
→ : 能用途不一樣,我就畫開心的
推 : 跑圖的時候,相當於顯卡不能用,我67F 220.142.204.65 台灣 11/02 12:47
→ : 是覺得再組一台電腦會比較好
→ : 是覺得再組一台電腦會比較好
→ : 有很多雲端服務69F 180.218.110.107 台灣 11/02 12:47
推 : 不然你買colab的付費會員也能跑 價格70F 101.12.28.74 台灣 11/02 12:52
→ : 也不貴 如果只是想玩玩可以先試試
→ : 也不貴 如果只是想玩玩可以先試試
→ : 線上的先玩一玩 說不定一下就不想玩了72F 118.167.148.55 台灣 11/02 12:59
推 : 問就是雲端73F 125.229.101.39 台灣 11/02 13:03
推 : 玩雲計算的就好74F 223.137.32.151 台灣 11/02 13:14
→ : 沒興趣就停掉就好
→ : 沒興趣就停掉就好
推 : 3070出掉換4060ti 16g,遊戲部分差不多76F 123.192.184.50 台灣 11/02 13:32
→ : ,但是跑圖或是看日翻中的小說方便很多
→ : ,但是跑圖或是看日翻中的小說方便很多
推 : 模型沒GPU 靠CPU和NPU無法跑快78F 59.126.194.202 台灣 11/02 13:43
推 : APU目前問題在於能支援加速的應用太79F 223.137.242.72 台灣 11/02 14:18
→ : 少了…github上幾乎99%都是cuda加速
→ : 的
→ : 少了…github上幾乎99%都是cuda加速
→ : 的
→ : 我還以為你是用CPU硬幹派82F 203.204.195.174 台灣 11/02 14:26
推 : 看你有沒有要瑟瑟阿 有就要買顯卡83F 1.165.169.199 台灣 11/02 14:49
→ : 我自己是12400+4070 SDXL跑起來還行
→ : 跑圖過程還可以看個ptt 玩個模擬器
推 : 現在回想當初捏爆買到4070 真的值得
→ : 我自己是12400+4070 SDXL跑起來還行
→ : 跑圖過程還可以看個ptt 玩個模擬器
推 : 現在回想當初捏爆買到4070 真的值得
推 : 可以試試租4090一小時10幾元87F 111.251.230.166 台灣 11/02 15:27
→ : 二手板蹲3090,玩AI就是24G vram起步88F 112.78.90.196 台灣 11/02 15:32
推 : 不然你當那些買百萬運算卡跑自家AI的89F 114.137.193.203 台灣 11/02 15:42
→ : 都傻子嗎..
→ : 都傻子嗎..
--
※ 看板: PC_Shopping 文章推薦值: 0 目前人氣: 0 累積人氣: 57
作者 EBVirus 的最新發文:
- 各位高手安安 小弟AI小白最近想玩看看AI繪圖或者本地端大語言模型 無奈原本的顯卡只有3070 8g 跑下去覺得體驗實在很差 但看看目前主流的這些顯卡的價格... 實在有點花不太下去 想問看看如果想 …90F 38推
- 6F 3推
- 30F 7推
- 10F 3推 2噓
- 18F 5推 3噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享