作者 pacino (掃地僧)
標題 Re: [心得] token maximum
時間 Sat Mar  7 10:12:44 2026


看了這兩串, 充滿了疑問..
想討論一下這個主題: token

(1) 每個LLM 都有自己的max. tokens
這是在training model時就要決定的
(2) max output tokens是讓agent在送給LLM 之前處理用的,避免超過LLM model的max. to
(3) rules 沒被執行,有可能是context可能超過LLM model的max. tokens, agent 主動壓?

這樣不就解釋了兩串原po的問題?

麻煩指正,若我的了解有誤。


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.83.213 (臺灣)
※ 作者: pacino 2026-03-07 10:12:44
※ 文章代碼(AID): #1fgucUG2 (Soft_Job)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1772849566.A.402.html
※ 同主題文章:
02-21 22:04 erspicu
03-01 18:05 leicheong
Re: [心得] token maximum
03-07 10:12 pacino
MoonCode:1F 03/07 10:24
DrTech: 1. LLM什麼時後會停止回答,跟你設定多長的 max output token無關。2.max output token不是寫在prompt裡面。2F 03/07 14:26

為了避免LLM不處理超過model的max tokens (聽說 LLM會傳回error,往返也是cost)
所以才要靠agent把關, 不是嗎?
Max output token是給agent用的
當有需要減少context,
agent有個機制會壓縮整個context(prompt, history, rules, referenced files..)
再把壓縮後的context送往LLM



DrTech: LLM要停止輸出,不看max output tokens,是看有沒有算出EOS token。與你怎麼設定OS環境變數,是否放在prompt無關。按錯,我不是要噓。4F 03/07 14:32
※ 編輯: pacino (111.249.83.213 臺灣), 03/07/2026 15:16:09
--
作者 pacino 的最新發文:
點此顯示更多發文記錄