作者 lsd25968 (code:9527)
標題 Re: [閒聊] 低等動物被認為有意識,那AI難道沒有嗎?
時間 Fri Jul 11 08:27:56 2025



對於AI有沒有意識這點

apple團隊前陣子有篇論文就是探討這個

《The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity》

簡單說結論就是,LLM看似在思考,實則沒有(天根我)

團隊找了一些經典問題,
像是河內塔、狼羊過河等一系列簡單到難的問題
給語言模型回答

當然控制變數都有抓好
像是token數都有控制以免數量多的有優勢

測試方式為
第一種:直接問答案
第二種:模仿人類推導答案的過程


第一種不用說就是你直接給他一個問題,要他回答出答案

這種方式也是很多LLM使用教學中會提到盡量避免的方法
因為簡單問題沒什麼大礙,但是一旦開始稍微複雜

就開始腦抽,常用LLM的應該都有所體會

第二種則是人類思考方式的Chain of thought
人類在導出答案過程並不是直接0到100
而是會把問題拆分後,逐一推導的

仿照這模式,對AI用引導提問讓他逐步解出題目
但研究人員發現到
模型只是在使用他學習過的資料拼湊答案
或是找一些跟你提示詞有關的東西回答

所以才說邏輯題目就直接把模型弄玩壞
因為模型不是根據過去推導的結果繼續推導下一個結果

他只是裝作有在思考而已

所以結論,有沒有意識
這篇論文答案是沒有

但個人來說還是很方便的工具就是
-----
Sent from JPTT on my iPhone

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 126.194.116.204 (日本)
※ 作者: lsd25968 2025-07-11 08:27:56
※ 文章代碼(AID): #1eS5gGrD (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1752193680.A.D4D.html
SSIKLO: 推這篇,坐等第一篇原PO來跟你槓1F 07/11 08:30
h0103661: 人類的思考方式就有區別嗎2F 07/11 08:32
raincole: 這篇論文講的是 AI 有沒有「推理」能力
意識是哲學問題 是無法證偽的 跟推理是兩件事
很多人也覺得貓狗有意識 但是貓狗不要說回答河內塔了
現在沒有任何證據證明貓狗能做乘法(連二位數加法都很有爭議)3F 07/11 08:32
lsd25968: 無法驗證的問題還能稱作科學嗎==
那就是大家各說各的,看誰時間比較多拖死對方而已啦8F 07/11 08:38
raincole: 意識本來就不是科學問題 我不是已經說了是哲學問題...10F 07/11 08:39
lsd25968: 好 我不懂哲學 所以拿科學去解釋 就當作分享小知識吧11F 07/11 08:40
raincole: 你真的去讀這篇論文就會發現裡面沒有提到那怕一次「意識」(conscious) 這個字 都是用行為(behavior)和推理(reasoning) 為啥?因為意識就完全不在你可以做實驗去驗證的討論範圍裡啊...12F 07/11 08:42
william456: 不是也有一種觀點,你以為的自由意志其實是被動選
16F 07/11 08:47
GAOTT: 有沒有意識在於能不能感覺到吧
比如我打一條狗 狗會痛是因為它真的痛 還會怕
但我今天跟ai說 你被我打了 你有什麼感覺
ai說它會痛是因為程式碼告訴它你現在要說你會痛 而且不會怕重點不是在於痛不痛 而是痛帶給你什麼18F 07/11 08:48
lsd25968: 確實,如果要糾結定義的話有點走題。覺得這話題挺有趣的進來湊熱鬧一下,獻醜了23F 07/11 08:51
h0103661: 哲學本來就是各說各的聊天而已25F 07/11 09:26
rogerlarger: ai不是程式碼寫邏輯耶,他是模型。模型是一堆參數,應該算是數據化的神經連結。26F 07/11 09:27
a7569813: 模型也只是一種統計學的資料分析方法,不能算是意識28F 07/11 09:32
drm343: 16f 說的那個是決定論29F 07/11 10:10
LunaDance: 這只是說llm沒法靠文字接龍那套去做邏輯推理 沒有要探討意識與思考30F 07/11 10:47

--
作者 lsd25968 的最新發文:
點此顯示更多發文記錄