看板 Stock作者 IBIZA (溫一壺月光作酒)標題 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據時間 Wed Jan 29 23:20:33 2025
※ 引述《mangle (mangle123)》之銘言:
: 比較好奇這段:
: 儘管蒸餾是AI業界常見做法,但DeepSeek若利用蒸餾技術來打造自家模型,並與OpenAI競 爭,將違反OpenAI服務條款,因此產生疑慮。
: OpenAI的服務,或是「利用輸出結果,來開發與OpenAI競爭的模型」。
: 各個ai 大語言模型不是都會互相參照比較和訓練嗎? 我以為這是業界常識…
: 不過要怎麼定義「與openai 競爭的模型」? 因為deepseek 也沒盈利而且也開源學習,他也承認他不只從chatgpt訓練也參照不少,deep seek 也認為自己是chatgpt
: 所以是真有盜竊疑慮,還是業界常識的互相學習使用? 如何定義這部分
各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣
AI = 模型的程式碼+訓練
能開源的部分只有程式碼, 訓練是看各自調教
模型的能力夠, 差不多的調教方式就會得到差不多的結果
訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強
自從OpenAI爆紅以來, 大公司的LLM模型都是遵循OpenAI的訓練方法
預先訓練: 拿大量文本讓AI模型學習基本語言能力、基本知識
監督微調: 有了基本能力之後, 模型開始有推理能力
這時候由人類介入, 告訴模型怎麼想是對的, 怎麼想是錯的
之前所謂的貼標籤, 就是這個階段
獎勵建模: 把對錯的判斷建立模型, AI想對了, 這個模型就獎勵他
強化學習: AI自己跟自己練習
不管是meta還是google, 之前都是照OpenAI這個成功模式做
所以這些公司能做的就是拚算力, 透過更大量的訓練, 希望最終可以暴力超車
但蒸餾就不同, 蒸餾是直接拿另一個模型的推理結果, 讓另一個模型照著得到同樣結果
譬如我要我剛剛問ChatGPT, 要他給舉例說明什麼是擬人法
他的回答是這樣
https://i.imgur.com/ey5mX61.png
ChatGPT要回答這個問題, 中間要經過很多推理, 譬如他要先理解我的問題
這裡面就牽涉到, 他要理解我講的擬人法是修辭當中的擬人法
然後再從這一個理解, 去思考擬人法的意思是甚麼, 最後再想出一個符合範例
蒸餾的話, 就是學生模型已經預先知道這個問題的答案是甚麼
有頭有尾, 要生出中間的推理就會比較容易
但這裡有個問題
你要用蒸餾讓一個模型得到另一個模型類似的能力
通常就是需要老師模型產生極大量的練習後結果
才能傳授畢生功力給學生模型
如果ChatGPT是開源模型, 可以自己部署在自己平台上
要做這樣大規模訓練是有可能
但ChatGPT無法部署在自己平台
(剛剛有人說ChatGPT 2可以, 但蒸餾頂多只能逼近老師, 用ChatGPT 2只能蒸出垃圾)
所以要做蒸餾只能透過API, 而要透過API做幾千萬甚至幾億規模的蒸餾訓練
這難度極高啊....
(ChatGPT剛剛教我另一個方法
就是拿一個原本就有ChatGPT4能力的模型
這樣只要少量訓練, 就能超越ChatGPT 4
但原本就有ChatGPT 4能力的新模型難道自己會生出來嗎XD
你還是得先得到這個模型啊...就是V3
那V3怎麼來?)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.169.68.61 (臺灣)
※ 作者: IBIZA 2025-01-29 23:20:33
※ 文章代碼(AID): #1dcaT31B (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738164035.A.04B.html
※ 同主題文章:
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據
01-29 23:20 IBIZA
推 tangolosss: 支那粉蛆說好的重擊美股呢?? 怎又開始自卑了???????2F 01/29 23:25
→ uv5566: deepseek已經不重要 openai原本商法已經沒用 市場投資都要重新估值
接下來怎麼圈錢才是問題3F 01/29 23:25
推 etset: 學生只要念會考試的範圍就好了6F 01/29 23:27
大規模使用的LLM平台, 會考的範圍就是全部了
→ etset: 題庫就在那裡了7F 01/29 23:27
大規模LLM平台的題庫, 差不多就是全世界所有問題了..
→ good5755: openAI不是說有兩個可疑帳號大量使用API
你ban我算力我直接偷抄答案 很符合對岸的邏輯8F 01/29 23:31
→ IBIZA: LLM沒辦法只抄答案 LLM必須具備推理能力才能應付10F 01/29 23:32
→ IBIZA: 所有問題 只能說 有頭有尾 要生出推理比較容易13F 01/29 23:33
推 sickshadow: 所以蒸餾可以讓學生得到比老師還口語化的結果?14F 01/29 23:33
→ IBIZA: 就像計算題已經知道答案要寫算式 總是比較容易15F 01/29 23:33
→ saisai34: 學生比老師厲害不是很正常嗎 人類社會不就這樣@@a16F 01/29 23:34
→ IBIZA: 蒸餾通常沒辦法比老師厲害
蒸餾就是讓學生模仿老師 逼近老師17F 01/29 23:34
→ saisai34: 如果ai模型 沒辦法做到學生比老師強 那不就廢了@@?19F 01/29 23:35
→ IBIZA: 目前用的蒸餾法沒辦法
目前的蒸餾法會劣化20F 01/29 23:35
推 lovepork: chatgpt 全名generative pre-trained transformer22F 01/29 23:35
噓 liscp: 等等…….股點勒 現在也要把股版蒸餾成柵欄版喔?23F 01/29 23:35
→ IBIZA: 一直蒸下去 會越來越笨24F 01/29 23:35
→ saisai34: 越練越笨 那就不叫ai好嗎 =.=a25F 01/29 23:36
→ lovepork: 我好奇 deepseek也是transformer architecture嗎?26F 01/29 23:36
→ IBIZA: deekseek的呈現方式 沒理由不是transformer
transformer指的是 理解輸入資訊->推理->轉成輸出27F 01/29 23:38
→ IBIZA: 應該這樣 輸入資訊->理解+推理->轉成輸出30F 01/29 23:40
推 Aliensoul: openai裡面有中國的內鬼 外洩機密給中國公司31F 01/29 23:41
→ IBIZA: 中間的理解跟推理 是用數學模型 利用大量文本訓練32F 01/29 23:41
推 Yahweh: deepseek 的 weights 也是公開的阿33F 01/29 23:41
→ IBIZA: 找出自然語言每個片段意義之間的關聯性34F 01/29 23:42
→ linzero: 估狗到有針對一般蒸餾法做改良的,可以用更少的資料達到舊有的蒸餾效果,像google有開發個DistillingStep-by-Step技術35F 01/29 23:42
→ IBIZA: google上面那個"較少資料"是80%耶39F 01/29 23:44
推 lovepork: transformer 其實就是複雜一點的attention model40F 01/29 23:45
※ 編輯: IBIZA (1.169.68.61 臺灣), 01/29/2025 23:48:30
→ linzero: 那所謂80%,照我的閱讀理解,應該不是指相較傳統蒸餾可以減少的工作量,只能看有無專業的能解釋一下吧43F 01/29 23:51
推 lovepork: 我之所以提transformer 是因為它可以做transfer
learning (遷移學習)
等於openai把95% transformer架構做好後 別人用此架構做遷移學習去訓練調教很類似的LLM45F 01/29 23:52
→ IBIZA: transfer learning是直接提取模型的特徵到另一個
模型用 你沒辦法把openai拿出來用49F 01/29 23:57
→ sunpedro0202: r1奠基在v3上,v3是ds自己train的不是?只是站在巨人的肩膀上,以及工程的精進使得成本較低51F 01/29 23:59
→ IBIZA: 每一個模型都是啊53F 01/30 00:00
推 DA3921999: 如果是特定任務的小語言模型要騙騙補助/投資用上面那套確實可行,但像DS這種大的這樣搞可能還更貴54F 01/30 00:01
→ IBIZA: o1 站在4的肩膀上 據說還是花了相當於2億的gpu時間這個不是R1成本較低的原因57F 01/30 00:02
推 KrisNYC: v3蠻難用的 大概就跟others差不多
r1套上去才有點看頭61F 01/30 00:05
推 ksjr: I大圖好像壞掉了?68F 01/30 00:07
→ IBIZA: 是不是有可能? 可能性不是零
我貼的圖好像只能手機看
是不是有可能?用API做蒸餾 可能性不是零
但幾千萬上億次的調用...69F 01/30 00:08
→ jen1121: 遇到一個不講武德的,用暴力式創新75F 01/30 00:11
→ IBIZA: 可能性不為零 只能這麼說
我這邊也是告訴你可能性不為零 但這個規模的調用
難度極高
而且說實在 R1一點也不像模仿o1
對話過就知道了77F 01/30 00:12
→ kinda: 現在最好奇的是,如果真的大外宣為什麼不叫R1寫82F 01/30 00:14
→ saisai34: 大外宣我是覺得不像啦 之前聽都沒聽過 @@a83F 01/30 00:15
→ kinda: 一直沒呼叫過o1,o1的chain of thought也是會條列嗎84F 01/30 00:17
→ newwu: OpenAI 指的是R1嗎 我怎麼覺得指的是v385F 01/30 00:17
→ kinda: 還是跟o1-mini一樣直接生結果?
v3跟4o回答是有點像。但v3真的不強86F 01/30 00:17
→ saisai34: B站搜了一下 ds去年6-7月就有了 沒啥影片@@a89F 01/30 00:19
→ saisai34: 爆紅也是這幾天的事 說大外宣其實蠻怪的 @@a91F 01/30 00:19
→ kinda: 爆紅的是R1 上週1/22才公佈R1論文 DS去年就不強92F 01/30 00:22
→ newwu: 說盜用,也不是指百分百都靠蒸餾,關鍵部分調整方向蠻有可能的93F 01/30 00:23
推 Flyingheart: o1會條列 但是沒DS詳細
DS思考步驟說得很細 O1只會大概說一點95F 01/30 00:27
→ kinda: 我呼叫o1-preview沒條列...o1有鎖api key不給中介價值3塊台幣的o1-preview 回答如下97F 01/30 00:29
推 KrisNYC: 所以你就知道很多人完全沒用過完全是在瞎討論
它們不知道左下角R1沒點下去 就只是在用v3
甚至不知道v3 r1 o1 o3 在說什麼
如果不知道R1跟v3的差別 那討論什麼蒸餾?102F 01/30 00:30
推 ksjr: 照這樣理解以後中國一直抄(蒸餾)就好啦除非美國鎖國106F 01/30 00:33
→ Sianan: 阿所以要限制啊 別人花了大錢訓練的模型給你吃豆腐 以後誰還要花錢訓練107F 01/30 00:36
推 KrisNYC: 是有這樣的意見沒錯 昨天就有人說通用型的會非常捲類似當年搜尋引擎大戰 近乎永遠免費給你用這樣
專用型的ASIC與相關軟體可能會更快實現獲利109F 01/30 00:37
→ ksjr: openAI現在是要收錢的阿 你要叫它們也課個關稅嗎112F 01/30 00:39
推 gowet: 有一說一,openai自己也是搜刮網路上別人的智財當基底訓練的,他好意思說吃豆腐? 第二,訓練花錢也是各個巨頭把毛利擴張到50%以上以近壟斷方式堆出來的,拿證實體公司,毛利給你15-25%,訓練成本會高到哪113F 01/30 00:39
推 fakelie: 可以蒸芝麻包ㄇ?芝麻包豪好粗118F 01/30 00:55
噓 sanos168: 拿別人的蒸餾酒來提煉自己的酒,大概是這概念吧119F 01/30 01:02
推 wahaha99: 剛剛OpenAI說去年下半有超大量API請求啊,
他以此推論的121F 01/30 01:05
推 vi000246: 想也知道怎麼可能靠call api 很貴的123F 01/30 01:07
推 blueballer: 也不需要解釋這麼多,投資就是靠認知的落差賺錢,看好看衰選一台車上,讓時間來決定勝者就是了124F 01/30 01:16
推 davis5566: 所以openai說有call api就知道人家有抄襲?這只有智障青鳥會信126F 01/30 01:27
→ esheep: 以AI 模型來說,公開推理計算方式不是什麼新聞。大部分AI “系統” 比得是前處理功力,要先生出夠有意義的邊境資料,後段訓練才有意義。而訓練資料的清理/篩選的成本,則不一定會被算進所謂的“訓練成本”。至於 針對特定,處理過的資料來源,以另一套系統的推演結果,直接當第二套的來源,在實務上不算罕見,實作上很多跨領域系統都這樣搞。但,學術上一般是不認可這種應用方式就是。
一般是把第一套系統當成前處理,第二套系統的範圍比前套小但針對特定領域更細分的預測系統。整體訓練成本會更低,特定小範圍的結果品質會比的第一套系統好。這種算是特化架構,缺點是:擴張困難。處理的問題,領域數目增加到一個程度,整體效能(結果的品質)會比原系統差...128F 01/30 01:38
→ dingading: 讚耶 拿openAI來開源 叫蒸餾 簡直是改包裝加12道功法143F 01/30 03:53
噓 ketter: 不會去科技版討論?145F 01/30 05:11
--