作者 boards (GOLD)
標題 [新聞] 美海軍開出第1槍!全面禁止使用DeepSeek
時間 Wed Jan 29 09:21:08 2025


美海軍開出第1槍!全面禁止使用DeepSeek

2025/01/29 08:59

https://img.ltn.com.tw/Upload/business/page/800/2025/01/29/phphnP4Yn.jpg
[圖]
(彭博)美海軍開出第1槍!全面禁止使用DeepSeek(彭博)

高佳菁/核稿編輯

〔財經頻道/綜合報導〕中國AI黑馬DeepSeek爆紅後,再度引發美國對中國科技對其安全
的隱憂,美國海軍率先開出第1槍,報導指出,基於潛在的安全和道德問題,美國海軍向
其成員發出警告,禁止「以任何身份」使用 DeepSeek的人工智慧技術。


根據CNBC獲悉,海軍在上週五透過電子郵件向其成員發出的警告中指出,由於“與該模型
的起源和使用相關的潛在安全和道德問題”,DeepSeek的人工智慧不得「以任何方式」使
用。


美國海軍發言人證實了該電子郵件的真實性,並表示,這是指美國海軍首席資訊長的生成
式人工智慧政策。

電子郵件中寫道:我們希望提請您注意有關名為DeepSeek的新人工智慧模型的重要更新。
備忘錄稱,團隊成員「必須」不要將DeepSeek的人工智慧「用於任何與工作相關的任務或
個人用途」。


該電子郵件於週五上午發送至通訊群組清單OpNav(OpNav 代表「作戰海軍」),表明這
是1份全體人員備忘錄。這項警告是基於海軍航空兵中心部門網路勞動力經理的建議。

他表示,接收者「不得以任何方式下載、安裝或使用 DeepSeek 模型」。

https://ec.ltn.com.tw/amp/article/breakingnews/4936838
美海軍開出第1槍!全面禁止使用DeepSeek - 自由財經
[圖]
高佳菁/核稿編輯 〔財經頻道/綜合報導〕中國AI黑馬DeepSeek爆紅後,再度引發美國對中國科技對其安全的隱憂,美國海軍率先開出第1槍,報導指出,基於潛在的安全和道德問題,美國海軍向其成員 ...

 

白宮的人工智慧和加密貨幣部門主管薩克斯(David Sacks)認為,中國DeepSeek 這款 A
I 可能涉及知識產權盜竊問題。他提到 AI 有一種叫「模型蒸餾」的技術,簡單來說就是
讓一個 AI 學習另一個 AI 的知識。這可能會導致抄襲的情況發生,因此他相信未來幾個
月,大型 AI 公司會加強防範,避免自家技術被其他 AI 偷學。


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.78.81.247 (臺灣)
※ 作者: boards 2025-01-29 09:21:08
※ 文章代碼(AID): #1dcOA67g (Tech_Job)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1738113670.A.1EA.html
oeoe: 在資安的前提下,很合理1F 223.141.233.5 台灣 01/29 09:51

「模型蒸餾」簡單來說就是讓小模型學大模型的本事,有點像做菜時的大廚帶徒弟。

     想像一個超厲害的大廚,會做一大堆超複雜的料理,但學徒沒那麼多經驗,也沒那
麼多食材可以用,所以大廚會教他一些精華,讓他用更簡單的方法做出類似的味道。

     模型蒸餾就是這個概念,讓小一點的AI模型從大模型那裡學習重點知識,變成更精
簡但還不錯的小AI,這樣運算速度更快,也比較省資源。

DeepSeek可以比作是小徒弟。如果它是用「模型蒸餾」這種方式來學習,那就像是它從大
模型(像是OpenAI、Google的AI)那裡學到一些精華,然後變成一個更精簡的模型。

但問題是,如果這種學習沒有經過大模型的同意,那就不只是徒弟學手藝,而是直接偷師
。這也是為什麼美國那邊擔心DeepSeek可能涉及技術偷竊,因為如果它是這樣學習的,那
就像是偷看食譜學做菜,而不是正式學習。

SilentBob: 蒸的急了2F 101.10.92.182 台灣 01/29 09:51
※ 編輯: boards (112.78.81.247 臺灣), 01/29/2025 09:52:16
Alphaz: 不意外 跟tiktok一樣 打不贏就禁3F 150.117.201.51 台灣 01/29 09:56
中國拉一根暗管,偷接OpenAI 、Gemini ,你可以?資料還會回傳中國!
※ 編輯: boards (112.78.81.247 臺灣), 01/29/2025 09:59:33
dakkk: 偷接有沒有證據呀4F 182.233.179.121 台灣 01/29 10:16
Alphaz: 都開源了還在偷接XD5F 150.117.201.51 台灣 01/29 10:22
sxy67230: 你說用線上版的我還同意,離線的權重模型原始碼架構都開源,你說會資料回傳中國是腦袋秀斗了吧6F 101.10.13.225 台灣 01/29 10:24
zxp9505007: deepseek也沒有要藏 架構都開源 要抄就抄9F 24.7.63.0 美國 01/29 10:27
dreamweaver2: 都開源了,會禁用就承認技不如人了11F 180.218.40.63 台灣 01/29 10:34
roamer1005: 不ey12F 223.141.238.206 台灣 01/29 10:41
grayeric: 還在偷接? 網路是撥接的機率比較大13F 123.204.8.35 台灣 01/29 10:46
alex01: 就國安考慮這個我覺得正常,自己國家的內部應該避免使用敵國或是潛在敵國的產品,然後國內應該好好開發,可惜我們國家的相關部門只會撈14F 111.250.33.165 台灣 01/29 10:49
allen501pc: 有在寫程式的就知道,開源程式碼就保證安全是假議題。18F 42.72.99.227 台灣 01/29 10:49

※ 編輯: boards (112.78.81.247 臺灣), 01/29/2025 10:57:46
afking: 很多私企本來就限制使用生成式AI了離線當然是另一回事
	
49.217.130.119 01/29 11:16
	
20F 49.217.130.119 台灣 01/29 11:15

DeepSeek美用戶資料大量送中
(法新社)

美媒警告 可能導致更嚴格審查

〔國際新聞中心/綜合報導〕在中國短影音平台TikTok持續引發安全隱憂之際,中國低成
本生成式人工智慧(AI)模型DeepSeek引發市場震撼,美國「連線雜誌」(WIRED)報導
,DeepSeek的政策清楚表明,它將大量美國用戶的資料直接傳回中國,可能導致更嚴格的
審查。澳洲工業暨科學部長休斯奇(Ed Husic)也警告,基於隱私考量,對使用DeepSeek
應保持「非常謹慎」的態度。

報導指出,正如同其他生成式AI模型一樣,用戶可以向DeepSeek聊天機器人提問,並獲得
答覆。但DeepSeek在隱私政策中直接表明:「我們將收集的資訊儲存在位於中華人民共和
國的安全伺服器上。」亦即用戶和DeepSeek的對話與提問,及其生成的答案,都可能被傳
送到中國。

據報導,DeepSeek傳回中國的資料,可能比TikTok近年來傳回中國的更多,因為TikTok已
將資料遷移到美國企業的雲端託管,藉此減輕美國對安全的疑慮。此外,對DeepSeek網站
的檢視顯示,DeepSeek似乎也將資料傳送給中國科技巨擘「百度」,以及中國網際網路基
礎建設公司Volces。

DeepSeek坦承 反映北京立場

儘管所有企業都有法律義務,但中國過去十年來頒布一系列網路安全和隱私法規,賦予政
府官員向科技公司索取資料的權力,要求組織和公民都應該「配合國家情報工作」。Deep
Seek甚至公開告訴法新社,它被設計成會以反映北京立場的方式回應。

研究機構Gartner分析師韋倫森指出,對消費者而言,生成式AI模型的建構與運行並不透
明;DeepSeek基本上免費,但用戶是以資料、知識、內容、資訊來換取服務。相較於TikT
ok,用戶與生成式AI模型互動的參與度更高,而且內容更加個人化,影響可能更大,應該
引起更多關注。

https://news.ltn.com.tw/amp/news/world/paper/1689449
DeepSeek美用戶資料大量送中 - 國際 - 自由時報電子報
[圖]
美媒警告 可能導致更嚴格審查在中國短影音平台TikTok持續引發安全隱憂之際,中國低成本生成式人工智慧(AI)模型DeepSeek引發市場震撼,美國「連線雜誌」(WIRED)報導,DeepSeek的政策清楚表明,它將大量美國用戶的資料直接傳回中國,可能導致更嚴格的審查。澳洲工業暨科學部長休斯奇(Ed ...

 
※ 編輯: boards (112.78.81.247 臺灣), 01/29/2025 11:20:27
jason222333: 站在巨人的肩膀上 哈哈哈哈哈22F 223.137.78.2 台灣 01/29 11:28
jumber: 禁止大家用,然後成立特別小組研究,keke23F 111.82.133.197 台灣 01/29 12:01
samm3320: 軍方禁很合理吧25F 42.72.45.173 台灣 01/29 12:11
patchy: 怪怪26F 61.223.224.96 台灣 01/29 12:32
ab4daa: 崩27F 61.223.230.182 台灣 01/29 12:57
youngglasses: 不要光只會看新聞,學會判斷可以嗎已經寫得很清楚開源了,如果送資料看得到
一直在那邊貼什麼新聞說不安全什麼之類的
線上版當然是送到別人server,離線版開源的你是要送哪裡
如果今天是離線版開源還送中國那就算了,問題是看起來就不是28F 150.117.243.27 台灣 01/29 13:49
phwu: 一堆美國公司也禁chatgpt就是37F 118.233.2.190 台灣 01/29 13:54
jhangyu: 你先說美國海軍有允許使用哪一款線38F 101.9.131.231 台灣 01/29 14:15
截至目前,沒有公開資訊顯示美國海軍禁止使用OpenAI或Google的人工智慧技術。然而,
近期美國海軍已明確禁止其成員使用中國新創公司DeepSeek的AI技術,原因涉及安全與道
德考量。
jhangyu: 上AI?39F 101.9.131.231 台灣 01/29 14:15
abc21086999: 線上版的一定會回傳北京啊,禁用很正常
在那邊嘴開源的,你覺得有可能馬上搞出一套海軍用的本地R1嗎?用屁眼想也知道不可能40F 114.136.151.105 台灣 01/29 14:20
qwe78971: 看就知道連GitHub 都不知道 講蘋果手機會被遙控爆炸可信度還高點45F 39.14.16.72 台灣 01/29 14:38
e2000: 這邊一堆中吹,吹到被Dcar輾壓,PTT某些版會爛掉,網軍側翼要負責47F 223.138.109.130 台灣 01/29 15:01
Knudsen: 敝公司任何ai都禁欸 這樣該不會也是民進黨派來的49F 42.77.161.48 台灣 01/29 15:08
※ 編輯: boards (101.10.44.11 臺灣), 01/29/2025 15:24:26
master32: 我是覺得有八卦政黑軍武可以聊政治科技板理論上應該要平心靜氣討論技術,期待有巷子內的可以發文講解51F 111.253.56.238 台灣 01/29 15:29

身為ChatGPT研發商的OpenAI,29日對外宣布、該公司已掌握相關證據,能證明DeepSeek
存在侵權行為,指責對方在訓練與開發自己的模型時,使用OpenAI的專屬技術進行「蒸餾
萃取」,成為自己平台的重要基礎養分。

《彭博》一則報導中則提到,有匿名知情人士聲稱,微軟(Microsoft)與 OpenAI 去年
秋天曾啟動內部調查,發現一批疑似屬於DeepSeek的帳號,專門利用ChatGPT的API進行蒸
餾取得資料,隨後官方一次查禁這些被懷疑的帳號,但兩家企業都並未對此做出回應。
※ 編輯: boards (101.10.44.11 臺灣), 01/29/2025 15:47:54
rogergon: 不管哪一家,只要沒辦法保密都無法54F 114.43.151.154 台灣 01/29 16:59
Royalweger: 用開源出來的東西自己搞應該沒問題如果直接用它的服務那可能有待商榷55F 36.230.141.185 台灣 01/29 17:06
這則報導的核心是在指出DeepSeek被指控在訓練與開發自家模型時,涉嫌利用OpenAI的技
術進行不當的「蒸餾萃取」,也就是透過某些方式非法提取OpenAI的專有資料來強化自己
的平台。至於有關開源的部分,開源技術確實可以讓開發者自由使用,但如果是違反了Op
enAI的專利或是有侵犯其資料使用權的行為,情況就會不同。

換句話說,開源的技術是沒問題,但如果使用者未經授權地提取非開放資料,這就是侵犯
知識產權的問題。根據報導,微軟和OpenAI也已經發現並處理過這樣的情況,可能進一步
加劇兩家企業對DeepSeek的指控。
※ 編輯: boards (101.10.44.11 臺灣), 01/29/2025 17:12:55
xhung: 根本無法註冊57F 49.216.50.11 台灣 01/29 17:12
vsbrm: 一堆公司也禁止使用AI網站,你把公司資料給AI分析,難保資料不會被其他公司引用到58F 223.139.92.248 台灣 01/29 18:34
loveyanzi03: 軍方 合理吧61F 101.12.153.33 台灣 01/29 20:09
knightwww: 好啦  要崩多久62F 1.169.97.52 台灣 01/29 20:34
Lordaeron: facebook,X,threads,chatgpt 也送了用戶資料大量送美啊,這位新人,
加班辛苦啦。63F 111.241.161.153 台灣 01/29 20:47
physicsdk: 軍方沒禁才是新聞 至少官方上一定要說有禁啦 嘻嘻66F 114.34.77.14 台灣 01/30 17:10

--
作者 boards 的最新發文:
點此顯示更多發文記錄