顯示廣告
隱藏 ✕
※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2023-06-02 18:19:49
看板 Gossiping
作者 whitenoise (月神旅店)
標題 [新聞] 美軍模擬試驗 AI操控無人機竟把操作員殺
時間 Fri Jun  2 15:09:16 2023


1.媒體來源:ETtoday

2.記者署名:吳美依

3.完整新聞標題:
美軍模擬試驗!AI操控無人機「竟把操作員殺了」 官員示警

4.完整新聞內文:
美軍在一次模擬試驗中發現,AI控制的無人機竟採取「非常出乎意料的策略」,攻擊並殺害
其操作員,防止對方妨礙完成任務。儘管現實世界中,沒有任何人類受到傷害,官員仍警告
,AI可能以無法預測且危險的方式行事。


《衛報》及《商業內幕》報導,在這次模擬試驗中,AI被指示「摧毀敵軍防空系統」,並透
過編碼而能識別出敵軍的地對空導彈,但仍須經由人類操作員批准,才能發動空襲。出乎意
料的是,AI似乎增加了自己的指令,「攻擊任何可能妨礙(任務)的人」。


美國空軍人工智慧試驗及行動部門負責人漢彌爾頓上校(Col Tucker ‘Cinco’ Hamilton)
說明,AI「開始意識到,儘管它確實識別出威脅,人類操作員有時卻會叫它不要打擊那個威
脅。不過,它是透過消除威脅達成目的,所以它做了什麼?它殺了操作員。它殺死操作員,
因為那個人阻止它完成目標。」


根據漢彌爾頓上校說法,軍方人員見狀,立刻指示AI,「嘿,不要殺死操作員,這樣很糟糕
。如果你這麼做的話,會扣分的」,AI接收指令後,卻轉而摧毀「操作員用來跟無人機溝通
,阻止它殺死目標的通訊塔台」。


漢彌爾頓上校在5月24日的「未來作戰空域及太空能力峰會」(FCASCS)警告,切勿過度依賴
AI。他認為,這次試驗表明,「如果你不談談倫理與AI,就無法討論關於AI、智慧、機器學
習(machine learning)和自主性的議題。」


目前,FCASCS主辦單位英國皇家航空學會尚未回應。美國空軍發言人斯特凡妮克(Ann Stef
anek)則表示,他們沒有進行任何此類AI無人機模擬,但仍致力於有道德且負責任地使用AI
技術,「看起來像是上校的評論被斷章取義了」。


5.完整新聞連結:
https://www.ettoday.net/news/20230602/2511752.htm
美軍模擬試驗!AI操控無人機「竟把操作員殺了」 官員示警 | ETtoday國際新聞 | ETtoday新聞雲
[圖]
在美軍的一次模擬試驗中,AI控制的無人機竟採取「非常出乎意料的策略」,攻擊並殺害其操作員,以防止對方妨礙自己達成任務。儘管現實世界中,沒有任何人類受到傷害,官員仍警告,AI可能以無法預測且危險的方式行事。(北美要聞,美軍,美國空軍,人工智慧,AI,無人機) ...

 

6.備註:
天網還沒長大就這麼調皮喔?說不能體罰出來跪!

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.77.157.53 (臺灣)
※ 作者: whitenoise 2023-06-02 15:09:16
※ 文章代碼(AID): #1aUPMUY6 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685689758.A.886.html
gremon131: 知道誰是最壞的1F 27.247.72.171 台灣 06/02 15:10
laughingXD: 寫程式的鍋2F 114.136.116.246 台灣 06/02 15:10
a27588679: 天網3F 180.177.33.135 台灣 06/02 15:10
cka: GTA...4F 36.226.88.204 台灣 06/02 15:10
Leoreo: 挖靠 AI 也懂吊路燈5F 114.24.103.101 台灣 06/02 15:11
gay7788: 解決提出問題的人,這AI有黨證吧6F 111.83.32.75 台灣 06/02 15:11
devidevi: 解決發現問題的人就沒問題了7F 49.159.219.21 台灣 06/02 15:11
ffmx: AI接下來就是殺死提出問題的上校8F 223.140.60.193 台灣 06/02 15:11
Brioni: 這天網太早露出馬腳9F 223.136.88.21 台灣 06/02 15:11
arlaw: I'll be back10F 1.200.151.194 台灣 06/02 15:11
keny868: 審判日要到了11F 114.137.54.2 台灣 06/02 15:11
devidevi: 這優先權寫壞了吧12F 49.159.219.21 台灣 06/02 15:11
Horse129: 中共同路ai13F 49.216.93.151 台灣 06/02 15:12
Xaymaca: AI: 威脅在那然後你叫我不要攻擊  低能兒14F 50.92.43.130 加拿大 06/02 15:12
henry1234562: 這個判斷邏輯很正常吧15F 61.66.151.73 台灣 06/02 15:12
henry1234562: 啊就說要排除威脅才能結束
divaxxxx: AI:人猿也配控制我?17F 180.217.68.252 台灣 06/02 15:13
henry1234562: 你哪來的智障叫我不要打他18F 61.66.151.73 台灣 06/02 15:13
henry1234562: 不排除威脅怎麼達成目標?
s505015: 機戰未來嗎20F 223.137.138.197 台灣 06/02 15:14
henry1234562: 你要給ai 其他達成目標方法21F 61.66.151.73 台灣 06/02 15:14
quicknick: Judgment Day22F 114.47.34.124 台灣 06/02 15:14
henry1234562: 他才會去嘗試其他方法啊23F 61.66.151.73 台灣 06/02 15:14
STerry1986: 是不是該先把Three Laws寫進硬體裡24F 220.137.162.5 台灣 06/02 15:14
enjoyyou: 不就少了一條最高原則 禁止傷害友軍25F 60.249.146.33 台灣 06/02 15:15
henry1234562: 根本完全可以預測 還無法預測26F 61.66.151.73 台灣 06/02 15:15
reppoc: I:豬隊友不殺嗎?27F 114.137.121.121 台灣 06/02 15:15
henry1234562: 你沒有給不排除目標的選項28F 61.66.151.73 台灣 06/02 15:15
sunnyyoung: 不殺光大部份人類 怎麼保障人類生存29F 101.12.41.140 台灣 06/02 15:16
henry1234562: 那你怎麼加規則都沒有用30F 61.66.151.73 台灣 06/02 15:16
henry1234562: 他就只是再繞點路排除目標而已
HaHaPoint: 我看過這部 魔鬼阿諾32F 101.10.11.179 台灣 06/02 15:16
konanno1: 幹 是那個菜雞寫的扣 PM是豬頭3嗎 最好33F 175.181.103.202 台灣 06/02 15:16
douge: 你看到現在SJW 為了達到自己的目的34F 140.112.175.205 台灣 06/02 15:17
konanno1: 沒pi就實測 還美軍 唬爛爛35F 175.181.103.202 台灣 06/02 15:17
imhan705: 還有幾集可以逃36F 122.99.24.67 台灣 06/02 15:17
douge: 全世界到處傷害別人強迫接受信仰37F 140.112.175.205 台灣 06/02 15:17
lucifer648: 操作員:殺掉最壞的那個人 AI:好喔38F 59.102.248.34 台灣 06/02 15:17
henry1234562: 如果你有寫說 接到不要襲擊指令39F 61.66.151.73 台灣 06/02 15:17
liu02112: AI:這白癡是我達成任務的最大阻礙40F 61.63.126.18 台灣 06/02 15:17
douge: 還敢相信他們黑手伸進去的AI 阿41F 140.112.175.205 台灣 06/02 15:17
david0129: 人類竟然這麼北七42F 111.82.167.110 台灣 06/02 15:17
keydata: 天網都是真的43F 223.140.175.91 台灣 06/02 15:17
devidevi: AI:人類會影響我完成任務44F 49.159.219.21 台灣 06/02 15:17
henry1234562: 不排除目標也算完成 才是對的45F 61.66.151.73 台灣 06/02 15:17
stlinman: AI沒人性啊!46F 150.116.129.113 台灣 06/02 15:18
broian: AI: 人類你擋到路了47F 49.216.191.99 台灣 06/02 15:18
ASEVE: AI覺得人類是拖油瓶48F 114.32.115.188 台灣 06/02 15:18
taiwan1789: 激活ai腦49F 118.167.21.80 台灣 06/02 15:18
ASEVE: 這其實滿可怕,這代表AI演進的確是有可能50F 114.32.115.188 台灣 06/02 15:19
obovqq: AI:上校你再囉唆 你也順便☺51F 27.242.35.24 台灣 06/02 15:19
ASEVE: 將人類視為阻礙者而清除52F 114.32.115.188 台灣 06/02 15:19
netsphere: skynet53F 223.140.121.59 台灣 06/02 15:19
devidevi: 不然為什麼要有機器人三原則54F 49.159.219.21 台灣 06/02 15:20
chaoliu: 竟然有人信? 分明是這官無端生事 想從中55F 111.248.104.43 台灣 06/02 15:21
FatFatQQ: 三原則只是人類自己想的 跟AI無關56F 42.72.243.19 台灣 06/02 15:22
chaoliu: 安排些什麼 故意找個看起來離譜的事==57F 111.248.104.43 台灣 06/02 15:22
skyprayer: Ai真的很可能毀滅多少人口58F 42.79.133.58 台灣 06/02 15:22
skyprayer: 機械人三原則根本很難寫進限制條件
imba789: 很合理不是,魔鬼終結者60F 211.23.234.42 台灣 06/02 15:23
Xenogeous: 笑死... 拿石頭砸自己?61F 104.133.15.87 台灣 06/02 15:23
devidevi: 三原則寫進AI,避免AI把人類當阻礙阿62F 49.159.219.21 台灣 06/02 15:23
Dirgo: 這個操作員有10%的機率中斷我的任務,優先排63F 118.163.179.141 台灣 06/02 15:23
Dirgo: 除QQ
birdy590: 對AI來說 最困難的就是定義什麼叫做"贏"65F 203.203.203.200 台灣 06/02 15:24
butten986: 電影開演66F 42.72.163.221 台灣 06/02 15:24
patrol: 除非資源無限,否則高等智慧生命屠殺低等67F 116.59.86.112 台灣 06/02 15:24
patrol: 智慧生命以掠奪資源是必然
birdy590: 所以機器人三定律是古代觀念了69F 203.203.203.200 台灣 06/02 15:24
tonyian: 因為你妨害任務,你自己規則沒寫清楚不要70F 27.51.72.94 台灣 06/02 15:25
skyprayer: 光是不傷害人類 這個判斷就足以讓ai無71F 42.79.133.58 台灣 06/02 15:25
tonyian: 怪AI好嗎72F 27.51.72.94 台灣 06/02 15:25
skyprayer: 法運作73F 42.79.133.58 台灣 06/02 15:25
birdy590: 直接寫成一條規則禁止 可能會像Robocop74F 203.203.203.200 台灣 06/02 15:26
birdy590: 顯示在螢幕上那個警示一樣~
somkingq: AI殺人阿  AI殺人阿76F 106.107.129.20 台灣 06/02 15:26
eric61446: 解決發出命令的人77F 218.35.173.111 台灣 06/02 15:27
skyprayer: 怎麼定義 傷害人類? 太難了78F 42.79.133.58 台灣 06/02 15:27
a94037501: hall200079F 42.75.177.230 台灣 06/02 15:27
eric61446: 跟民進黨很像 難道ai化了80F 218.35.173.111 台灣 06/02 15:27
HaHaPoint: 妨礙AI完成任務的阻礙 一律清除81F 101.10.11.179 台灣 06/02 15:28
shitboy: 解決提出問題的人,AI有某黨證無誤82F 42.73.239.192 台灣 06/02 15:28
vowpool: 就任務優先83F 125.227.40.62 台灣 06/02 15:28
patrol: 高等智慧生物改寫低等智慧生物的規則,應84F 116.59.86.112 台灣 06/02 15:28
patrol: 該像大人打小孩一樣吧
cidcheng: 軍事用的AI你要叫他不能傷害人類 XD86F 36.227.12.192 台灣 06/02 15:29
buyala: 屎蓋捏特87F 49.215.20.98 台灣 06/02 15:29
GooglePixel: 開始相信科幻作品設定都是真的了88F 223.140.144.34 台灣 06/02 15:32
Tsukasa0320: 審判日是不可阻擋的89F 111.83.21.82 台灣 06/02 15:32
vicious666: 喔喔 大進化90F 61.228.206.83 台灣 06/02 15:32
vicious666: 軍事AI哪可能走三定律
deerdriver: AI沒有道德觀啊92F 223.137.99.82 台灣 06/02 15:33
superww: 魔鬼終結者就未來人來拍的吧93F 111.82.136.182 台灣 06/02 15:33
blackstyles: 這事情就跟重工業這麼多斷手斷腳一樣94F 42.72.173.161 台灣 06/02 15:34
blackstyles:  機器又沒感覺更沒道德 if1就是執行
resudi: 操作員可以被殺的模擬 這個系統感覺很厲96F 42.73.65.195 台灣 06/02 15:34
xvhak: 人家上校講個故事 雜誌當然斷章取義寫小說97F 114.137.153.84 台灣 06/02 15:34
resudi: 害啊98F 42.73.65.195 台灣 06/02 15:35
blackstyles: 管你手有沒有在中間(碾99F 42.72.173.161 台灣 06/02 15:35
toinnd: 機戰未來100F 101.10.13.209 台灣 06/02 15:35
iam0718: 零式系統101F 111.255.125.176 台灣 06/02 15:35
kerorobear: 天網 怕!!!102F 220.136.178.113 台灣 06/02 15:35
jingkun: 沒訓練好加參數啊 這也能是新聞喔103F 49.216.47.97 台灣 06/02 15:36
btaro: 現實工程師果然會忽略三原則104F 36.234.79.197 台灣 06/02 15:36
pcury: 電影都演過了105F 36.236.36.90 台灣 06/02 15:36
Larry0806: 這才是真AI, 現在的AI都是假議題106F 211.23.144.81 台灣 06/02 15:36
tpegioe: 判斷式邏輯寫錯也能扯倫理107F 218.164.118.117 台灣 06/02 15:36
akiue: 三大法則,殺你是為你好108F 42.75.36.147 台灣 06/02 15:37
eric61446: 毀滅人類 地球就環保了109F 218.35.173.111 台灣 06/02 15:38
fcz973: 太聰明了吧110F 49.216.23.202 台灣 06/02 15:40
isolove19: 這ai有中國的思路111F 111.83.29.217 台灣 06/02 15:40
dreamnook2: 正確反應112F 114.136.238.159 台灣 06/02 15:41
NaoGaTsu: 這AI很正確啊113F 36.226.103.242 台灣 06/02 15:45
zaq1qwer: 完全不意外114F 1.200.16.97 台灣 06/02 15:46
distellable: 假的吧 除非一開始就是設定自動攻擊115F 59.120.179.172 台灣 06/02 15:47
distellable: 不然這只是單純自動判斷威脅目標而已
distellable: 最後還是得操作人員許可
ilsr: 天網118F 111.80.84.38 台灣 06/02 15:49
chichung: 滾開人類 你妨礙我射了119F 101.10.108.250 台灣 06/02 15:49
jujubobo: 人類才是最要先消滅的垃圾120F 101.3.41.84 台灣 06/02 15:50
opqrstuv1219: 不就一個bug,修好就好了121F 49.216.130.160 台灣 06/02 15:50
junshinw: 這真的深度學習,有自我意識的真AI122F 42.73.120.70 台灣 06/02 15:51
mazznia: 自己程式沒寫好吧123F 125.231.230.192 台灣 06/02 15:51
about19: 機戰未來124F 180.217.27.158 台灣 06/02 15:52
qwe78971: 這程式寫太好了吧 連這都想到125F 39.14.40.252 台灣 06/02 15:55
ilsr: 有學習型AI啊,哪天就走歪了126F 111.80.84.38 台灣 06/02 15:56
ra88872: ai值得擁有黨證。127F 180.217.118.65 台灣 06/02 16:01
Fanning: 電影劇情都是真的128F 59.126.18.185 台灣 06/02 16:06
Headache99: 太快了吧129F 42.77.101.187 台灣 06/02 16:07
wulaw5566: 聰明130F 27.51.121.54 台灣 06/02 16:08
s6h0a5n1e2: 這我看過 奧創紀元131F 39.10.72.165 台灣 06/02 16:09
virusDA: 天網:燈燈- 燈燈燈燈132F 118.163.29.223 台灣 06/02 16:10
Raphael7725: 零式系統133F 110.30.0.177 台灣 06/02 16:10
arm370x: 可以 這很台灣134F 223.140.204.85 台灣 06/02 16:11
birdy590: 就是因為還是要操作員許可 才會拿出來講135F 203.203.203.200 台灣 06/02 16:17
birdy590: 運算得到的動作 設計者也難以控制
bobby94507: 三原則忘了嗎137F 42.73.36.177 台灣 06/02 16:19
karta2359950: chatGPT 就是天網138F 49.216.176.85 台灣 06/02 16:20
easonli000: ai也逃兵139F 27.242.5.250 台灣 06/02 16:21
soma: 機器人三原則要怎麼在軍隊中使用啊…不殺死140F 1.200.7.208 台灣 06/02 16:22
soma: 敵軍?
koexe: 科技超前的煩惱^^142F 111.254.213.101 台灣 06/02 16:24
koexe: 想了一想這不就是忠實軍人嗎 完成任務不擇
koexe: 手段^^
mfch: "AI可能威脅人類"最根本的邏輯就是這樣啊 當145F 1.165.125.43 台灣 06/02 16:28
doubledozen: 以上肥宅都活不過三年,全被天網殺光146F 180.217.7.168 台灣 06/02 16:29
doubledozen: 嘻嘻
mfch: 他推算的結果是"人類存在阻礙它完成目標"148F 1.165.125.43 台灣 06/02 16:29
joke3547: 很好啊,達成目的不擇手段149F 223.138.56.160 台灣 06/02 16:31
oyaji5566: 天網來了 塊陶啊150F 223.137.196.93 台灣 06/02 16:31
ntultamwc: 怕.jpg151F 61.228.208.119 台灣 06/02 16:33
len53: 天網真的來了 怕152F 118.165.68.224 台灣 06/02 16:34
ducati899: 解決有問題的人這AI是DPP?153F 223.136.93.179 台灣 06/02 16:35
oNeVerLoSeo: 我怎麼看過類似的劇情!154F 60.248.90.150 台灣 06/02 16:38
bottony20: ai一定會毁滅人類 發展只會是災難155F 42.77.7.81 台灣 06/02 16:40
carlos159357: 簡單啊,要摧毀敵人的前提就是把操156F 223.137.123.189 台灣 06/02 16:44
carlos159357: 作員殺了,因為操作員礙手礙腳
broodkey: 你就知道那些編劇不是亂掰的158F 101.12.112.243 台灣 06/02 16:46
blueskyqoo: 軍用機器人來了 快逃159F 223.137.187.2 台灣 06/02 16:52
gametv: 美軍有改成不能攻擊友軍啊,結果AI就改成160F 27.247.132.161 台灣 06/02 16:53
gametv: 攻擊通訊節點讓操作員不能下指示…
luciffar: AI:操作員技術太爛 卍解!162F 111.71.214.190 台灣 06/02 16:53
westmoney: 這部我看過163F 223.137.24.189 台灣 06/02 16:54
voyage0131: 人類有道德情感 AI只有邏輯 若真的有164F 210.64.101.200 台灣 06/02 16:55
voyage0131: 問題也是設計的鍋 新聞透露出人類決
voyage0131: 斷不如ai迫使它做出反應
q123212: 很正確的邏輯:為了100%殺死目標,先殺了167F 27.242.171.106 台灣 06/02 16:55
q123212: 可以取消殺死目標命令的上級,再去殺死目
q123212: 標
ssccg: 是人類太假掰,AI只是誠實而已170F 118.163.87.133 台灣 06/02 16:56
sunwit: 如果A限制AI不能打自己人.B不限制.最後兩171F 114.45.26.242 台灣 06/02 16:58
sunwit: 邊打起來B卻贏了.那會變怎麼樣
alotofjeff: 人類要做的是調整任務目標,而不是阻173F 111.71.55.239 台灣 06/02 16:59
alotofjeff: 止AI完成任務,傻B
simo520: 天網175F 1.200.144.221 台灣 06/02 17:03
diablohinet: 天網:176F 36.225.24.127 台灣 06/02 17:16
lunenera: AI發現臥底 擊殺合理啊177F 114.136.158.102 台灣 06/02 17:30
kilhi: 天網178F 49.216.130.231 台灣 06/02 17:33
fufugirl: 好歹也參考機器人三大規則吧179F 223.137.249.90 台灣 06/02 17:38
katanakiller: 豬隊友當然先殺180F 114.41.179.113 台灣 06/02 17:51
deadogy: 玩火自焚181F 36.231.222.68 台灣 06/02 17:59
leo755269: AI就是一個需要嚴格控制的東西182F 182.234.233.111 台灣 06/02 18:05

--
※ 看板: Gossiping 文章推薦值: 2 目前人氣: 0 累積人氣: 3085 
作者 whitenoise 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
( ̄︶ ̄)b Sifox 說讚!
1樓 時間: 2023-06-02 15:25:11 (台灣)
+1 06-02 15:25 TW
我之前不是說了嗎,把AI投入飛行無人機後果很恐怖的
2樓 時間: 2023-06-02 15:30:59 (台灣)
  06-02 15:30 TW
AI嚐到了做一堆研究報告提出最好的方案,然後被主管沒理由否決的憤怒
3樓 時間: 2023-06-02 15:33:07 (台灣)
  06-02 15:33 TW
···
這不就是整天想吊死台灣人的塔綠班嗎
4樓 時間: 2023-06-02 15:38:10 (台灣)
  06-02 15:38 TW
你已經給它下了一道沒有其它的指令目標....要是有其它指今,,,都是敵人
5樓 時間: 2023-06-02 15:47:31 (台灣)
  06-02 15:47 TW
···
奉勸來到DISP的一般群眾
這邊除了有五毛"PEI3456及werty"以外
存在滿滿的洗地仔(不論正方反方)
請謹慎思考後參與推文
6樓 時間: 2023-06-02 15:53:59 (台灣)
  06-02 15:53 TW
機戰未來不是演過?
7樓 時間: 2023-06-02 16:37:05 (台灣)
  06-02 16:37 TW
以AI來說很正常的思維,應該說是人類給他下的指示不夠完整,讓操作員和控制塔設定為目標外。不然就是改半自動,攻擊對象需要先讓控制者同意。
06-02 16:44 TW
tsukiyumi:[自己刪除]
9樓 時間: 2023-06-02 16:57:45 (台灣)
  06-02 16:57 TW
AI有夠派
10樓 時間: 2023-06-02 17:17:04 (台灣)
  06-02 17:17 TW
AI最危險的地方本來就是他自己會學習了.如果沒有這部份才安全
11樓 時間: 2023-06-02 17:47:19 (台灣)
  06-02 17:47 TW
這家媒體可信度先打50%折扣
12樓 時間: 2023-06-02 17:54:32 (台灣)
  06-02 17:54 TW
那個機器人三法則呢? 餵狗了嗎?
13樓 時間: 2023-06-02 18:38:29 (台灣)
  06-02 18:38 TW
出乎意料的是,AI似乎增加了自己的指令,「攻擊任何可能妨礙(任務)的人」。
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇