顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2024-04-01 16:00:58
看板 C_Chat
作者 Sinreigensou (神靈幻想)
標題 [新聞] OpenAI認了「人聲複製新工具」太危險 
時間 Mon Apr  1 14:53:47 2024


OpenAI認了「人聲複製新工具」太危險 不宜全面開放

美國人工智慧開發公司OpenAI於3月29日公布語音AI工具「Voice Engine」,只需要短短15
秒的說話聲音樣本,就能複製出此人聲音。不過,該公司也認定這項語音複製工具風險太大
,不適合全面發布。


「Voice Engine」於2022年首次研發,初始版本被使用在ChatGPT內建文字轉語音功能。其
生成結果不受聲音樣本語種限制,若說的是英文,這項技術可使用你的聲音,生成西班牙語
、法語等其他語言結果。不過,考量到存在濫用風險,現階段僅提供合作夥伴使用,尚未對
外開放。


《衛報》報導,OpenAI延遲推出「Voice Engine」,是為了在至關重要的全球大選年,最大
限度地減少假消息出現的可能性。

OpenAI在一篇貼文中表示,目前「Voice Engine」的生成結果都有浮水印,以利追蹤生成式
音檔的來源。與合作夥伴的使用條款也規定,必須取得原始說話者的明確知情同意,更不允
許開發人員讓個人用戶自行創造聲音檔案。


OpenAI表示,「目前選擇預覽而非廣泛發布這項技術」,是為了強化社會面對「更具說服力
的生成式模型」的能力,呼籲逐步淘汰語音認證,作為登入銀行帳戶或其他敏感資訊的安全
措施,制定在AI領域使用個人聲音的保護政策,以及推廣理解AI能力與限制、包括欺騙性內
容的公眾教育。


OpenAI寫道,「我們希望針對負責任地使用合成聲音,以及社會如何適應這些新功能,展開
一場對話」,並且根據對話結果及小規模測試,對於是否、如何大規模使用這項技術,做出
更明智的決定。


https://www.ettoday.net/news/20240401/2710876.htm
OpenAI認了「人聲複製新工具」太危險 不宜全面開放 | ETtoday國際新聞 | ETtoday新聞雲
[圖]
美國人工智慧開發公司OpenAI於3月29日公布語音AI工具「Voice Engine」,只需要短短15秒的說話聲音樣本,就能複製出此人聲音。不過,該公司也認定這項語音複製工具風險太大,不適合全面發布。(OpenAI,ChatGPT,Voice Engine) ...

 

https://i.imgur.com/C2dZ1S5.jpg
[圖]
阿笠博士的黑科技變聲蝴蝶結終於實現了

蝴蝶結現場收音15秒就能複製命案現場任何人的聲音

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.3.114 (臺灣)
※ 作者: Sinreigensou 2024-04-01 14:53:47
※ 文章代碼(AID): #1c2bdzor (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1711954429.A.CB5.html
lolic: 以後用ai製造不在場證明1F 04/01 14:56
sunlman: 講電話之前都要先對口令了嗎XD2F 04/01 14:56
Fatesoul: 現在才認太危險3F 04/01 14:57
hui000807: 這openAI產出的東西大家倒是很一致的認為只會更促成混4F 04/01 14:57
hui000807: 亂和陰謀論而已
tom11725: 網路上的東西已經很假了,再來就完全都是假的了6F 04/01 14:58
cybermeow: Openai 觀點一直都是太危險不開放啊 然後變成closeai7F 04/01 14:58
w2776803: 複製總統的聲音就好玩了8F 04/01 14:58
s02180218: 要是生出一堆仿希特勒演講 歐美一定暴怒9F 04/01 14:58
KUSURI: 以後錄音證據不一定為證 搭配上影像AI生成 應該可以期待無10F 04/01 14:58
KUSURI: 中生有的紀錄片
a125g: 詐騙新手段12F 04/01 14:59
cybermeow: 今天openai 說覺得新東西不危險才是新聞13F 04/01 14:59
ryoma1: YT美國總統同樂玩遊戲的影片不曉得有沒有上百支了14F 04/01 14:59
sasmwh561: 以後聲紋驗證要走入歷史了15F 04/01 15:01
killerj466v2: 聲紋比圖畫AI可怕多了16F 04/01 15:02
magamanzero: 這個聲紋也一樣?17F 04/01 15:02
a125g: 一些機密東西不能再用聲紋認證18F 04/01 15:02
a125g: 某些武器授權之類的
madaoraifu: openai有不危險的東西嗎?20F 04/01 15:03
Annulene: ....假道學21F 04/01 15:04
kaj1983: AI危險的東西以後只會更多22F 04/01 15:04
kaj1983: 假新聞假影片,以後不會再出現網紅小雞這種低能案例了
kaj1983: 要造假騙流量將會非常容易
Annulene: 講一大堆 結果還不是探社會底線 跟之前一樣...25F 04/01 15:06
breadf: 不可能任務出現過26F 04/01 15:06
kaj1983: 詐騙行業將會變得更發達27F 04/01 15:07
ayufly: 詐騙業要起飛了28F 04/01 15:08
Stella: 這東西早就有了,GitHub隨便找鬥一堆29F 04/01 15:10
sustainer123: closeai30F 04/01 15:12
Rain0224: 這不是什麼openai 的產品很危險,也跟任何特定企業無關31F 04/01 15:13
Rain0224: ,而是ai 的技術持續發展,社會就勢必要面對的問題,就
Rain0224: 算openai 不開發,也會有其他人做出來
dieorrun: 反正弄出來先投入詐騙就對了34F 04/01 15:14
Rain0224: 技術發展的速度遠快於社會適應的能力35F 04/01 15:15
gaaaaper: 詐騙星球36F 04/01 15:15
orze04: AI 圖和假影片還算容易區別,人聲置換真的沒那麼容易分37F 04/01 15:16
milk830122: 歹丸第一個先投入38F 04/01 15:16
kaj1983: 其他公司要辦到像openai的程度應該是很難啦39F 04/01 15:18
CannonLake: 學習資料庫夠多 一定分不出來 隔壁最大聲紋庫有幾十年40F 04/01 15:18
CannonLake: 樣本老素都ai了
kinghtt: AI做假影片+聲音,以後要抓罪犯更難了...42F 04/01 15:19
kaj1983: AI就是在軍備競賽,規模不夠大的玩不起43F 04/01 15:19
kaj1983: 夠大的公司在訓練效率上是翻倍來計算的
kenkenken31: 以後做人要謹言慎行做好大谷一般的形象,不然AI幫你45F 04/01 15:21
kenkenken31: 放話你就社死了,每個人都覺得你賤嘴這話肯定是你說
kenkenken31: 的
TaiwanXDman: 柯南都是真的48F 04/01 15:22
Johnsonj: AI Koyo的人聲合成不是玩好一陣子了XDDD49F 04/01 15:24
h75311418: 以後用AI做講影像配聲音就麻煩了50F 04/01 15:24
edwinrw: 不可能的任務51F 04/01 15:27
as3366700: 二次元在吵繪圖AI會不會搶工作 三次元那些換臉 換身52F 04/01 15:29
as3366700: 人聲AI是實實在在侵害名人的...
none049: 以後就算有人要謹言慎行做好形象,用AI的照樣給你社死54F 04/01 15:30
PunkGrass: 想到之前水原那事 假如有人用大谷的聲音跟形象去做假影55F 04/01 15:31
PunkGrass: 片...
none049: 一開始就是以社死特定人物當目標的哪會在乎目標原本的形57F 04/01 15:31
none049: 象如何啊?
none049: 用AI量產假聲明進行海量抹黑就可以讓當事人闢謠跑斷腿了
bobby4755: 某甩蔥軟體躲過一劫60F 04/01 15:35
KurumiNoah: 不可能任務3真實上演61F 04/01 15:39
Xpwa563704ju: 網路上早就有類似的東西了,只是好不好用不清楚62F 04/01 15:51

--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 668 
作者 Sinreigensou 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
1樓 時間: 2024-04-01 16:45:29 (台灣)
  04-01 16:45 TW
靠變聲器多久的產物了 ???
以前人就會腹語術 學鳥叫了
是有多危險????
鸚鵡都會的技能???
呆灣詐騙集團表示??? 多無聊 30~40 年前 詐騙電話技術
2樓 時間: 2024-04-02 00:48:45 (台灣)
  04-02 00:48 TW
有些鐵證據 不在鐵了
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇