※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2017-08-03 16:34:34
看板 Gossiping
作者 標題 [爆卦] 臉書機器人自創語言事件的實驗
時間 Thu Aug 3 14:11:29 2017
最近看到這個新聞覺得滿好笑的,
剛好手邊有一個寫文章機器人的project,
就拿來實驗給大家看看。
這些是訓練神經網絡時的紀錄點(checkpoint),
http://i.imgur.com/vu0gLXh.png
我挑一個比較不成熟的(loss高的)來展示。
http://i.imgur.com/7HTnZeu.png
基本上就是不段重複:"a core"這個序列。
這是完成第一個循環(epoch = 0),loss = 2.6727的情況
結果跟Facebook機器人的對話很像
就重複一些簡單的單字,毫無意義。
其實Recurrent Neural Network(RNN)做出這種結果是很常見的
在國外data scientist的部落格中,也有類似的例子。
https://goo.gl/WlUdcW
Text Generation With LSTM Recurrent Neural Networks in Python with Keras - Machine Learning Mastery
Recurrent neural networks can also be used as generative models. This means that in addition to being used for predictive models (making predictions) ...
![[圖]](http://machinelearningmastery.com/wp-content/uploads/2016/08/Text-Generation-With-LSTM-Recurrent-Neural-Networks-in-Python-with-Keras.jpg)
這篇文章裡,以小架構的RNN,用整本愛麗絲夢遊仙境小說作訓練,
做出來的文字是這樣:
"sabdit,
and the white rabbit wese tilel an the caoe and the sabbit se teeteer,
and the white rabbit wese tilel an the cade in a lonk tfne the sabdi
ano aroing to tea the was sf teet whitg the was a little tane oo thete"
我只節錄其中一段。
可以看到有一整句話是完全重複的,
"and the white rabbit wese tilel an the"
整篇output看來,也有很多重複出現的序列。
(該文章的作者後來用更大的神經網絡、訓練更久,也達到很好的效果)
做神經網絡時,出現難以預測的結果是很常見的。
大多數時候,這並不是什麼"發明",只是模型對訓練集的掌握不好。
問題可能來自訓練資料、神經網絡的架構、optimizer,等等...很難講。
在我的project裡,當神經網絡訓練更完全(epoch = 17, loss = 1.1391),
可以產生這樣的文字標題:
"lpt: if you are srarting a shopt for the ooen that you
don't have to contact the top of your phonee ."
"lpt: when seniing someone s hood to you don't want to
het it to youu fbori eorr tthienkty."
"lpt: if you are srarting a store in your car with a
complate bard before a bustom rings on your phoone."
這和先前重複"a core a core"的模型是同一個,但現在已經可以講英文了。
這就只是訓練充足與不充足的差別。
這就只是訓練充足與不充足的差別。
---------------以下製作過程----------------
我用的是RNN框架中的LSTM(主流的一種模型)。
2層各500個神經元,外加一個output層(dense layer)。
算是很小的網絡,整個存下來只占35 Mb。
因為我的顯示卡內存只有4 Gb,跑不了太深。
訓練集是從美國論壇Raddit的LifeProTips版上爬來的文字
基本上就是美國的生活智慧王啦。
目的是讓機器人寫出生活智慧小撇步。
經過6小時訓練(用顯示卡運算),
模型大致可以掌握拼字、縮寫,知道開頭要用"lpt:",知道要斷句
可是如果仔細看它寫出的文字,其實就是胡說八道。
以RNN模型來說,其實機器人寫文章的方法很簡單,
文字轉成數學向量 ==> 矩陣乘法 ==> 數學向量轉成文字
就這樣。
這是一個sequence-in-sequence-out的模型。
它不像人類,會理解語言的意義、思考,再把想法用語言表達出來。
它只是經由"看"訓練集的資料,記住sequence特徵,
然後做出誤差最小的預測。
我覺得以現在的人工智能來說,用"學習"這個詞實在太高估了
充其量只是訓練。(更不用說機器人產生自我意識、造反)
大概就是這樣~~※註:有電視或媒體有報導者,請勿使用爆卦!
未滿20字 一行文 水桶6個月+退文
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 108.176.209.137
※ 文章代碼(AID): #1PWhwKTO (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1501740692.A.758.html
推 : 樓下的翻譯翻譯1F 08/03 14:12
推 : 看無2F 08/03 14:13
推 : 你太高估記者的水準了3F 08/03 14:13
推 : 我是機器人 人人人人人人機器人人人人人人人4F 08/03 14:13
→ turtleone …
推 : 沒錯 差不多就是這樣 那機器人什麼時候會造反?6F 08/03 14:13
推 : 跟我想的差不多,被你先Po了7F 08/03 14:14
→ : 文組看不懂要崩潰了 對了 我也看不懂8F 08/03 14:14
噓 : 你餵它股市資料看出來會是什麼9F 08/03 14:15
推 : 快推 不然別人以為我看不懂(#10F 08/03 14:15
推 : 我也是這麼想的11F 08/03 14:15
推 : 專業推12F 08/03 14:15
推 : 跟我想PO的差不多 被你先搶了13F 08/03 14:17
推 : Shih's $&(^.^)gのsx¥‧¥‧]%*&(^.^)Ⓜ揑€。€%の方顱14F 08/03 14:17
→ : ㄨ
→ : ㄨ
推 : 趕快推不然人家以為我不懂16F 08/03 14:18
推 : 現在的AI根本不叫"人工智慧"17F 08/03 14:19
→ : 快推專業正解 不然會被當白癡文組18F 08/03 14:20
推 : 推,不明覺厲19F 08/03 14:21
推 : 這串看下來 原來平常在嘴砲的理組也看不懂?20F 08/03 14:21
推 : 我文組我看不懂21F 08/03 14:21
推 : 所以機器學習應該叫做機器訓練嗎22F 08/03 14:21
推 : 嗯嗯 跟我想的差不多23F 08/03 14:21
噓 : 其實你真的滿無聊的看得懂那段新聞的很多..你也不用特24F 08/03 14:21
→ : 只是兩個機器人在鬼打牆25F 08/03 14:21
→ : 別想要炫一段26F 08/03 14:22
→ : 這樣叫做炫一段 ? 跟人解釋也叫做炫耀27F 08/03 14:22
→ : 你要不要跟長得漂亮的人說他出門就是在炫耀他的長相
→ : 你要不要跟長得漂亮的人說他出門就是在炫耀他的長相
→ : 看不懂的你在說一堆他們也看不懂 有差嗎?29F 08/03 14:22
推 : 哈哈沒錯,終於有一樣內行的出來說了,樓下寄心得概要給30F 08/03 14:22
→ : 我
→ : 我
推 : 但學習的核心就是為了減少錯誤發生32F 08/03 14:22
→ : 若一學習核心指令是 尋找毀滅人類的方法並執行
→ : 那也和電影劇本差不了太遠啦
→ : 若一學習核心指令是 尋找毀滅人類的方法並執行
→ : 那也和電影劇本差不了太遠啦
推 : 目前還是停留在機器階段 離智慧還很遙遠35F 08/03 14:24
推 : 當初根本臉書設定語言錯誤兩個機器互傳回根本沒意義的36F 08/03 14:25
→ : 數字或是數碼而已..就是設定程式語言錯誤 還溝通勒
→ : 數字或是數碼而已..就是設定程式語言錯誤 還溝通勒
推 : 那這模型有個屁用....再寫十輩子也沒意義阿38F 08/03 14:27
噓 :39F 08/03 14:27
推 : 差不多就是這樣你說的這樣,原po如果想要交流可以站內信給40F 08/03 14:28
→ : 我
→ : 我
推 : 趕快推、免得被人發現看不懂42F 08/03 14:28
推 : 跟我想的有點出入,不過無傷大雅43F 08/03 14:28
推 : 機器人: 生活小知識,一個星期不大便對身體不好44F 08/03 14:29
推 : (′・ω・‵)45F 08/03 14:29
噓 : 文組崩潰囉~我也是文組(崩潰46F 08/03 14:29
噓 : 其實記者的智商跟LOSS高的模型差不多 只是詞彙比較多而已47F 08/03 14:29
推 : 金管會還不是複製貼上48F 08/03 14:30
推 : 推49F 08/03 14:30
推 : 原來是這樣50F 08/03 14:31
推 : 看起來蠻有趣的51F 08/03 14:31
推 : 我發明的自學語言AI即將成功 目前還在我老婆肚子裡52F 08/03 14:32
推 : 所以誰給我翻譯翻譯53F 08/03 14:32
推 : 推54F 08/03 14:32
推 : 你有點強55F 08/03 14:32
推 : btw 那篇新聞原出處是太陽報 就知這篇新聞大概...56F 08/03 14:34
推 : 推就對了,不然會被笑看不懂57F 08/03 14:35
推 : 原來如此58F 08/03 14:36
推 : 什麼時候要餵他吃PTT59F 08/03 14:37
推 : 恩恩 跟我想得差不多60F 08/03 14:37
推 : 過程就是句子數據化 抓向量特徵 找相似特徵還原61F 08/03 14:37
推 : 哎呀 跟我想表達的一樣62F 08/03 14:37
推 : 不錯阿 我覺得你第一段第一個字寫的很好 和我想法雷63F 08/03 14:39
推 : 這篇說得很好,又是篇都中文然後我看了還是不懂的64F 08/03 14:42
推 : 看無65F 08/03 14:43
推 : 想起了中文房思想實驗,機器程式是否能理解語言意含並66F 08/03 14:45
→ : 回應,或者只是靠完美的邏輯來做回應而沒有思考過程?
→ : 回應,或者只是靠完美的邏輯來做回應而沒有思考過程?
推 : 記者文章也沒比RNN強多少,雖然大家都知道記者沒智慧68F 08/03 14:45
推 : 所以只是兩個無意義的跳針69F 08/03 14:47
推 : 專業推70F 08/03 14:47
→ : 自我意願太扯了71F 08/03 14:48
→ : 就跳針而已72F 08/03 14:48
→ : 自我意識還太早齁
→ : 自我意識還太早齁
推 : 恩 我也是這樣訓練我家的狗 我叫他咕狗74F 08/03 14:48
推 : 推75F 08/03 14:49
推 : 推76F 08/03 14:53
推 : 說完發現跟記者一樣:上網抄文章+錯字=不知所云77F 08/03 14:54
推 : 快推 不然等一下被笑文組看不懂(?78F 08/03 14:56
推 :79F 08/03 14:59
推 : 對呀80F 08/03 15:00
推 : 快點推不然人家會以為我看不懂81F 08/03 15:02
推 : 嗯嗯,我也是這樣想的82F 08/03 15:03
推 : 目前只能計算 根本不能創造83F 08/03 15:05
→ : 那怎麼會是智慧
→ : 那怎麼會是智慧
推 : 你寫這麼艱深 記者怎麼抄85F 08/03 15:06
推 : 你的拼字怎麼錯這麼多?還是是AI打錯?86F 08/03 15:06
推 : 恩 我也這麼覺得87F 08/03 15:06
→ : 訓練累積多了 就變成"學習"了 大量資料及大量的演算能力88F 08/03 15:11
→ : 才能生出"AI"
→ : 才能生出"AI"
推 : 這篇記者要抄也看不懂了90F 08/03 15:12
推 : 專業推91F 08/03 15:12
推 : 推92F 08/03 15:15
推 : 嗯 跟我想得差不多93F 08/03 15:17
推 : 我懂喔! 懂怎麼推文94F 08/03 15:17
推 : 爆卦不同語言請先翻譯95F 08/03 15:19
噓 : 我看不懂96F 08/03 15:20
推 : 八卦是machine learning 實際上是machine training97F 08/03 15:23
噓 : 這個沒什麼好講的啦,有修過相關課程的都知道98F 08/03 15:31
→ : 其實這篇是AI自己出來護航的99F 08/03 15:32
推 : 跟我想的一樣 只是懶得po文100F 08/03 15:32
推 : 所以現在真的大家都講內存了啊....XD101F 08/03 15:34
推 : 嗯,大概是這樣102F 08/03 15:35
推 : 樓下文組103F 08/03 15:35
噓 : 看不懂喇104F 08/03 15:40
推 : 好險我文組看不懂105F 08/03 15:43
推 : 趕快推 不然別人以為我看不懂106F 08/03 15:44
推 : 文組 我先睡了107F 08/03 15:45
推 : 就是啊 我也才想這樣po的說108F 08/03 15:46
推 : 快推 不然別人以為我看不懂109F 08/03 15:48
推 : 深度學習最近正夯110F 08/03 15:49
噓 : 看無喇幹111F 08/03 15:50
推 : 天網不要再派工讀生來自謙裝弱了112F 08/03 15:51
推 : 訓練完全與否是從learning curve看的嗎113F 08/03 15:53
推 : 推114F 08/03 15:55
推 : AI其實應該分類才對 現在的AI發展 主要都是資料歸納及預測115F 08/03 16:00
推 : sorry 看不懂116F 08/03 16:02
→ : 看不懂117F 08/03 16:07
推 : 目前主流chatbot真的是這樣做,我記得FB目前用最潮的118F 08/03 16:12
→ : gan訓練chatbot用英文聊天
→ : gan訓練chatbot用英文聊天
推 : 單純lstm 真的訓練不出什麽鬼120F 08/03 16:17
推 : 專業推121F 08/03 16:17
→ : 欸 跟我昨晚睡前沈思的內容一模一樣耶122F 08/03 16:19
推 : 雖然有很多能討論的地方 但是差不多是這樣了123F 08/03 16:31
--
※ 看板: Gossiping 文章推薦值: 4 目前人氣: 0 累積人氣: 2033
2樓 時間: 2017-08-03 15:40:10 (台灣)
→
(編輯過) TW
我覺得LSTM適合訓練權重,但不適合單做決策輸出,搭上其他架構像是HMM或者RL當決策會比較適合(?_?)
回列表(←)
分享