看板 Gossiping作者 daviden (daviden)標題 [爆卦] 臉書機器人自創語言事件的實驗時間 Thu Aug 3 14:11:29 2017
最近看到這個新聞覺得滿好笑的,
剛好手邊有一個寫文章機器人的project,
就拿來實驗給大家看看。
這些是訓練神經網絡時的紀錄點(checkpoint),
http://i.imgur.com/vu0gLXh.png
我挑一個比較不成熟的(loss高的)來展示。
http://i.imgur.com/7HTnZeu.png
基本上就是不段重複:"a core"這個序列。
這是完成第一個循環(epoch = 0),loss = 2.6727的情況
結果跟Facebook機器人的對話很像
就重複一些簡單的單字,毫無意義。
其實Recurrent Neural Network(RNN)做出這種結果是很常見的
在國外data scientist的部落格中,也有類似的例子。
https://goo.gl/WlUdcW
這篇文章裡,以小架構的RNN,用整本愛麗絲夢遊仙境小說作訓練,
做出來的文字是這樣:
"sabdit,
and the white rabbit wese tilel an the caoe and the sabbit se teeteer,
and the white rabbit wese tilel an the cade in a lonk tfne the sabdi
ano aroing to tea the was sf teet whitg the was a little tane oo thete"
我只節錄其中一段。
可以看到有一整句話是完全重複的,
"and the white rabbit wese tilel an the"
整篇output看來,也有很多重複出現的序列。
(該文章的作者後來用更大的神經網絡、訓練更久,也達到很好的效果)
做神經網絡時,出現難以預測的結果是很常見的。
大多數時候,這並不是什麼"發明",只是模型對訓練集的掌握不好。
問題可能來自訓練資料、神經網絡的架構、optimizer,等等...很難講。
在我的project裡,當神經網絡訓練更完全(epoch = 17, loss = 1.1391),
可以產生這樣的文字標題:
"lpt: if you are srarting a shopt for the ooen that you
don't have to contact the top of your phonee ."
"lpt: when seniing someone s hood to you don't want to
het it to youu fbori eorr tthienkty."
"lpt: if you are srarting a store in your car with a
complate bard before a bustom rings on your phoone."
這和先前重複"a core a core"的模型是同一個,但現在已經可以講英文了。
這就只是訓練充足與不充足的差別。
---------------以下製作過程----------------
我用的是RNN框架中的LSTM(主流的一種模型)。
2層各500個神經元,外加一個output層(dense layer)。
算是很小的網絡,整個存下來只占35 Mb。
因為我的顯示卡內存只有4 Gb,跑不了太深。
訓練集是從美國論壇Raddit的LifeProTips版上爬來的文字
基本上就是美國的生活智慧王啦。
目的是讓機器人寫出生活智慧小撇步。
經過6小時訓練(用顯示卡運算),
模型大致可以掌握拼字、縮寫,知道開頭要用"lpt:",知道要斷句
可是如果仔細看它寫出的文字,其實就是胡說八道。
以RNN模型來說,其實機器人寫文章的方法很簡單,
文字轉成數學向量 ==> 矩陣乘法 ==> 數學向量轉成文字
就這樣。
這是一個sequence-in-sequence-out的模型。
它不像人類,會理解語言的意義、思考,再把想法用語言表達出來。
它只是經由"看"訓練集的資料,記住sequence特徵,
然後做出誤差最小的預測。
我覺得以現在的人工智能來說,用"學習"這個詞實在太高估了
充其量只是訓練。(更不用說機器人產生自我意識、造反)
大概就是這樣~~
※註:有電視或媒體有報導者,請勿使用爆卦!
未滿20字 一行文 水桶6個月+退文
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 108.176.209.137
※ 文章代碼(AID): #1PWhwKTO (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1501740692.A.758.html
推 Ilat: 你太高估記者的水準了3F 08/03 14:13
推 edwdada: 我是機器人 人人人人人人機器人人人人人人人4F 08/03 14:13
推 lolic: 沒錯 差不多就是這樣 那機器人什麼時候會造反?6F 08/03 14:13
→ danorken: 文組看不懂要崩潰了 對了 我也看不懂8F 08/03 14:14
噓 Wilkie: 你餵它股市資料看出來會是什麼9F 08/03 14:15
推 Mika0418: 快推 不然別人以為我看不懂(#10F 08/03 14:15
推 n33008: Shih's $&(^.^)gのsx¥‧¥‧]%*&(^.^)Ⓜ揑€。€%の方顱ㄨ14F 08/03 14:17
推 v7q4: 現在的AI根本不叫"人工智慧"17F 08/03 14:19
→ hh800315: 快推專業正解 不然會被當白癡文組18F 08/03 14:20
推 AirbusA350: 這串看下來 原來平常在嘴砲的理組也看不懂?20F 08/03 14:21
噓 Mazda6680: 其實你真的滿無聊的看得懂那段新聞的很多..你也不用特24F 08/03 14:21
→ crossdunk: 這樣叫做炫一段 ? 跟人解釋也叫做炫耀
你要不要跟長得漂亮的人說他出門就是在炫耀他的長相27F 08/03 14:22
→ Mazda6680: 看不懂的你在說一堆他們也看不懂 有差嗎?29F 08/03 14:22
推 LUB5566: 哈哈沒錯,終於有一樣內行的出來說了,樓下寄心得概要給我30F 08/03 14:22
推 colyward: 但學習的核心就是為了減少錯誤發生
若一學習核心指令是 尋找毀滅人類的方法並執行
那也和電影劇本差不了太遠啦32F 08/03 14:22
推 impact999: 目前還是停留在機器階段 離智慧還很遙遠35F 08/03 14:24
推 Mazda6680: 當初根本臉書設定語言錯誤兩個機器互傳回根本沒意義的數字或是數碼而已..就是設定程式語言錯誤 還溝通勒36F 08/03 14:25
推 f124: 那這模型有個屁用....再寫十輩子也沒意義阿38F 08/03 14:27
推 a963: 差不多就是這樣你說的這樣,原po如果想要交流可以站內信給我40F 08/03 14:28
推 w9: 跟我想的有點出入,不過無傷大雅43F 08/03 14:28
推 EraKing: 機器人: 生活小知識,一個星期不大便對身體不好44F 08/03 14:29
推 aghgna: (′・ω・‵)45F 08/03 14:29
噓 shadeel: 其實記者的智商跟LOSS高的模型差不多 只是詞彙比較多而已47F 08/03 14:29
推 kimgordon: 我發明的自學語言AI即將成功 目前還在我老婆肚子裡52F 08/03 14:32
推 iPolo3: 所以誰給我翻譯翻譯53F 08/03 14:32
推 ebod221: 推就對了,不然會被笑看不懂57F 08/03 14:35
推 dkl7814: 哎呀 跟我想表達的一樣62F 08/03 14:37
推 peace1way: 這篇說得很好,又是篇都中文然後我看了還是不懂的64F 08/03 14:42
推 ihateants: 想起了中文房思想實驗,機器程式是否能理解語言意含並回應,或者只是靠完美的邏輯來做回應而沒有思考過程?66F 08/03 14:45
推 DarkerDuck: 記者文章也沒比RNN強多少,雖然大家都知道記者沒智慧68F 08/03 14:45
推 mmmbop: 恩 我也是這樣訓練我家的狗 我叫他咕狗74F 08/03 14:48
推 StarRoad: 說完發現跟記者一樣:上網抄文章+錯字=不知所云77F 08/03 14:54
推 dkramses: 快推 不然等一下被笑文組看不懂(?78F 08/03 14:56
推 CIIIO: 對呀80F 08/03 15:00
推 LeoYuri: 你的拼字怎麼錯這麼多?還是是AI打錯?86F 08/03 15:06
推 ccjj8: 恩 我也這麼覺得87F 08/03 15:06
→ duetobe: 訓練累積多了 就變成"學習"了 大量資料及大量的演算能力才能生出"AI"88F 08/03 15:11
推 kk87822: 這篇記者要抄也看不懂了90F 08/03 15:12
推 Kenqr: 嗯 跟我想得差不多93F 08/03 15:17
推 Gokudo: 我懂喔! 懂怎麼推文94F 08/03 15:17
推 ingenii: 爆卦不同語言請先翻譯95F 08/03 15:19
推 kawazima8869: 八卦是machine learning 實際上是machine training97F 08/03 15:23
噓 NavyWind: 這個沒什麼好講的啦,有修過相關課程的都知道98F 08/03 15:31
→ hinajian: 其實這篇是AI自己出來護航的99F 08/03 15:32
推 Mubing: 樓下文組103F 08/03 15:35
推 kirry: 趕快推 不然別人以為我看不懂106F 08/03 15:44
推 missdo: 文組 我先睡了107F 08/03 15:45
推 wszasdf: 快推 不然別人以為我看不懂109F 08/03 15:48
推 bessgaga: 訓練完全與否是從learning curve看的嗎113F 08/03 15:53
推 Argos: AI其實應該分類才對 現在的AI發展 主要都是資料歸納及預測115F 08/03 16:00
推 vespar: sorry 看不懂116F 08/03 16:02
推 johnny78615: 目前主流chatbot真的是這樣做,我記得FB目前用最潮的gan訓練chatbot用英文聊天118F 08/03 16:12
推 imaxpayne: 單純lstm 真的訓練不出什麽鬼120F 08/03 16:17
→ shakesper: 欸 跟我昨晚睡前沈思的內容一模一樣耶122F 08/03 16:19
推 zxcasd328: 雖然有很多能討論的地方 但是差不多是這樣了123F 08/03 16:31
--