※ 本文為 ChiChi7.bbs. 轉寄自 ptt.cc 更新時間: 2017-05-11 00:39:31
看板 Gossiping
作者 標題 Re: [問卦] 人工智慧/機器學習 現在來看真的很猛嗎??
時間 Wed May 10 03:34:20 2017
※ 引述《soaping (撿肥皂ing)》之銘言:
: 小魯是文組啦
: 現在看到一堆人在吹捧人工智慧阿 機器學習阿
: 只是覺得很好奇為啥一堆非本科系 沒寫過code的人也可以出來吹捧?
: 看內容比較像是他們自己的想像
: 根本就是把威爾史密斯的機械公敵拿出來說嘴
: 就像是現在一堆人拿excel說他們在做big data一樣
: 現實中有在做這領域的專家or研究生真的覺得這東西很猛嗎?
: 有看人家寫說 到現在model跑的過程中發生甚麼事情無法得知
: 會跑甚麼東西出來也不知道 就像是創造了一個自己也不了解的東西
: 版上神人極多
: 有比較貼近真實的研究現況嗎?
一直想說要不要回一篇MATLAB有沒有用的文章? 乾脆回這篇好了
我也不敢說我懂machine learning,拜託只是說一個故事,希望大家勿肉搜><
我只是感慨台灣的輿論充滿了如此多的謬論所以希望以公民的立場寫這個文章
我也不敢說我懂machine learning,拜託只是說一個故事,希望大家勿肉搜><
我只是感慨台灣的輿論充滿了如此多的謬論所以希望以公民的立場寫這個文章
我大學的時候machine learning是統計所開的課,那時候覺得這門課名好怪
當時可能幾乎沒有幾個人修吧,那時候是類神經網路最最最低潮的時候,但是那與我無關XD
那時候正是美國網路泡沫最嚴重的時候,當時拿著資工系學生證的我忐忑不安,那時候我
那時候正是美國網路泡沫最嚴重的時候,當時拿著資工系學生證的我忐忑不安,那時候我
爸媽又不准我重考,我還特地跑去問老師說,資工到底有沒有前途,老師都跟你嘴說 沒前途
但是那時候老師猜對了嗎? 沒有,他只是認為印度軟體很厲害而已,那時候真的中國大陸的
資訊科技和網路是趨近於0,但是那時候中國最優秀的人就已經是念軟體(軟件)了,另外一個
是生科,當時中國最優秀的幾乎跑去念生科,我看PTT抱怨念生科的文章實在是看不出問題
但是那時候老師猜對了嗎? 沒有,他只是認為印度軟體很厲害而已,那時候真的中國大陸的
資訊科技和網路是趨近於0,但是那時候中國最優秀的人就已經是念軟體(軟件)了,另外一個
是生科,當時中國最優秀的幾乎跑去念生科,我看PTT抱怨念生科的文章實在是看不出問題
真正的根源,說生科沒前途(心裡os:難道念數學和物理就有前途嗎?)
後來我是在知乎找到一個比較合理的答案,大家都是懵懵懂懂念大學和科系,被騙
是正常,我的意思是比如你覺得念XX很有前途,但是不但沒錢賺反而得到一個很大的失落感
生科系可能就是沒日沒夜做實驗當廉價勞工,但是應該有人喜歡做實驗吧?
是正常,我的意思是比如你覺得念XX很有前途,但是不但沒錢賺反而得到一個很大的失落感
生科系可能就是沒日沒夜做實驗當廉價勞工,但是應該有人喜歡做實驗吧?
其實我看了中國節目訪問北京清大生科教授顏寧的訪談,讓我非常想念生科呢!!!
換個角度想我們理學院不也是整天埋在書堆的廉價勞工,那你不能怪當初念XX系,是你自己
願賭服輸對吧? 不然就是一種可能性,資訊傳達錯誤和人云亦云,這就是我今天會寫這篇
願賭服輸對吧? 不然就是一種可能性,資訊傳達錯誤和人云亦云,這就是我今天會寫這篇
文章的原因,我覺得台灣是一個傳達資訊錯誤和人云亦云非常嚴重的地方
言歸正傳,我每次看到AI和machine learning的文章和修課人數就覺得這股熱潮
大概物理光電泡沫以來最熱的一次,當然我也不小心被洗進去上一股泡沫,但是我卻意外
大概物理光電泡沫以來最熱的一次,當然我也不小心被洗進去上一股泡沫,但是我卻意外
地找到自己真正的興趣 物理,她是我高中最痛恨的學科,我沒有真正上過高中物理老師的課
要不是那股熱潮把我洗進去物理,我一輩子都不知道自己的興趣和天分是物理,
應該說只要是知識相關我都喜歡,但是我覺得我年輕的時候應該是要念一下數學和物理,
剩下的我退休再去念就好,你要說我後悔嗎?其實也還好
當然我今天不是來跟各位說教或是什麼,講天分又實在是有點丟人現眼,我唯一的樂趣就是
在物理有一種"平行計算"的天分,我可以一次算個100頁的量子力學和量子場論持續3個月
一次同時算好幾篇論文,雖然就真的手算就是了,雖然真的當時傻傻以為這樣就能在物理
在物理有一種"平行計算"的天分,我可以一次算個100頁的量子力學和量子場論持續3個月
一次同時算好幾篇論文,雖然就真的手算就是了,雖然真的當時傻傻以為這樣就能在物理
混口飯吃
當然我今天不是來跟各位說教或是什麼,只是感嘆潮流和科技的變化實在恐怖
談到machine learning相關文章,我就覺得奇怪怎麼沒有人提到數值和最佳化呢?
我以前也是以為數值和數值太簡單沒屁用,這完全是一種資訊傳遞錯誤的原因呀,你要做
machine learning的研究甚至出色的人,不是去盡可能學那些雜七雜八工具耗盡你的精力,
而是努力去把machine learning的內功,數值最佳化和矩陣計算練起來
而是努力去把machine learning的內功,數值最佳化和矩陣計算練起來
光是這裡面又可以分 矩陣計算-> 數值最佳化 -> 凸最佳化
那矩陣計算最重要的是什麼? 是演算法,用MATLAB來實現即可
那有鄉民可能會問業界不是買不起MATLAB或是用其他語言嗎?
那有鄉民可能會問業界不是買不起MATLAB或是用其他語言嗎?
我會說你先進來學矩陣計算,真的不會很難,只是常常會要你半條命XDDD
數學裡面最簡單大概就是數值,因為夠直覺,不然你覺得代數有比較簡單?
當然高微,線代,泛函,PDE,ODE能懂是最好,當你夠出色的時候有本事解決實際問題
是那些人捧著錢來請你做事的,誰管你用MATLAB還是用C,Python
八卦是
machine learning是交叉學科,我也不敢說她簡單,這裡面幾乎都是我沒聽過的名詞
而且你上不同老師用不同課本還真的不一樣的內容,如果要推薦初學者我會推
而且你上不同老師用不同課本還真的不一樣的內容,如果要推薦初學者我會推
Pattern Recognition and Machine Learning 作者 Christopher Bishop
主要還是這本好上手又不失內容完整性,剩下你去看統計學習或是其他deep learning
有時候真的會覺得太雜亂,但是還蠻意外Bishop是跟物理領域非常相近的人
https://en.wikipedia.org/wiki/Christopher_Bishop
Christopher Bishop - Wikipedia
Christopher Michael Bishop (born 7 April 1959) FRS, FREng, FRSE, is the Laboratory Director at Microsoft Research Cambridge, Professor of Computer Science at the University of Edinburgh and a Fellow of Darwin College, Cambridge.[8][5] ...
Christopher Michael Bishop (born 7 April 1959) FRS, FREng, FRSE, is the Laboratory Director at Microsoft Research Cambridge, Professor of Computer Science at the University of Edinburgh and a Fellow of Darwin College, Cambridge.[8][5] ...
拜託我只是純粹對台灣常常資訊傳遞錯誤想要解釋一些事情的鄉民,希望我們也能夠有
知乎這種經典的文章,雖然我也沒看很多啦
如果你跟我一樣有時候真的要懂機器為何能學習的理論,那就可以去看
1.The Nature of Statistical Learning Theory 作者 Vladimir Vapnik
2.Statistical Learning Theory - Vladimir N. Vapnik
看懂這二本的基礎是實變,泛函,還有一顆好奇的心XD
臉書人工智慧再找大師助陣,機器學習領域先驅之一的統計學習理論之父也加入
http://www.ithome.com.tw/news/92620
臉書人工智慧再找大師助陣,機器學習領域先驅之一的統計學習理論之父也加入 | iThome
為了打造出智慧機器,臉書去年底成立了人工智慧研究室,由人工智慧先驅也是紐約大學資料科學研究中心教授Yann LeCun帶頭,幾天前,來自蘇聯的統計學習理論之父Vladimir Vapnik也正式加入了這個團隊 ...
為了打造出智慧機器,臉書去年底成立了人工智慧研究室,由人工智慧先驅也是紐約大學資料科學研究中心教授Yann LeCun帶頭,幾天前,來自蘇聯的統計學習理論之父Vladimir Vapnik也正式加入了這個團隊 ...
http://www.ithome.com.tw/news/92620
臉書人工智慧再找大師助陣,機器學習領域先驅之一的統計學習理論之父也加入 | iThome
為了打造出智慧機器,臉書去年底成立了人工智慧研究室,由人工智慧先驅也是紐約大學資料科學研究中心教授Yann LeCun帶頭,幾天前,來自蘇聯的統計學習理論之父Vladimir Vapnik也正式加入了這個團隊 ...
為了打造出智慧機器,臉書去年底成立了人工智慧研究室,由人工智慧先驅也是紐約大學資料科學研究中心教授Yann LeCun帶頭,幾天前,來自蘇聯的統計學習理論之父Vladimir Vapnik也正式加入了這個團隊 ...
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.34.102.191
※ 文章代碼(AID): #1P4Xd0EZ (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1494358464.A.3A3.html
→ : 我喜歡你這篇..謝謝你!!1F 05/10 03:34
→ : 你是不是喜歡Julian Schwinger <33
→ : 你是不是喜歡Julian Schwinger <33
哀呀,我取這個id純粹是因為我以前隨便亂取的,還有一個原因Schwinger在
高能物理是一個很特別的人,別人來演講物理是告訴你How to do it,
Schwinger來演講是告訴你 Only I can do it!
在台灣曾經孤獨和物理奮戰的我至少是這樣勉勵自己XD,不然走不下去
推 : 所以天網還要幾年?3F 05/10 03:35
推 : 推 加油4F 05/10 03:35
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 03:40:50
推 : DeepLearning跟天網是不同類型的AI5F 05/10 03:37
→ : 呃... 看不太出你想說的重點是什麼6F 05/10 03:38
數值最佳化那一段,我只是可能感觸良多啦,sorry
→ : 原來我不是惟一看不懂重點的人呀7F 05/10 03:38
推 : 當初修統計所的教svm搞得自己很亂 自己看machine learni8F 05/10 03:39
我也是覺得很可惜錯過SVM的黃金時期,跟我碩士論文一樣,我當初要是有人跟我說
我碩士論文在2006年在進行一場革命就好了,但是這裡是台灣呀
→ : ng還比較懂zz9F 05/10 03:40
推 : 機械學習不可逆 人類追求永生的機會就在這裡惹10F 05/10 03:40
→ : 這真的很難懂11F 05/10 03:40
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 03:43:14
推 : 其實 ML 本來就是統計的東西12F 05/10 03:41
→ : 我很喜歡Julian Schwinger 你要加油喔!13F 05/10 03:41
推 : 好文14F 05/10 03:41
→ : 現在所謂ML所使用的技術絕大部分都是很古老的知識15F 05/10 03:42
推 : 我也覺得文章有點缺乏重點16F 05/10 03:43
→ : 我其實也不知道為啥ML課程這麼屌 夯的明明就是深度學習17F 05/10 03:43
→ : Dick learning :p18F 05/10 03:43
→ : 看到這個標題應該要來分析尖端科技的 XD19F 05/10 03:43
推 : 賣鬧啊 真的能轉換錢的 現在都還是ML20F 05/10 03:44
→ : 可是大多數ML課程對DeepLearning的教學幾乎只有帶過而已21F 05/10 03:44
→ : 畢竟ML也是DL的基礎吧 很多時候deep network出來也要加22F 05/10 03:44
→ : CVPR那邊更明顯,就是各種NeuralNetwrok應用23F 05/10 03:44
這就跟以前沒光電系當初一群對物理沒興趣又跑來一堆物理系的一樣啊,物理從來沒真正
夯過,真要夯說光電,這是當初一群被物理排擠出去的領域XD
如果真要說machine learning引入注目真的就是deep learning這個分支,我不太懂
deep learning但是我知道,2006年deep learning三個最重要的人Hinton,Yoshua Bengio
等極少數人堅持下來做類神經網路才有今天的榮景,這跟物理弦理論曾經在這世界上只有
2個人做事一樣的
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 03:51:17
推 : 排版和辭意表達真的要加強..24F 05/10 03:45
→ : 我怎麼沒有絕的ML是DL的基礎XD model都不一樣了25F 05/10 03:45
→ : 上一層 svm 然後pretraining也是unsupervised的東西26F 05/10 03:45
→ : ML不外乎 dimension reduction classifying clustering27F 05/10 03:45
→ : 上面那些也是DL要達成的啊28F 05/10 03:46
→ : 我的意思是目前DL幾乎被信賴到變成唯一最佳姊了29F 05/10 03:46
→ : 優化演算法的大方向應該不會差太多才對30F 05/10 03:46
我應該對這點回答一下,MATLAB應該說是一台超級跑車,如果你覺得優化演算法
沒太大進步,那是非常非常嚴重的認識,這就是為何連八卦板會有人說學MATLAB沒用的妙謬
這裡的"計算"才正真正的大學問,真的一句話
得計算者,得天下
→ : 因為結果論DL慘電其他 所以結果論很多東西都要借鏡DL31F 05/10 03:47
→ : 甚至連bioinfo跟reinforcement learning. developmenta
→ : l robotic之類的也都順便乘上DL的熱潮
→ : 甚至連bioinfo跟reinforcement learning. developmenta
→ : l robotic之類的也都順便乘上DL的熱潮
說到dimension reduction,我來念這領域最大的驚訝就是Big Data本身就是
一個流形manifold,這跟物理的精神有點像,但是他卻是用統計的方法,比如LDA,PCA和SVD
甚至compress sensing,因為這個manifold的數學應該比物理的還要簡單一點
推 : 現在就變成古典ML技術自己玩玩開心一下可以34F 05/10 03:50
→ : 要真的上戰場,NN唯一姊 其他旁邊玩沙
→ : 要真的上戰場,NN唯一姊 其他旁邊玩沙
以上的人應該都比我懂deep learning,真的不太懂這離十萬八千里的
我真的也是虛心學習中,其實本來應該要睡了,每次看到這亂象又感慨萬千,偏偏自己
又不小心身陷其中><
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 03:54:05
推 : 我覺得 NN 倒也不會只是唯一解,如何去解決非全域的資訊36F 05/10 03:55
推 : 其實搞不好也沒差那麼多喔 人類對於 Deep Learning的理解37F 05/10 03:55
推 : 安安大師好久不見38F 05/10 03:55
→ : 非常的有限 而且有趣的是連學者也沒幾個關心39F 05/10 03:55
推 : DL是ML的子集合40F 05/10 03:55
→ : 超弦不是一直沒有證據 快不行了嗎41F 05/10 03:56
但是超弦也整整紅了30年(才被認為是騙局?),當時那股熱潮不下今天的AlphaGo
→ : 大家只知道Universal Approximation Theorem的結果42F 05/10 03:56
→ : 但是performnace guarantee 那邊到目前0進展
→ : 但是performnace guarantee 那邊到目前0進展
→ : DL是屬於複雜度高的方法,但並不是所有問題都一定要這麼複雜44F 05/10 03:56
→ : 不過沒差 大多數人也不care理論45F 05/10 03:57
推 : mk99說得完全正確46F 05/10 03:57
→ : 所以我才說古典ML的方法就自己玩玩還行啊47F 05/10 03:57
我學machine learning最大的好奇就是實在是看不出這些方式AlphaGo可以擊敗李世石
偏偏他那隨機蒙地卡羅是我們物理人發明的,我跟我之前老闆meeting
甚至還會聊奇怪AlphaGo神秘的力量從那來,我自己對deep learning比較能用自己方式
去猜的原因deep learning的物理機制可能是renormalization group
大自然有時候會有一些奇妙的數學對應,我真的不知道對不對,這是我能理解的可能性
但是這實在是也可能物理太低潮,有些物理人也想去搞deep learning
Deep learning and the renormalization group
https://arxiv.org/abs/1301.3124
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 04:03:28
→ : NN橫空出世那謀久了 文本分析主流還是SVM48F 05/10 03:58
推 : 我倒覺得做相關的學者幾乎都會湊一腳(拿來用 但背後的49F 05/10 03:58
→ : 數學目前如何了有誰在做就不知道了
→ : 數學目前如何了有誰在做就不知道了
→ : 因為目前試圖對NN進行數學分析的都吃了滿肚子大便51F 05/10 03:58
→ : 整個community應該是蠻care理論的 但畢竟那不是人人都52F 05/10 03:59
→ : 能做 只能等高人突破了
→ : 能做 只能等高人突破了
→ : 這有些時候也不是你能控制的 因為funding差異天與地54F 05/10 04:00
→ : 你只要能拉funding 其他缺陷學院幾乎都能忍受
→ : 理論? 乾 當全世界的人都相信的時候 理論還真的不太重要
→ : 你只要能拉funding 其他缺陷學院幾乎都能忍受
→ : 理論? 乾 當全世界的人都相信的時候 理論還真的不太重要
→ : 其實蠻重要的 上面那個theorem如果能給出明確的估界的57F 05/10 04:02
→ : 話演算法應該會有相當的受益 不然目前就是一個limit
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 04:09:37→ : 話演算法應該會有相當的受益 不然目前就是一個limit
→ : funding很難拉啦...59F 05/10 04:05
推 : 推分享文,所以你現在最感興趣的領域是什麼60F 05/10 04:06
推 : 圍棋那個人類書給電腦還算滿合理的吧61F 05/10 04:06
→ : 必然存在一個optimal policy 的情況下 人輸了才合理啊
→ : 以前只是不知道該怎麼有效率地找而已
→ : 必然存在一個optimal policy 的情況下 人輸了才合理啊
→ : 以前只是不知道該怎麼有效率地找而已
我野人獻曝一下,這裡面還牽涉到decision theory, linear programming,最佳化
數值,凸分析和統計,我是說machine learning光是這些數學系不太碰的數學就這麼多orz
主要應該是硬體進步了才能做到,但是能不能做到又是未知數,我認為今天全世界紅軟體
實在是因為硬體要突破有極大的困難和風險,我念了一些半導體製程發現物理人簡直無法
幫上任何忙XD,這不是說出一個牛頓,愛因斯坦來拯救世界
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 04:13:30
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 04:16:21
推 : 現在NN可以大量平行化 顯卡應該應該還可以爽5年64F 05/10 04:15
我是很意外發現矩陣計算可以用在分散式系統和平行計算,GPU甚至TPU,
這只是矩陣計算一直重複復興而已
雖然硬體不太知道細節,因為不太需要去懂電子電路和寫嵌入式程式,術業有專攻orz
但是這不也是一種資訊傳遞錯誤? 台灣人很執著在一堆名詞的堆砌,剩下幾乎就是亂扯
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 04:21:19
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 04:30:17
推 : 你不瘋狂時說的話還蠻中肯的...65F 05/10 04:34
推 : MatLab 現在沒錢買自學可以用 octave 阿 而且現在DL 還有 t66F 05/10 05:28
→ : ensorflow 算比以前簡單很多了
→ : 現在我看追求的都找不是統計 資工的人去找實際應用
→ : ensorflow 算比以前簡單很多了
→ : 現在我看追求的都找不是統計 資工的人去找實際應用
推 : 將來會是人類智慧結合ML稱霸。不過這領域還太新,沒69F 05/10 06:25
→ : 人知道怎麼做。把ML當過目不忘,十分細心的小孩,大
→ : 人靠智慧教小孩如何運用才智。
→ : 現在大概只是拿一疊棋譜給小孩,告訴他勝負規則然後
→ : 放手讓他自己融會貫通
→ : 人知道怎麼做。把ML當過目不忘,十分細心的小孩,大
→ : 人靠智慧教小孩如何運用才智。
→ : 現在大概只是拿一疊棋譜給小孩,告訴他勝負規則然後
→ : 放手讓他自己融會貫通
推 : 生科問題很明顯啊 造假造假還是造假74F 05/10 07:27
推 : 推75F 05/10 07:57
推 : convex optimization 有獨立的一門課,ML前必學工具76F 05/10 08:34
噓 : 扯一堆,最後要解釋還要人看別人的文章77F 05/10 09:04
→ : 那你幹嘛發這篇廢文
→ : 那你幹嘛發這篇廢文
→ : nn入門根本不用多少數學,你講的最佳化那些有幫助,但是那79F 05/10 10:27
→ : 時少數博班在搞的。現在的趨勢是盡快把現有nn的威力用到各
→ : 個領域,這是多數人都做得來的,報酬的期望值也不低於搞數
→ : 學的,像你svm數學觀念再透徹,你還不是要用libsvm,幾個參
→ : 時少數博班在搞的。現在的趨勢是盡快把現有nn的威力用到各
→ : 個領域,這是多數人都做得來的,報酬的期望值也不低於搞數
→ : 學的,像你svm數學觀念再透徹,你還不是要用libsvm,幾個參
liv svm的確是台灣人的驕傲,發明人林智仁教授的網頁也是比較偏向矩陣計算和最佳化
→ : 數調整的方向也不見得要知道那麼多數學才能調,拿dev set來83F 05/10 10:28
→ : 試就好
→ : 更別說到了nn,人的直覺根本跟屁沒兩樣,大部分參數沒個所
→ : 以然,大部分人走DL都是推薦工具先上手,多做實驗,有問題
→ : 再查文獻,實作精神才是擺在第一的,不要一開始就拿數學巨
→ : 石來砸自己的腳
→ : 試就好
→ : 更別說到了nn,人的直覺根本跟屁沒兩樣,大部分參數沒個所
→ : 以然,大部分人走DL都是推薦工具先上手,多做實驗,有問題
→ : 再查文獻,實作精神才是擺在第一的,不要一開始就拿數學巨
→ : 石來砸自己的腳
謝謝您的回答,我必須澄清一下,因為我的背景比較靠近數學,的確是會有誤導之
嫌疑,這一點還真的有點抱歉
→ : 補充一點:系統最佳化重要性也不亞於你說的數值最佳化,但89F 05/10 11:03
→ : 那些都是進階程度,沒在相關實驗室、相關研發部門找到工作
→ : ,就一頭熱鑽研那些絕學的下場不會太好
→ : 那些都是進階程度,沒在相關實驗室、相關研發部門找到工作
→ : ,就一頭熱鑽研那些絕學的下場不會太好
推 : 剛好讀完你講的PRML那本 只能說那是bayesian派的聖經92F 05/10 11:08
→ : 不見得是Machine Learning的入門磚 現在這股熱最大的
→ : 原因就是各種套件的發展 讓研究者可以非常快的入門 把
→ : 各式ML演算法套用到各領域的問題上 之後再補理論基礎
→ : 使非資工數學領域的人可以有一個比較穩定的學習曲線
→ : 覺得大家對做AI有一種錯誤幻想 以為很高大上 但還是
→ : 有一些給猴子做的工作 不是每個人都需要去改變世界
→ : 號稱做AI/ML 大多是調調參 解些跟風的業界問題
→ : 不見得是Machine Learning的入門磚 現在這股熱最大的
→ : 原因就是各種套件的發展 讓研究者可以非常快的入門 把
→ : 各式ML演算法套用到各領域的問題上 之後再補理論基礎
→ : 使非資工數學領域的人可以有一個比較穩定的學習曲線
→ : 覺得大家對做AI有一種錯誤幻想 以為很高大上 但還是
→ : 有一些給猴子做的工作 不是每個人都需要去改變世界
→ : 號稱做AI/ML 大多是調調參 解些跟風的業界問題
謝謝回答
推 : 跟風才好啊,想不出有什麼理由不跟風,要先跟得了風,才知100F 05/10 11:26
→ : 道哪些問題值得去解
→ : 沒跟過風,一出手就劃世鉅作,有這種人嗎?
→ : 道哪些問題值得去解
→ : 沒跟過風,一出手就劃世鉅作,有這種人嗎?
推 : 我的意思就是跟風是好的 總是要有人做這些事的 而基數103F 05/10 11:51
→ : 上升後 總是會有人去碰核心的東西 做出厲害的研究
→ : 上升後 總是會有人去碰核心的東西 做出厲害的研究
→ : 嗯嗯,認同105F 05/10 11:55
謝謝回答
※ 編輯: Schwinger (1.34.102.191), 05/10/2017 22:03:50
--
作者 Schwinger 的最新發文:
- 題目很簡單 直播一件事情,就是怎麼用複變函數論的真正的解析延拓方式嚴格證明 黃士修真的是欺騙數學版鄉民於股掌之間,我就是非常憤怒 黃士修如果你對我的指控非常憤怒,那三天後我們網路直播讓全國鄉民看看吧! …80F 40推 13噓
- 黃士修先生 首先我希望你要對鄉民的不誠實道歉,比如你故意包裝你做過黑洞熵,就我對你 廣義相對論的認識,我認為你只是一再欺騙鄉民和包裝 不然我們來直播黑洞熵,小弟我在2002年確實做過這個類似的小題目, …570F 327推 52噓
- 你的數學和物理程度超差,根本就不懂微分幾何和代數拓樸,根本就只是鬼扯瞎扯欺騙 鄉民一通,不服氣可以我們開直播看看誰被痛電? 你的老師應該會覺得你很丟臉吧? 畢業後去英國念書落賽後就放棄學業,然後小學 …844F 570推 59噓
- 土條昔日的主子洪秀柱主席又再次探望耶,我就好奇洪秀柱是教育背景出身,她也想要 選總統,但是有沒本事抹黑,所以聘請土條跟張亞中那些人搞一堆晴天蝸牛來弄垮蔡政府 柱柱姊超失控的網路策略 張亞中派集中經營側 …97F 25推 12噓
- 這不是超好笑嗎? 土條那群人是最討厭太陽花學運的人,還竄改林冠華維基百科 人死了還要被他嘲弄 諷刺的是土條這群國民黨無所不用其極破壞台灣民主,卻享盡了民主自由的好處 處處破壞民主卻又拿民主來說嘴 擁核 …47F 28推 8噓
點此顯示更多發文記錄
4樓 時間: 2017-05-11 23:48:06 (台灣)
→
05-11 23:48 TW
ML的演算法做出來後...就是給人用。真正厲害的演算法就那幾個,桂冠只有一頂。多數人就是微調參數,或是想辦法有好的data set去train。而那些演算法,大多數是數學系的傑作,資工系只是拿來用。要說多高深?抱歉,碼農們會想辦法寫到只需要呼叫三個function call直接回傳機率值讓你用。你也不用自己去自創(?)演算法。
回列表(←)
分享