討論:你是否遇到過你完全不能理解的機器學習概念?

.. 俗話說:隔行如隔山。但就算同一座山,有的時候因為「山」太大,未能爬到頂峰的人往往很難一窺整座山的全貌。這不,雷鋒網在Reddit的機器學習版塊就發現了一個很熱烈的討論,題目叫做:「機器學習專業的研究僧們進來說一說,你是否遇到過你完全不能理解的機器學習概念(Those who are working professionally in ML and/or academics who have completed graduate-level coursework in ML: Are there any ML concepts that you don't quite fully grasp?)?」在問題下也有不少有意思的回答,雷鋒網整理了部分回答,與機器學習的「煉丹師」們共勉。

排在最前面的是@Leonoel講述的一個高票故事:

「故事時間。

我喜歡和我的學生講這個故事來激勵他們,同時也希望能減輕他們的『不懂裝懂綜合症』。

在NIP 2013上,當時有一位演講者的演講我完全聽不懂。這是我博士的最後一年,這讓我產生了警覺。我開始感覺很糟:作為一個新出爐的博士,我竟然沒有能從NIPS的主題報告中學到任何東西!

當時坐在我旁邊的兩個朋友,其中一位是UC Berkeley的Michael Jordan,另一位在波士頓和Andrew McCallum一起做研究。這兩位教授在機器學習界的大名如雷貫耳,所以我想當然的想,他們應該從這個報告中學到不少東西。

但最後,他們告訴我,他們同樣聽得一臉懵逼。

這個故事的含義是:機器學習是一個巨大的領域,如果你在你自己的領域花了足夠多的時間,你很有可能難以對其他領域了如指掌。不要浪費你的時間去了解每一件事情。

還有另一個例子:我有個朋友是普林斯頓的數學家,但他從來沒有理解過機器學習背後的數學,因為他主要是做數學理論研究的。」

在這個回答下,網友@iamiamwhoami做了補充說明:

「你在應用領域社區混久了就會感覺到,有的人真的是不怎麼擅長解釋他們的研究。」

@gionnelles也做出了類似的回答:

「如果有人聲稱他了解機器學習領域的所有東西,這絕壁是撒謊或者是錯誤的。機器學習領域太過廣泛,研究進展太快,這意味着人們可以成為直接接觸他們所在細分領域的專家,並聰明地討論其他部分,但總有新的東西值得學習。」

甚至一些機器學習基礎的重要理論如RNN和反向傳播理論,不少人也表示有諸多理解難點,例如網友@klop2031就這麼說:

「RNN的遞歸怎麼繞,以及反向傳播如何通過時間起作用,對我來說仍然一團亂麻。我仍然需要通過數學方式來理解,同樣,對比分歧的原理如何我也不大清楚。」

好不容易弄懂了反向傳播,卻發現Hinton老爺子又有了新理論。@wdroz是這麼說的:

「要想時刻跟隨並理解機器學習的最新潮流很難,尤其在深度學習領域更是如此。舉個栗子,我讀了好些關於Capsule網絡的介紹,但我還是無法理解其工作原理。」

@debau的回答讓我們感到了深深的絕望:

「我希望我能理解我自己的論文...」(這就過分了吧...)

也有賣萌的,比如網友@oursland的回答:

我曾經做到了這一點。然後我又把所有東西給忘掉了(雷鋒網按:@oursland這裡用的是機器學習中的「災難性遺忘」的梗)。這當中一定有一套炒雞糟糕的超參數,或者其他的什麼東西作怪。:V

網友@andyspl也聲稱做到了這一點:

「握爪!我試圖將這些東西寫下來,但我的筆記本邊上的空白太小啦~」

(費馬大定理:「我確信已發現了一種美妙的證法,可惜這裡空白的地方太小,寫不下......」)

嗯,以上的笑點,只有做機器學習的理科男才懂......

而得票最高的是Reddit網友@stochastic_gradient富有哲理的回答:

「沒有人會完全理解(機器學習的所有概念)。每一篇發表在Arxiv的論文所講的,實際上都是作者已經理解、但之前從未有人理解過的東西。

做機器學習研究,的確100%的是一件你需要和你不能完全理解的東西打交道的事兒。任何吸引你的事情都源於你對它的不了解,矛盾的是,即便人們知道解釋這些事情是他們的工作,但他們仍然會對此有很大的不安。」

這或許也正是機器學習的迷人之處吧。

對於這個問題,現在正在機器學習路上的你又有什麼看法呢?如果你想了解關於該問題的更多討論,請點此前往Reddit


想在手機閱讀更多中國內地資訊資訊?下載【香港矽谷】Android應用
分享到Facebook
技術平台: Nasthon Systems