2分鐘論文 | 用 谷歌「AI可解釋性」 看懂機器學習

雷鋒網按:這裡是,雷鋒字幕組編譯的Two minutes paper專欄,每周帶大家用碎片時間閱覽前沿技術,了解AI領域的最新研究成果。

原標題 Building Blocks of AI Interpretability - Two Minute Papers #234

翻譯 | 陳曉璇    字幕 | 凡江    整理 | 吳璇  逯玉婧

誰再說神經網絡是黑盒,甩出這篇文章,給TA翻個白眼。

上周,谷歌Jeff Dean在推特上轉發了一句話「還認為神經網絡是黑盒嗎?要不再想想 :) 」。

還配上了《紐約時報》一篇名為《谷歌研究人正在搞懂機器學習》的文章。

點進這篇文章發現,Jeff Dean意指論文《The Building Blocks of Interpretability》(譯名:可解釋性的基石)在神經網絡可視化方面的新進展。

研究由谷歌大腦研究員Chris Olah帶隊完成,創建了一套神經網絡可視化方法。

左圖:可以被神經網絡識別,比如說,告訴我們圖片里有沒有花瓶或檸檬。

右圖:神經網絡中間層的可視化呈現,能夠檢測到圖片中的每個點。

看起來,神經網絡正在檢測,像花瓶的模型以及像檸檬的物體。

論文將獨立的神經元、分類歸屬與可視化結合,從而提供一種理解神經元的方法。

我們通過觀察「神經元可以被哪些圖像激活」,「神經元在找哪些圖像「、「神經元判定這個圖像屬於哪一類「,可以判斷出「神經元的最終決策及貢獻值「。

這個過程減少了神經元的總數,並且將神經元分解成一些小的語義組,得出有意義的解釋方法。在論文中被稱作「因式分解「或者「神經元分組」。通過做這項工作,我們可以得到高度描述性的標籤,賦予它們直觀的含義。

現在我們把一張圖片放到拉布拉多組,神經網絡開始觀察拉布拉多的耳朵、額頭、嘴巴還有毛髮的組合。過程可以由一個活動地圖來展示,通過觀察,我們可以輕鬆看到神經元群組興奮點。

我們這裡僅僅概括了論文的表面含義,論文中還有許多其他的成果和互動的案例供大家賞析。

論文原址 https://distill.pub/2018/building-blocks/


更多文章,關注雷鋒網 雷鋒網

添加雷鋒字幕組微信號(leiphonefansub)為好友

備註「我要加入」,To be an  AI  Volunteer !



想在手機閱讀更多Google資訊?下載【香港矽谷】Android應用
分享到Facebook
技術平台: Nasthon Systems