整理各式DL/ML有趣小新知、舊聞、資源以及想法
看完之後並不會提升任何DL/ML專業能力
最多發出一聲"喔~好喔"的不屑敷衍聲然後發現開啟社群軟體還是比較有趣的忽略本系列
但在邊緣人聚會裡倒是可以用來提幾個的超冷小知識讓自己不那麼邊緣
如果你是萌新又真的不幸地不信邪地翻完本系列
那麼你打開深度學習領域的方式大概錯了QQ
建議怠惰一下再重新開始
或者照個強烈白光也可
前言 HIHI~各位,我阿峻啦~聽說每段旅程開始之前都會有有段引言出現在背景,可能是一個言簡意賅的summery,也可能是吸引眼球的標語。但這個系列沒有這麼厲...
前言 曾經有句聽蠻多次的話是這樣說的: 工欲善其事,必先利其器------ 書上寫的 在我們開始投入這個令(ㄨㄢˋ)人(ㄐㄧㄝˊ)振(ㄅㄨˊ)奮(ㄈㄨˋ)的...
前言 人心中都會有夢,但能不能講給你家的貓聽懂又是另一回事,說不定,你講得再多,他就當你只是產屎的-----阿峻 20190919 無論今天我們想要作甚麼...
前言 例行性的、不免俗先來個阿峻語錄; 想要吃泡麵不需要先去劈根竹子作筷子--- 阿峻 20190920 在我們建構我們的想法過程中,我們常常會陷入一種瘋...
前言 一天一度的阿峻名(ㄈㄟˋ)言(ㄨㄣˊ)又來了 有那個時間練Model,不如拿來打Tenno-----阿峻 20190921 你們想想,GPU買來,不...
前言 總算開始了一個跟DL比較有關係的名詞啦(?)一直以來科學家總想模仿動物的大腦來做AI結構,所以或多或少你們會看過科學家研究貓的腦部來知道大腦的哪個部分是...
前言 總算來個阿峻廢言 想蓋一個伐木場,你的伐木工要先"七哈"個100個木頭 -----阿峻20190923咱們今天要來介紹CNN網路的...
前言 今天我們要來繼續 CNN 的前行計算之路(Forward)所需要用到的計算模式,會順便提一下在 Pooling 以及 Activation 上不同的選擇...
前言 CNN 的前行計算之路即將來到終點,即將完成整個前行計算(Forward),有了 Convolution 計算、Pooling 以及 Activatio...
前言 正所謂 知錯能改,善莫大焉。就像是這次被甩左邊的耳光會痛,下次可以試試看右邊-----阿峻20190926 NN model 在計算的過程中,把Pr...