昨天我們聊到了AI在1987-1993年進入了第二次寒冬,而這段期間裡AI成了過街老鼠人人喊打,導致許多專注AI領域的實驗室與研究學者們紛紛把名子改成自動化設計或是最佳化系統等等。那麼今天我們就來聊聊AI是如何度過第二次寒冬並且再次發光發熱的。
實際上每一次AI的復甦都絕非單一事件造成的,中間都是累積了許多新的進展與突破,再加上時空間環境的改變所造成的結果。
這段時間在計算機軟硬體性能不斷的突破下,各項領域如大數據、機器學習、雲端計算等等均有了大規模的突破發展,而這段時間內在AI領域也有了許多劃時代的成功,例如:
AlphaGo
Go是日文裡「碁」(也就是圍棋之意) 字發音轉寫,也是是圍棋的英文名稱,而AlphaGo是由倫敦一家叫做倫敦DeepMind的公司(已被Google收購)在2014年開發的AI圍棋程式。
在2016年的三月,AlphaGo與南韓棋王李世乭進行了五場人機大戰,AlphaGo的部份由黃士傑擔任棋手下棋,並且在最後AhphaGo拿下了四勝一敗的戰績。此場大賽讓AlphaGo一戰封神,再那之後AlphaGo又陸陸續續的挑戰了許多頂尖的職業棋士,更進一步的開發出了強化版本的AlphaGoZero。
為什麼AlphaGo的勝利會帶來如此高度的熱潮呢?
有些人會問說,AI不是在1997年就下贏了西洋棋冠軍了嗎?
這邊我用簡單一點的方式來稍微比較一下西洋棋與圍棋在AI眼中的規模:
西洋棋以格子數以及規則來看,複雜度約為10的46次方;
而圍棋在一個19x19規模大小的棋盤上,雜度約為10的172次方。
也正式因為圍棋在規模上實在太大,因此要讓AI在圍棋上能夠打贏人類,
不但需要足夠的硬體運算力,在軟體上更需要的是能夠快速且精準的計算方法。
(2002年棋靈王就已經預告了這一天的來臨)
不知道大家小時候有沒有跟快譯通或是電腦上跟電腦下過圍棋的經驗,如果有印象的話,每次只要把電腦的難度往上調整,就會發現每下一步,電腦就要進入非常久的思考時間後才會落子,這正式因為難度越高的電腦,預設上就是會在每一步之前考慮更多後續的棋勢可能性,也因為運算力不夠的關係,才會導致每下一步都可以去泡個茶再回來等電腦下。
那我們談回AlphaGo,AlphaGo背後其實有多個演算法再做運算,但主要來說我們可以說他是以深度學習 (Deep Leanring, 簡稱DL)與蒙地卡羅數搜尋 (Monte Carlo tree search, 簡稱MCTS)為主體,也正是因為這樣,在AlphaGo一戰封神之後,機器學習/深度學習瞬間成為各大公司企業的寵兒,並再次進入了大AI時代,也造就了現在許多人認為AI就是機器學習/深度學習這樣的誤解觀念。
而隨著AI再次的大紅大紫,也有許多人開始質疑這是否是AI進入第三次寒冬的前兆,畢竟前面兩次的寒冬前也是前途一片光明未來不可限量的感覺。但以目前來說,大部分的專家學者還是抱持著相對樂觀的態度,畢竟現今科技發展一日千里,不論是軟體或硬體都已經在一定程度上大大的加速了AI發展的進程,而AI也已經在許多方面實踐了高效能且實用的發展。未來究竟會迎來另一波的高潮,亦或是進入第三次的寒冬,
終於把故事講完了...明天開始我們來聊聊比較技術一點的部份,或是放棄連載裝死(暈)