人工智慧對系統的效能要求很高卻大多不支援分散式運算,即模型線下訓練,之後佈署到伺服器或終端設備上進行線上預測。
而常見分散式運算框架,目前還無法處理毫秒等級的延遲要求,例如 MapReduce、Apache Spark。
而各種結構與非結構性資料量愈來愈多樣化,運算逐漸集中到雲端或者由手持裝置進行資料蒐集,各式 AI 晶片也越趨成熟。
Nvidia GPU 的浮點運算、平行運算非常適用於深度學習神經網路;而 Google 推出的 AI 晶片(Tensor Processing Unit, TPU)速度又更快。
新的技術出現都是為了處理尚未解決的問題,分散式運算及 AI 晶片,相信未來會有更多選擇。