iT邦幫忙

2019 iT 邦幫忙鐵人賽

0
AI & Data

Voice App 開發實務:使用Diagflow+firebase開發Google home App (google assistant action)系列 第 31

#30 結語。

本來應該還要補 clova sdk 的一些api 例 跟 line 帳號的 account link等,
不過我累了,先結語了,而且雖然這是#30,但其實第31篇。
科科。


站在2018年底 看smart speaker發展,
或者該說是看語音助理技能的發展。

當然你可以從open source 的智能音箱套件開始,
所以你不用 OK google或是Alxea等,
但有很大的機會,
你開發的產品只會是自爽。

所以真的有興趣做 語音的開發,
最好還是跟著大廠Google , AWS , LINE ... 做語音技能的開發會是較明智的選擇。

那以技能開發,
妳要做的 就是先考慮那些環境下人們會選擇使用語音跟機器做溝通而不使用眼睛看,用手去滑。
因為,
純語音助理技能的使用者體驗是不可能做的贏APP的。
例如本篇
https://www.bnext.com.tw/article/50147/surprise-no-one-buys-things-via-alexa智慧音箱掀語音購物熱,卻有9成的人不用第二次 

因此,為什麼人們要用語音和機器溝通,而不是用手機,這才是首要條件。
例如:開車時, 做菜時,洗澡時,特殊工作環境時,或是可以用眼睛及手來做,但你不希望用眼睛及手來做,或是年紀大了,眼精不好使了,另外就是企業想要降低客服人力成本,例如點餐等等等。

滿足上述先決條件下的環境情況下,所開發的技能肯定使用者眾多。

而開發語音技能所滿足使用者的期待如下:
1.主動使用 並得到 所需反饋。例如 播歌
2.被動通知 時間到時通知 使用者。 例如 鬧鐘
3.結帳購買 得到所需產品。例如 電視購物

舉例 火車時刻的APP 來說明:
1.使用者主動查詢接下來的火車時刻=>主動使用
2.App通知火車及將來到=>被動通知
3.使用者可以付費完成購買車票=>結帳購買

基本上語音技能只要能做到上述一件使用者期待就可以了。

雖然2018年底,是在開發語音[助理技能];
但我相信沒幾年,
就會成為執事技能,管家技能,秘書技能。
差別在那裡呢?

和目前的助理solution不同點在於,大廠A.I.可以主動檢視技能商城所有技能,
主動提供當下你所需的技能。
例如:你走在公車站牌旁,叫了聲OK Google,下一秒 Google Assistant 就會告訴你,等等5分鐘 265將到站...

然後再幾年正式從助理進化為師(醫師 建築師....)
有什麼不同呢?
以前都是你問助理,或助理提供你,但成為 [師] 之後,
當然就是教你囉!

到那一天,誰是機器人,誰是人類啊!

遠目~


上一篇
Line clova-cek-sdk-nodejs 撰寫clova skill #29 導入
系列文
Voice App 開發實務:使用Diagflow+firebase開發Google home App (google assistant action)31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言