#跟大家分享這本書的後半
對我來說,ROS的應用就是多看大家的應用,等到哪一天你想做自己的應用時,就可以東湊西湊完成,但入坑了這幾天,我發現這比我以前做的"小"專題還要燒錢…
因此在燒起來之前,多看多fork(?)高手前人們的精華!
ROS是開源的ROS是開源的ROS是開源的,所以程式碼有心就可以爬的到(?)或改一下
以下是本書介紹的應用(對我來說就像一塊拼圖般的重要):
• 本書第十章要做出: 從拍攝畫面辨識人臉,然後讓機器人轉向人臉的位置。
這篇需要的材料有: USB鏡頭、Raspberry Pi Mouse(當然你要用其他材料代替也可)
這篇可以額外(?)學到: OpenCV
大致步驟:
1. UVC規格的USB直接插就可以用不需要額外驅動
2. 需要安裝的ROS套件有:sudo apt install ros-kinetic-cv-bridge
//ROS使用OpenCV所需套件sudo apt install ros-kinetic-cv-camera
//從鏡頭取得影像sudo apt install ros-kinetic-image-transport-plugins
//以TOPIC存各種影像格式
3. rosrun你的鏡頭node,開另一個終端rostopic echo
4. 撰寫 鏡頭輸出的影像匯入節點的node、辨識人臉的node、及時確認的node(含馬達)
5. roslaunch
6. rosbag recore
與rosbag play
我們要的鏡頭圖像
7. rostest
• 本書第十一章是要用語音控制機器人轉向或前進
這篇需要的材料跟上一篇一樣,所以鏡頭本身有含麥克風
這篇可以額外學到: Julius
大致步驟:
1. 安裝麥克風 sudo apt install alsa-utils
2. Julius設定: ROS.org_julius>移動到dictation-kit目錄>編輯modules檔>編輯alsa-base.conf檔>reboot後使用看看julius -C …
3. 自訂字典檔: 建立command.yomi檔
4. 節點: 啟動Julius的節點以及根據Julius辨識結果操控機器人的節點(含馬達)
• 本書第十二章使用的技巧是rosbridge,為本課程[ROS#14]ROSbridge&URDF的應用
這篇需要的材料也沒有變
這篇可以額外學到: Bootstrap (是一組用於網站和網路應用程式開發的開源前端框架,包括HTML、CSS及JavaScript的框架)
大致步驟:
1. mkdir scripts contents,下載 Bootstrap到contents
2. 網站伺服器的node>launch檔
3. 寫HTML檔>寫連線傳輸>在網頁顯示鏡頭的影像>馬達ON/OFF子畫面
• 本書第十三章為本課程[ROS#6]LiDAR(光達)介紹以及SLAM,而本課程的SLAM則偏向理論地介紹其演算法們,以及各個原理分析(go to :[ROS#8]SLAM & Navigation介紹、[ROS#9]Laser Based 2D SLAM演算法實戰、[ROS#10]Hector SLAM教學