iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 17
0
AI & Data

ROS新手挑戰AI&Data組系列 第 17

[ROS#應用篇]

  • 分享至 

  • xImage
  •  

#跟大家分享這本書的後半

對我來說,ROS的應用就是多看大家的應用,等到哪一天你想做自己的應用時,就可以東湊西湊完成,但入坑了這幾天,我發現這比我以前做的"小"專題還要燒錢…
因此在燒起來之前,多看多fork(?)高手前人們的精華!

ROS是開源的ROS是開源的ROS是開源的,所以程式碼有心就可以爬的到(?)或改一下
以下是本書介紹的應用(對我來說就像一塊拼圖般的重要):
/images/emoticon/emoticon02.gif
• 本書第十章要做出: 從拍攝畫面辨識人臉,然後讓機器人轉向人臉的位置。
這篇需要的材料有: USB鏡頭、Raspberry Pi Mouse(當然你要用其他材料代替也可)
這篇可以額外(?)學到: OpenCV
大致步驟:
1. UVC規格的USB直接插就可以用不需要額外驅動
2. 需要安裝的ROS套件有:
sudo apt install ros-kinetic-cv-bridge //ROS使用OpenCV所需套件
sudo apt install ros-kinetic-cv-camera //從鏡頭取得影像
sudo apt install ros-kinetic-image-transport-plugins //以TOPIC存各種影像格式
3. rosrun你的鏡頭node,開另一個終端rostopic echo
4. 撰寫 鏡頭輸出的影像匯入節點的node、辨識人臉的node、及時確認的node(含馬達)
5. roslaunch
6. rosbag recorerosbag play我們要的鏡頭圖像
7. rostest
/images/emoticon/emoticon16.gif
• 本書第十一章是要用語音控制機器人轉向或前進
這篇需要的材料跟上一篇一樣,所以鏡頭本身有含麥克風
這篇可以額外學到: Julius
大致步驟:
1. 安裝麥克風 sudo apt install alsa-utils
2. Julius設定: ROS.org_julius>移動到dictation-kit目錄>編輯modules檔>編輯alsa-base.conf檔>reboot後使用看看julius -C …
3. 自訂字典檔: 建立command.yomi檔
4. 節點: 啟動Julius的節點以及根據Julius辨識結果操控機器人的節點(含馬達)
/images/emoticon/emoticon06.gif
• 本書第十二章使用的技巧是rosbridge,為本課程[ROS#14]ROSbridge&URDF的應用
這篇需要的材料也沒有變
這篇可以額外學到: Bootstrap (是一組用於網站和網路應用程式開發的開源前端框架,包括HTML、CSS及JavaScript的框架)
大致步驟:
1. mkdir scripts contents,下載 Bootstrap到contents
2. 網站伺服器的node>launch檔
3. 寫HTML檔>寫連線傳輸>在網頁顯示鏡頭的影像>馬達ON/OFF子畫面
/images/emoticon/emoticon13.gif
• 本書第十三章為本課程[ROS#6]LiDAR(光達)介紹以及SLAM,而本課程的SLAM則偏向理論地介紹其演算法們,以及各個原理分析(go to :[ROS#8]SLAM & Navigation介紹[ROS#9]Laser Based 2D SLAM演算法實戰[ROS#10]Hector SLAM教學


上一篇
[ROS#準備篇/基礎篇]
下一篇
[AI#1]深度學習導論
系列文
ROS新手挑戰AI&Data組30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言