昨天簡單的介紹了Jetson Nano, 那它到底強大在哪?
這邊用一個範例來說明:
Openpose是一套偵測人體的演算法, 最早由 Carnegie Mellon University(CMU)的論文產出, CMU的電腦科學很強, 有興趣的同學也可以想辦法申請一下。最主要這個AI的演算法用來偵測人體的肢體動作, 如跳舞、運動姿勢或老人家是否跌倒。
但既然是即時偵測人體, 所要耗費的資源可以想見非常龐大, 基本的硬體要求如下:
CUDA (Nvidia GPU) version: NVIDIA graphics card with at least 1.6 GB available (the nvidia-smi command checks the available GPU memory in Ubuntu).
At least 2.5 GB of free RAM memory for BODY_25 model or 2 GB for COCO model (assuming cuDNN installed). Highly recommended: cuDNN.
OpenCL (AMD GPU) version: Vega series graphics card At least 2 GB of free RAM memory.
CPU-only (no GPU) version:
Around 8GB of free RAM memory. Highly recommended: a CPU with at least 8 cores.
小編的電腦跑不動(8核筆電貴貴的), Pi也不行(只有4核), 只能用Jetson Nano來跑跑看了, 當然結果不甚理想, 甚至畫面會卡頓。
於是這裡用簡單版來做實驗:
首先在Jetson的環境下, 下載tf-openpose
git clone https://github.com/ildoonet/tf-pose-estimation
最後結果如下, 是不是很有成就感?