一旦巨量數據處理不是桌上的模擬測試場,而是在真實世界物理環境中,就並不單單只是演算法與軟體程式的耗能運作CPU而已,基礎建設設施的適切性,占了很原生的重要地位!
要以Computer Vision電腦視覺收集的大量影像,當作Deep Learning深度學習的資料來源時,在比分析影像之前、還更前面的蒐集影像階段,有一件影響後續資料正確性和準確度的,就是:
1.性能良好的攝影機
2.流暢的數據流
3.穩固的支架
尤其高階攝影機,雖然機身有掛點(mount point),但通常沒有專門拖住鏡頭在車上的支撐點,
車上一直震、一直晃,拍到的影像不能看,那也是枉然!
巨量數據處理流程有個著名的準則叫做「E-T-L」,ETL不是單指某軟體系統(雖然軟體系統有此機能)、不是某種單一軟體功能(雖然有些套裝軟體會把它一站式做掉),
ETL是資料處理三個動作的字頭縮寫:擷取、轉換、載入
所以在擷取階段收集原始資料(raw data),影像辨識當然就是原始影像,
良好的原始影像來自良好的輸入源硬體,尤其是要辨識各種天候的真實道路,真實上路;
在2016年9月Udacity第一屆(或者也是世界上第一屆)的Open Self-Driving開放課程中,使用以下的攝影機和鏡頭:
Blackfly GigE Camera (BFLY-PGE-23S6C-C):
https://www.ptgrey.com/blackfly-23-mp-color-gige-poe-sony-pregius-imx249
Technical Specifications:
1920 x 1200 at 41 FPS
Sony IMX249 CMOS
CMOS尺寸規格 1/1.2"
Global shutter
Color
C-mount
Fujinon 12.5mm focal length C-mount lens (Fujinon CF12.5HA-1)
http://www.fujifilmusa.com/products/optical_devices/machine-vision/1-15-mp/cf125ha-1/
焦長 12.5mm
光圈 手動式 F1.4-F22 ( 比很多拍妹紙的單眼相機廉價鏡頭還大光圈 )
對焦距離:無限遠到 0.1m
視野視角:水平約54度13 ,垂直約 41度01 (接近肉眼專注區的視野和物體透視角 )
(補充編輯中......)