最近想做個應用: 每個設備大約一到兩個鏡頭(設備無實體IP), 使用者可在網頁上選擇要看到的鏡頭即時影像, 只需影像不需聲音, 也不需要儲存, 一對一或是多人都可以.
因為對這塊不熟悉, 目前是用Python將鏡頭的影像一張一張的轉成base64, 然後用Websocket方式送到網頁上呈現 這樣做測試下來雖然沒什麼延遲, 但即使將畫質調到非常低和FPS都只剩15, 傳輸率仍然有150 KB/s左右, 不知道是不是需要做什麼影像壓縮處理, 但這部分沒什麼頭緒. 且目前是只有用一個鏡頭做測試, 不確定這種做法在鏡頭多的時候是否適合.目前也有嘗試在架設WebRTC Server, 但遇到不少瓶頸仍在架設中, 也不確定WebRTC是否適合這個應用?
現在做到有點迷失方向, 所以嘗試找了類似的應用, 目前找到類似的是線上夾娃娃, 觀察了應該是現在規模最大的抓樂霸Toreba一陣子. 他們一台機子配兩個鏡頭, 大約有一千三百多台機子Online, 等於說有快三千個鏡頭, 影像延遲度都非常低, 傳輸率大約3x~5x KB/s.
很好奇是他們在影像傳輸部分是用了什麼樣的技術?大概是怎麼做到的?