Avnet Asia Connect
 

Xilinx AI 讓邊緣工業 “沒有最智慧,只有更智慧”




全球範圍內,每年會安裝數千萬個 IP 攝影機。如果我們假設全球已經安裝了1億個IP 攝像頭(保守估計),且每台攝影機都在7x24x365 (當然也有可能上是366)的工作頻率下以30fps 的速度採用非智能方式傳輸H.264 編碼高清影片,那麼,每年所需的總頻寬將為約859Tbps 或3.4ZB。如果這些攝影機中有一半連接至雲端,就表明IP 攝影機的互聯網流量目前可能佔全球總互聯網流量的 1/12 以上。顯然,這些數字都是估值,但它依然可以形像地描繪出眼下問題的規模之大。

只有將這些數據儲存起來以供將來檢索和檢查,或者利用人工或算法進行全天候不間斷的視頻監測,這些數據才能提供有意義的洞察。人們只需採集那些能夠受監測並可提供深度情報的像素。因此我們或許可以認為,將全部上述海量影片數據傳輸並儲存這種天真的想法效率實在低下。而這也讓我想起 Bruce Cockburn 的名言:“如果森林裡有一棵樹倒下,會有人聽見嗎?有沒有人聽到森林倒下的聲音?”。

過去數年中始終有一種趨勢,就是通過自主 AI 算法監控視頻並發送警報。無論其目標是確保家庭或孩童的安全、探測犯罪行為、探測交通事故或化學品洩漏、確保患者安全、翻譯手語,還是用人臉識別取代“人肉”打卡以將病毒的接觸性傳播降至最低,似乎總有一款訓練有素的AI 模型可以支持這些應用。

為了降低儲存成本,業界已經從 H.264 轉移至 H.265,同時,業界也在考慮如何通過雲端 AI 處理解決電力和頻寬成本。通過在網絡邊緣部署高效 AI 推斷,我們可以從這些可視化數據中獲取有益洞察,並精確決定對其進行編碼與傳輸進而儲存的時間、方式以及具體數據內容。這樣豈不是“更加智能”嗎?

舉個例子:賽靈思與安森美半導體合作開發的全新 SmartCamera+ 演示平台,可實現低延遲人臉檢測和影片編碼,最高可達 200fps,且功耗低於 10W (Ta=60C)。





該平台提供了充足的 AI 推斷性能,不僅能夠處理單個視頻流,還可以處理多個視頻流。 MPSoC 器件中的片上 VCU 可以支持多流同時編碼和解碼,並且在此前提下也可以支持傳統方式佈局 IP 攝影機數據的 AI 推斷:



如果您將此功能與賽靈思的感興趣區域 (ROI) 編碼和多裁剪 IP 相結合,我們的技術便能支持您只將應該儲存或重新查看的數據傳輸到雲端中。換言之,如果森林裡的一棵樹倒下了,一定會有人聽見。

現在,我們可以回答最初提出的問題了:“數據到底是終極目標,還是一切的開端?”。我的答案是——毫無疑問,數據只是一個開端,是一種達到目的的手段。至於製造商如何在這些數據的傳輸和儲存方面採用“更智能”的方式,他們的舉措將決定他們的命運。但是相信我,我們確實可以讓您“更智能”!

如果您希望申請體驗 SmartCamera+ 演示,就給小編留言吧。



閱讀原文

avnet.com/apac  
Copyright ©2020 Avnet, Inc. All rights reserved.