【AI數據處理的策略思考】 發展安防監控,從數據開始助攻

更新日期:2020年12月18日

圖片來源:shutterstock

AI監控的應用千變萬化,要及早實現應用落地,必須從源頭出發,釐清數據的揀選與標註需求,對症下藥才能有效提昇AI精準度

自從安防監控產業開始AI化,市場商機進一步擴大。根據研究機構《Marketsandmarkets》預估,2023年全球影像監控市場的產值,將以每年13.1%的速度增長,從2018年的368.9億美元,成長至683.4億美元。安防監控浪潮已至,企業如何早一步實現AI應用落地?

推薦閱讀:千餘家商場導入AI鏡頭,沃爾瑪要揪出順手牽羊行為

在台灣,智慧安防監控的發展相對成熟,食、衣、住、行、育、樂,任何你想得到的人類基本生活需求,只要加上「安全」,就有機會成為一門商機。小至行動裝置上的指紋及人臉識別解鎖,即時辨識大樓入侵者的保全示警系統,家中人物或動物的行為監測,甚至是高齡者長照,皆可透過即時反饋現況,守護使用者的安全。

日本政府在天皇即位大典時便曾利用人臉識別AI,判定各國來訪政要的身分,協助維安;2020年東京奧運也預計利用AI人工智慧技術,目標達成橫跨9大縣市、40個競技場,賽事期間預估來場者超過1,000萬人的國家級維安任務。

而在百貨、零售賣場、健身房等涉及消費行為的經濟場域,智慧安防監控則被來監測人流與動線,以及消費者的年齡、性別、肢體行為等客情分析,以利精準行銷。從食品安全一路往上推,源頭種植時如何少用農藥到智慧農業災損確認,也都可以廣納在智慧安防的應用領域裡。

推薦閱讀:智慧農業上看185億美元,AI數據成數位轉型關鍵!

安防方面的運用,一定要同時整合軟硬體,才能奏效。所以,如何把「AI x 安防」整併到既有的硬體產品裡,也成了台灣不少科技業、製造業瞄準的目標。

依場景而變化萬千的AI安防監控

與其他產業相比,因為學習情境多發生在特定室內環境,智慧安防監控的大數據訓練,在場域的變易性不大。目前市面上已有開放資料集(亦稱:開放數據 Open Dataset)可供使用,但企業因為各家應用場景不同,會以此為基底再餵給AI特定應用場域,例如百貨商場、大賣場的電腦影像數據,便可更快開發出符合自家商業模式的機器學習模型(Machine Learning Model)。

因為環境的光線、明暗等原因影響,使得實際場域的數據更為重要。而一樣是看「人流」,在百貨公司大門口、櫥窗前、手扶梯所需的「數據型態」就會天差地別,後續AI發展重點和演算法也截然不同。所以對於問題的定義,也要格外清楚

在某些安防領域裡,收集數據會是一大挑戰。當使用情境會和個人隱私相關,如何持續收集且累積獨特性,便成為發展安防數據策略的第一關。

Tomofun是個值得參考的例子。初期創業,Tomofun執行長張友誠他本來是賣硬體的攝影機,後來轉向變成主打狗狗保全的「狗保姆」訂閱服務。從硬體走向軟硬整合,他學到,最重要的就是「全力了解、驗證消費者的使用情境」。

像Tomofun的切入點在於守護狗狗的居家安全,這類數據就會涉及用戶住家隱私。當機器要辨識狗狗吐了或嗆到,這類影像也不可能在主流社群平台上撈得到。Tomofun 想到的方法,就是讓用戶們成為「數據的共創者」,不定期在社群平台邀請用戶提供。因為用戶知道,提供這些數據都是為了讓狗兒們得到更好的照顧,而Tomofun也得以透過上萬支珍貴的影片,訓練模型(Model)。

出發:以始為終的數據思維

當訓練機器學習模型(Machine Learning Model)的大數據來源穩定,進到機器學習的階段,首要任務是讓AI學會辨識人、動物和其隨身物件。學會辨識物體之後,再往兩大辨識方向延伸學習:

  1. Tracking: 目標對象的連續性,追蹤移動路徑

  2. Action: 目標對象的肢體行為

AI起步階段,光是要讓機器模型精準的辨識出什麼是「人」,就讓企業煞費苦心。接下來這個案例,或許可以提供一些靈感。

在我經手過的大數據處理專案中,有客戶表示自家內部標註後訓練的AI模型精準度不理想,因為常把人攜帶的隨身物品,例如棉花糖、氣球、帽子等圓形物體,誤認成「人頭」,請我們協助提供校正用的數據。經過討論後發現,失敗的關鍵因素可能是客戶當初使用的「數據不夠精確」。

因為人頭是圓形的,當目標對象(人)的身旁出現圓形物體,或者路人的頭部被一起框進去時,就會讓機器誤以為「圓形的物體=人頭」,因此學歪。

於是,我們與客戶討論,在收集新一批圖資時,可以改變舊有的蒐集策略,讓圖資情境盡量單純化,也進一步協助客戶釐清想讓機器學習的關鍵特徵,改以「靶心策略」實踐標註原則。

意思是,先區分出要被標註的關鍵人體範圍(靶心)和可以取捨掉的部位,之後我們建議客戶以不納入周圍雜訊為主,進行精準拉框(Bounding Box),確保關鍵範圍的標註細緻度。事成後客戶向我們回饋,這批數據進演算法訓練後,成效確實提升許多,成功解決機器偏誤的問題。

圖片來源:簡季婕

省時省力,試試優化原則

有時候,想要讓機器模型做到更好的表現,需要找出一些「不尋常」的解法。

例如,客戶希望達到的學習目標是「辨識兩者是否為同一個人」,若按照人類的思維邏輯,要辨識、追蹤一個人的移動路徑,除了性別和年齡之外,還需要透過觀察他的髮型,身上的衣服款式、顏色、配件才能做到。

但如果拿這些繁雜的條件作為特徵讓機器學習,開發團隊勢必要耗費很多時間精力。所以我開始思考:「還有什麼方式,可以讓客戶學習得更快更省力?」

最後,我跟團隊想出了一個創意解決方法,建議客戶與其用人的思維慣性去訓練機器,不如直接讓機器用他最擅長的思維方式,也就是用「參數」來辨識人! 如此一來不僅省事、也提升了辨識的生產效率。

善用機制,為標註良率把關

在智慧零售的場景裡,客情分析的專案愈來愈多,需要從大量的人像中,判斷出哪幾位屬於A群客戶,哪幾位屬於B群客戶。

在進行這一類的專案,我們會預先進行內部模擬測試,讓專案相關人員針對照片進行比對。幾次下來,我們發現:礙於圖片模糊、遠近、角度以及配件遮擋等原因,即使是累積了上百個不同領域的AI數據處理專案經驗的執行團隊,平均答對率竟然不超過70%。但客戶要求的良率很高,該如何解套?

除了事前的教育訓練,我們選擇同時從流程下手,「投票系統」(Voting system)來解決。當拉完框的圖資進入到比對階段時,便啟動投票系統,讓多位受過訓練的專業標註師,同時判斷同一張有爭議的人像,以降低個體認知上的偏差。

而涉及到行為分析相關的專案,則是透過標註關節點(Key Point)來辨識人體或動物的行動,一般來說會分成17個關節點(多則會達到25點以上)來標註。

圖片來源:簡季婕

只是點幾個點,聽起來好像很簡單,但其實不然。比方,移動中的人體骨骼關節起始點在哪裡?或者當手臂被物體遮擋時,該如何判斷活動關節的下點位置?在標註狗或貓時,也會因為關節位置不同,以及肢體延展的範圍差異(很少人會知道,貓的肢體比狗還柔軟),導致很容易誤判。這些都需要有綿密的原則制定以及教育訓練,才能夠妥善把關品質。

AI應用的數據類型百百種,標註平台工具及方法也需跟著優化,才能確保高效、穩定的產出。從專案的源頭下手,釐清所需要標註的物體讓精準數據助攻,早一步完成AI落地的夢想藍圖。

責任編輯:陳建鈞

主文來源:數位時代

ECDA資料中心編輯