今年,人臉防偽(wei) 、人臉識別依然是全球計算機視覺頂級會(hui) 議CVPR2020(即IEEE國際計算機視覺與(yu) 模式識別會(hui) 議)的熱門主題,數篇論文被收錄,其中,明略科技集團明略科學院與(yu) 中科院自動化研究所、奧盧大學、AIBEE等合作的3篇論文被接收(兩(liang) 篇為(wei) Oral)。在CVPR2020 ,由中科院自動化研究所模式識別…
今年,人臉防偽(wei) 、人臉識別依然是全球計算機視覺頂級會(hui) 議CVPR2020(即IEEE國際計算機視覺與(yu) 模式識別會(hui) 議)的熱門主題,數篇論文被收錄,其中,明略科技集團明略科學院與(yu) 中科院自動化研究所、奧盧大學、AIBEE等合作的3篇論文被接收(兩(liang) 篇為(wei) Oral)。在CVPR2020 ,由中科院自動化研究所模式識別國家重點實驗室主辦的ChaLearn Face Anti-spoofing Attack Detection Challenge人臉防偽(wei) 檢測挑戰賽上,由奧盧大學與(yu) 明略科學院深度學習(xi) 實驗室等組成的團隊,斬獲多模態賽道冠軍(jun) 和單模態賽道亞(ya) 軍(jun) 。人臉防偽(wei) 是、活體(ti) 檢測是人臉識別應用中最重要的一環,人臉防偽(wei) 的方法能夠抵禦不法分子通過照片、麵具等手段對人臉識別係統進行攻擊從(cong) 而牟利,是一項非常有落地實用價(jia) 值的研究領域。而ChaLearn Face Anti-spoofing Attack Detection Challenge是近年來活體(ti) 檢測、人臉防偽(wei) 領域最熱門的比賽,吸引了眾(zhong) 多全球知名CV大廠、明星創業(ye) 公司和頂級院校團隊參與(yu) 。
此次挑戰賽中,奧盧大學和明略科學院團隊運用的方法,主要來自於(yu) 《Searching Central Difference Convolutional Networks for Face Anti-spoofing(CDCN), CVPR2020》(文章鏈接:)和《Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing(FAS-SGTD), CVPR2020 (Oral)》(文章鏈接:https://arxiv.org/abs/2003.08061)兩(liang) 篇論文的研究成果。
人臉防偽(wei) (FAS)在人臉識別係統中起著至關(guan) 重要的作用。大多數最先進的FAS方法依賴於(yu) 堆疊卷積和專(zhuan) 家設計的網絡,在描述詳細的紋理信息方麵比較弱,在環境變化(如不同的光照度)時容易失效,並且傾(qing) 向於(yu) 使用長序列作為(wei) 輸入來提取動態特征,這使得該方法很難部署到需要快速響應的場景中。
《Searching Central Difference Convolutional Networks for Face Anti-spoofing(CDCN [1]), CVPR2020》論文,提出了一種基於(yu) 中心差分卷積(CDC)的新型幀級FAS方法,它能夠通過聚合強度和梯度信息來捕獲內(nei) 在的詳細模式。用CDC構建的網絡,稱為(wei) 中心差分卷積網絡(CDCN),相較於(yu) 用普通卷積構建的網絡,能夠提供更穩健的建模能力。此外,在一個(ge) 專(zhuan) 門設計的CDC搜索空間上,可利用神經結構搜索(NAS)發現更強大的網絡結構(CDCN++),該網絡結構可與(yu) 多尺度注意力融合模塊(MAFM)組裝,進一步提升性能。在6個(ge) 基準數據集上進行了綜合實驗,結果表明:1)所提出的方法不僅(jin) 在數據集內(nei) 部測試中取得了優(you) 異的性能(特別是在OULU-NPU數據集(Protocol 1)實現了0.2%的ACER),2)在跨數據集測試中也有很好的通用性(特別是從(cong) CASIAMFSD到Replay-Attack數據集,實現了6.5%的HTER)。
人臉防偽(wei) 對人臉識別係統的安全性至關(guan) 重要。目前,深度監督學習(xi) 被證明是最有效的方法之一。雖然取得了巨大成功,但以往大多數的研究工作是把問題表述為(wei) 單幀多任務的問題,隻是簡單地用深度增強損失,而忽略了詳細的紋理信息以及麵部深度和運動模式之間的相互作用。
《Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing(FAS-SGTD [2]), CVPR2020 (Oral)》論文,提出了一種新的方法來檢測來自多幀多任務的攻擊,該方法基於(yu) 兩(liang) 點洞察:1)通過堆疊的普通卷積,活體(ti) 人臉和偽(wei) 造人臉之間詳細的判別性線索(例如,空間梯度幅度)可能會(hui) 被丟(diu) 棄,2)三維移動人臉的動態提供了檢測偽(wei) 造人臉的重要線索。該方法能通過殘差空間梯度塊(RSGB)捕捉判別細節,並對時空傳(chuan) 播模塊(STPM)的時空信息進行有效編碼。此外,還提出了一種新的對比性深度損失法(Contrastive Depth Loss),以實現更準確的深度監督。為(wei) 評估此方法的有效性,還收集了雙模態防偽(wei) 數據集(DMAD),提供了每個(ge) 樣本的實際深度。實驗表明,所提出的方法在OULU-NPU、SiW、CASIA-MFSD、Replay-Attack和新的DMAD五種基準數據集上取得了當前最佳成績。
目前,明略科學院深度學習(xi) 實驗室的研發成果,已在智能餐飲、智能零售、供應鏈物流、智能營銷、智能工業(ye) 等業(ye) 務場景實際落地。
鄭重聲明:本文版權歸原作者所有,轉載文章僅(jin) 為(wei) 傳(chuan) 播更多信息之目的,如作者信息標記有誤,請第一時間聯係我們(men) 修改或刪除,多謝。
米兰体育全站 |
國際空運 |
國際海運 |
國際快遞 |
跨境鐵路 |
多式聯運 |