近日,挪威科技大學的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》論文,稱用新的、更有挑戰的方法騙過臉部辨識系統:不改變原來數據分布的前提下把臉部匿名化,更通俗的說法就是輸出一張逼真的人臉,但不改變原圖人的姿態和背景。在這種技術加持下,臉部辨識系統依舊能正常執行,但完全無法辨識出原來臉的身分,偽造者則可以冒充他人,自由出入有臉部辨識系統的設施。
根據作者測試,經過匿名化的臉仍然保持接近原圖的臉部可辨識性,普通臉部辨識對匿名化後的圖像,辨識出臉部的平均準確率只下降 0.7% 。而臉部含有的自然資訊自然 100% 不重疊。
用 AI 來騙 AI ,這波操作簡直是傑出的一手 。
之前,Facebook 也嘗試做反臉部辨識,近日終於有結果。
外媒 VentureBeat 報導,Facebook 人工智慧實驗室 Facebook AI Research(FAIR)開發出「去辨識」系統,可欺騙臉部辨識系統,例如,讓臉部辨識系統將你辨認成女明星。
(Source:截圖)
此技術使用機器學習即時改變影片人物的關鍵臉部特徵,誘使臉部辨識系統錯誤辨識。
據稱,將對抗自編碼器與訓練過的臉部分類器配對,以使人臉稍微扭曲,迷惑臉部辨識系統同時,又能維持人們可辨認的自然樣貌,可用在影片,甚至是即時視訊。
這種「去辨識」技術過去已存在,以色列的自動反臉部辨識系統提供商 D-ID 研發出針對靜態圖像的去辨識技術。另外還有對抗性範例,利用電腦視覺系統的弱點,人們穿戴印有對抗圖案的衣物,誘騙臉部辨識系統看到不存在的東西。
過去的技術通常應用於從監控鏡頭等管道獲得的照片、靜止影像,或事先計劃好利用對抗圖像欺騙臉部辨識系統。
現在,FAIR 的研究針對即時影像和視訊腳本,FAIR 稱這項技術成果是業界首例,足以抵抗精密的臉部辨識系統。
Facebook 還發表一篇論文,解釋對新技術的態度,提出一種觀點,即臉部辨識可能侵犯隱私,臉部替換技術可能用於製作誤導性影片。為了控制臉部辨識技術濫用,推出影片去辨識方法,並取得很好的效果。
此外,據 VentureBeat 報導,Facebook 並不打算在任何商業產品使用這反臉部辨識技術,但這項研究可能會對未來的個人隱私保護工具產生影響。就像研究在「誤導性影片」強調的,能防止個人肖像用於製作偽造影片。
其實反臉部辨識技術近年來發展迅速,早在去年,多倫多大學 Parham Aarabi 教授和研究生 Avishek Bose 團隊開發一種演算法,可動態破壞臉部辨識系統。
簡單來說,他們選擇的方法是透過干擾臉部辨識演算法達到阻礙臉部辨識的功能。透過改變一些人眼幾乎不可辨識的微小畫素,改變辨識器的檢測結果。儘管演算法修改十分微小,但對檢測器來說卻很致命。
研究人員針對 300-W 資料庫的檢測結果也證實這種方法的可行性。資料庫包含多種族、不同照明條件和背景環境超過 600 張臉部照片,是業界的標準資料庫。結果表明,此系統能將原本可檢測到的臉部率從接近 100% 降到 0.5% 。
這個反臉部辨識系統有神經網路自主學習能力,可以隨臉部辨識系統進化而不斷改善自己;更可怕的是,AI 時代下,我們竟不能保全自己的臉部隱私。 |