專屬客服號
微信訂閱號
全面提升數據價值
賦能業務提質增效
近日,一款名為“ZAO”的換臉APP引發輿論關注。用戶上傳照片,就可以把影視劇主角的臉替換成用戶自己的臉。在過把“明星癮”的同時,也讓大眾關注到“換臉”帶來的個人信息泄露風險。
信息時代,“臉面”不僅僅是一個人的名片,刷臉打卡、刷臉登錄、刷臉進站、刷臉付款……面部信息成為個人財產保險箱的一把鑰匙。而一旦鑰匙掌握在別人手中,將會對個人財產安全等構成極大威脅。
為此,《中國科學報》走訪了科研院所、人工智能(AI)科技企業,請技術專家解析以刷臉為代表的生物識別技術背后的安全風險,同時進一步探索:應如何設置保障措施,來應對AI技術打開的潘多拉魔盒?
人眼難辨,造假越來越容易
“人工智能帶來的安全和隱私問題早已引起國內外的關注,AI換臉只是最近出現的一個新例子而已。”中國科學院院士、清華大學人工智能研究院院長張鈸開誠布公地說。
早在20多年前,基于三維模型的AI換臉技術已經走進研究領域,但換臉的效果不盡如人意。近年來,隨著生成對抗網絡技術的引入,換臉效果大幅提升,人眼已經很難發現換臉痕跡。
換臉的本質是面部生物信息在人工智能領域的應用,此外,人類早已實現指紋、虹膜、掌紋、手形、靜脈、筆跡、步態、語音等生物信息的應用。
但是,個人生物信息泄露引發的安全問題從未如此備受關注。談及原因,清華大學孵化的人工智能公司RealAI(瑞萊智慧)算法科學家蕭子豪表示,一方面,近年來大眾越來越關注個人隱私問題;另一方面,AI技術發展迅速,技術越來越成熟,效果越來越逼真,操作越來越簡單,使得應用領域和場景越來越多。
“以前世界頂尖科研團隊才能完成的‘換臉術’,現在尋常人躺在沙發上動動手指就能輕松實現,大大降低了造假成本。” 蕭子豪告訴記者。
北京郵電大學模式識別實驗室教授鄧偉洪認為,“ZAO”收集的人臉圖像和人臉生成技術如果被濫用,將會帶來極大的風險。
此前,鑒于對個人隱私獲取的擔憂,美國舊金山、薩默維爾市先后禁止人臉識別的應用。
過度攫取用戶信息,濫用風險加劇
“ZAO”引發關注的另外一個重要原因是,該應用中含有涉及個人隱私保護的“霸王條款”。
該APP最初的用戶協議規定,用戶自行上傳的內容,一旦發布,平臺即默許已獲得用戶和影片原主人公的肖像授權,且ZAO及其關聯公司有權在全球范圍內“完全免費、不可撤銷、永久、可轉授權和可再許可”地使用、修改、編輯這些內容素材。用戶如果不同意協議,便無法使用該APP。
該規定很快引發公眾對個人信息安全及隱私保護的質疑。
與此同時,相關生物識別技術應用需要用戶上傳越來越多的個人信息。以“ZAO”為例,該APP要求用戶提供個人高清圖片外,還要求上傳點頭、眨眼等活體檢測的視頻。
蕭子豪對記者說,軟件應用開發方獲取大量的個人生物信息后,能夠豐富訓練數據,用以模型優化,可大大提高應用精度和準確率,進而增強用戶體驗,但這也意味著個人信息的完全暴露。
今年8月,中國信息通信研究院發布的《人工智能數據安全白皮書》顯示,AI應用可采集的人臉、指紋、虹膜等信息具有強個人屬性,且具有唯一性。個人數據的過度采集,將加劇隱私泄露風險。
針對 “ZAO”App用戶隱私協議存在不規范行為、存在數據泄露風險等網絡數據安全問題,9月3日,工業和信息化部網絡安全管理局對北京陌陌科技有限公司(以下簡稱陌陌科技)相關負責人進行了問詢約談。
該局要求陌陌科技要“組織開展自查整改,依法依規收集使用用戶個人信息”,同時責令其“規范協議條款,強化網絡數據和用戶個人信息安全保護”。
換臉或能突破支付,數據管理僅靠自律?
ZAO引發大量關注之后,“支付寶安全中心”8月31日通過官方渠道發布聲明稱,不管換臉有多逼真,都無法突破刷臉支付。
支付寶安全中心解釋說,刷臉支付采用的是3D人臉識別技術,在進行人臉識別前,會通過軟硬件結合的方式進行檢測,來判斷采集到的人臉是否照片、視頻或者模擬生成的,能有效避免各種人臉偽造帶來的身份冒用情況。
話雖如此,但考慮到刷臉支付還沒有得到大規模應用,潛在的安全風險可能還并未浮出水面。
鄧偉洪也告訴記者,盡管目前還沒有利用個人面部信息突破刷臉支付等功能的案例,但這并不代表刷臉功能的絕對安全。并且,造假生成技術不斷升級,未來存在突破現有刷臉支付功能的可能性。
他介紹了一種可能性:AI換臉軟件收集了大量人臉圖像,這些信息如果被濫用,技術上可以準確地恢復出用戶的三維面部信息,結合三維打印模型和面具,足夠對刷臉支付等系統進行攻擊。
鄧偉洪提出,管理部門和學術界應該重視這些風險問題,并制定或研發出效的防御策略。
應如何保障個人生物信息安全?張鈸表示,至少應該加強管理和約束,包括數據的管理和合理使用。
他舉例,最近一些公司的語音合成技術已經達到足可亂真的水平,這與“換臉”技術一樣很容易被濫用。從這點出發,這些公司已經制定了自律規則,對這類AI技術加以限制使用,以保障用戶個人生物信息的安全。
“目前,個人生物信息獲取多少,又該如何使用,缺乏行業標準。如何制定規則有效管控個人生物信息的使用是當務之急。”張鈸告訴《中國科學報》。
今年4月,清華大學成立了戰略與安全研究中心,開展國際戰略與安全相關的學術研究和政策研究工作。其中,AI安全政策的制定正是該中心的一項重要內容。
“真相”“假臉”難辨,防反之爭或將曠日持久
目前有沒有技術手段,能夠鑒別哪個是“真相”、哪個又是“假臉”呢?
答案是既肯定又否定。鄧偉洪告訴記者,由于原始人臉圖像特征已經完全被覆蓋,目前沒有特別可靠的技術可以反推出原始頭像。但計算機視覺技術比人眼更精密,可以有效地檢測出因為換臉留下的圖像痕跡。
他舉例說,去年美國國防部發布了一款AI偵測工具,對換臉的檢測精度可達到99%以上。加州大學伯克利分校的科研人員也提出了通過特定人物的面部行為細節,準確地“揪出”模仿各種名人的假視頻。
鄧偉洪所在的科研團隊也據此進行了初步的實驗。實驗結果顯示,假視頻的檢測率可達到98%以上。
不過,在見識了美國國防部研發的“反AI變臉”刑偵工具后,達特茅斯大學的數字取證專家Hany Farid 認為,目前的一個關鍵問題是,機器學習系統可以接受更先進的訓練,然后超越當前的反變臉工具。
這也就意味著,這些“以AI攻AI”的反變臉工具僅僅是個開始——AI視頻偽造者和數字刑偵人員之間或將展開一場長期持久的AI軍備競賽。
技術濫用頻頻,何以解憂引人深思
引發個人信息安全及隱私保護問題的AI技術,不只有換臉。
近日,一組課堂上學生行為分析的視頻截圖在網上引發熱議。照片中,攝像頭通過計算機視覺算法獲取學生的課堂表現,并以標簽的形式計算出“聽講、閱讀、舉手、趴桌子、玩手機、睡覺”等動作次數。截圖顯示該技術方案來自曠視科技。
盡管曠視科技隨即在9月3日回應稱此系該公司“技術場景化概念演示”,目前“僅停留在技術展示階段,尚未落地應用”,也難免教育界人士直呼,智慧課堂行為分析已變成“全景敞視監獄”。
AI技術發展至今,以“賦能”之姿已在安防、醫療、教育、工業等各行各業帶來了巨大變化,甚至扮演著顛覆行業的角色。然而,面對一波未平一波又起的技術濫用問題,AI應用背后的個人隱私保護問題、信息安全問題,如何規范使用AI技術,的確發人深思。
美國一些城市以及歐盟的做法是嚴字當頭,甚至采取禁止法案。正如前文提及,在舊金山,政府機構擅自使用人臉識別技術、“靠人臉識別技術獲得某些信息”都是被禁止的違法行為;在瑞典,一所高中因試驗用人臉識別系統統計學生出勤率,而被瑞典數據監管機構處以20 萬瑞典克朗(約合14.8 萬元)的罰款,理由是“數據的所有者及數據的管理者之間存在明顯的信息不對稱”。
“圍繞個人隱私、群體安全問題,對于人臉識別等技術的使用需要一個平衡。” 商湯科技聯合創始人徐冰在近期的一次采訪中對記者說:“這個平衡,就是一個好的規則規范——不僅要去規范人臉識別技術企業,還要去規范使用這些技術的政府。”
“實際上,人臉識別技術所創造的價值是被認可的。”徐冰不希望諸如人臉識別這樣的新技術只是簡單粗暴地被一禁了之: “作為發明和使用新技術的人們,都要去認真思考這些問題,并且一起努力促使新規范的形成,而不是直接禁止掉。”
來源:科學網
本文為本網轉載,出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其內容的真實性,如涉及侵權,請權利人與本站聯系,本站經核實后予以修改或刪除。
請完善以下信息,我們的顧問會在1個工作日內與您聯系,為您安排產品定制服務
評論