網路詐騙橫行,社群媒體龍頭Meta在三年前因隱私及監管壓力關閉臉書(Facebook)的臉部辨識技術;如今宣布,為了打擊「名人誘餌」的詐騙廣告,將招募約5萬名公眾人物參加測試,自動比對名人在臉書或Instagram帳號上的個人資料照片和疑似詐騙廣告中使用的照片,一旦發現相符且認為該廣告涉及詐騙,將立即封鎖廣告。
Meta聲明表示,這些名人將會收到系統自動註冊的通知,如果不願參加可選擇退出。Meta計劃從今年12月起於全球推出這項測試,不過包括:英國、歐盟、韓國以及美國德州與伊利諾州等未獲監管批准的地區除外。
Meta內容政策副總裁比克特(Monika Bickert)強調,「公司主要針對那些經常遭詐騙廣告濫用肖像的公眾人物,並希望為他們提供最大程度的保護」。這項技術已於內部經過嚴格的隱私與風險審查,並在測試之前與監管機構、政策制定者及隱私專家進行討論。
2021年,Meta關閉臉部辨識系統並刪除10億名用戶的臉部掃描數據,當時Meta表示此舉是因應「社會關注日益增長」。今年8月、Meta被德州判處支付14億美元的罰款,以解決該州指控其非法收集生物辨識數據的訴訟;同時,Meta也面臨數宗指控,認為其未能有效阻止「名人誘餌」詐騙,這類詐騙廣告常使用AI生成的名人形象,誘騙用戶投入虛構的投資計劃。
由於在Met旗下所有應用程式(App)共有接近33億每日活躍用戶,Meta仰賴AI技術來執行許多內容規定與準則,以便處理大量的每日詐騙回報和其他違反規定的內容。不過,這以往也曾導致合法內容因自動執行的錯誤而遭到封鎖。
在新的測試中,Meta表示,無論是否檢測到詐騙,系統將立即刪除由比對廣告生成的面部數據;此外,Meta也正在測試讓臉書及Instagram用戶透過臉部辨識技術,重新獲取因駭客攻擊或忘記密碼而被鎖定的帳號。
這項措施旨在解決社交平台長期以來充斥的詐騙廣告問題,在監管機構及用戶接受度的雙重壓力下,如何在保護隱私與打擊詐騙之間取得平衡,將是Meta當前最大課題。