comScoreTag 掃一掃就知性取向 恐掀私隱災難 - CTgoodjobs powered by Career Times
FancyBox

Career News

掃一掃就知性取向 恐掀私隱災難

15 Sep 2017, 10:36:23 AM

【晴報專訊】報告指類似辨識技術其實早已存在,若AI繼續學習下去,人類私隱或面臨大危機。

人臉識別技術不斷進步,美國史丹福大學利用人工智能(AI)分析人臉特徵,以判別該人是否同性戀者,準確度達8成。專家稱研究旨在提醒大眾,同類科技可嚴重侵犯私隱,甚至用於迫害異己。科學家相信在不久將來,AI甚至可能一眼就看出你的性格、智商以及政治傾向。

研究由史丹福大學心理學家科辛斯基及王一倫進行,他們從美國其中一個熱門交友網站,取用約1.5萬人逾3.5萬張照片,各性別及性傾向人數大致平均分布,輸入至名為VGG-Face的軟件,利用深層神經網絡學習分析,找出面部特徵與個人宣稱的性傾向之間的關係,形成一套測試模型,讓AI學習識別性取向。

分析面部特徵 準確率約8成
結果顯示,演算法判斷男士性取向的準確率達81%,女士性向判斷則為74%。不過如果能提供一個人5張不同的頭像,準確率將會提高,對男女性向判斷的準確率將達91%和83%。而人類分辨男及女同志的準確率分別只有61%及54%。

研究發現同性戀男女往往有「非性別典型」特徵、表情和打扮風格。例如男同性戀和異性戀相比趨向於女性化,下巴較窄、鼻子較長、前額較大,而女同性戀比起女異性戀下巴較寬、前額較小。

研究指若人類面部特徵可反映性取向,或可證明性取向早在未出生前已形成。另外,電腦辨別女性成功率較低,或因她們的性取向較流動。惟研究也有侷限,樣本僅限白人,也未考慮到跨性別或是雙性戀。不過它對AI研究提供了值得警惕的啟示,社交網站和政府機關的數據庫中,有數十億計的面部影像,若資料在未經當事人同意下被用來分析判斷性取向,私隱無可避免被侵犯,例如在部分不接受同性戀的國家,便威脅同性戀者安全。

倘「受訓」或可測政治取態
一旦技術流入民間,夫妻會調查自己是否被欺騙,青少年用來識別朋友。團隊擔心AI將可「受訓」用於找出智商或政治取態等,促各國規管。

睇相搵罪犯 《未來報告》或成真
上海交通大學教授武筱林和博士生張熙去年發表研究,發現AI可透過照片分辨誰是罪犯,準確率達86%,令人擔心恍如是荷里活科幻電影《未來報告》劇情,助執法機關「預先」審查誰有犯罪傾向。

研究員將照片分為罪犯組和非罪犯組,非罪犯組有1,126張,從網上抓取社會各行各業人士照片;罪犯組共730張,其中330張來自公安部緝令,另外400張則是公安局為實驗提供的罪犯照。AI透過學習檢測區分罪犯與非罪犯,準確率超過86%。報告顯示,罪犯臉部特徵與正常人最大差別,在於內眼角間短6%、上唇彎曲率大23%、鼻唇角度小20%。

研究成果在學界引起爭議,有人質疑「以貌取人」,樣本量亦不夠,亦有人擔心未來會在一個人犯罪前就預測他們有否企圖,例如政府可在重要場合實行類似安檢,鎖定一些需要特別關注的「疑犯」,恍如《未來報告》成真。

資料整理:吳浩南

編輯:梁偉澄

更多晴報網站內容, 請登入skypost.hk
讚好 CTgoodjobs 專頁,獲取更多求職資訊!

Good Job! Daily