墨爾本大學(xué)近日進(jìn)行了一項(xiàng)社會(huì)實(shí)驗(yàn),在其圖書館門廳角落裝上了一款生物識(shí)別鏡(Biometric Mirror),它要求人們加強(qiáng)并使用AI應(yīng)用程序以及當(dāng)前的面部分析系統(tǒng)來確定各種個(gè)性特征。
據(jù)了解,該系統(tǒng)基于公開可用的眾包個(gè)性屬性數(shù)據(jù)集,其中包括數(shù)千張面部照片,隨后由超過30,000名評估多種特征的受訪者評分。除了諸如性別、年齡和種族等更客觀的屬性之外,該系統(tǒng)還被要求檢測一些更抽象的主觀特征,包括攻擊性、怪異性和情緒穩(wěn)定性。
不過,與其他面部識(shí)別系統(tǒng)的正面識(shí)別作用不同,該生物識(shí)別鏡的目的不是開發(fā)揭示對個(gè)體能進(jìn)行客觀,甚至特別準(zhǔn)確的分析的面部識(shí)別系統(tǒng),而是突出現(xiàn)代面部識(shí)別技術(shù)背后的根本缺陷,這種技術(shù)通過基于有缺陷的數(shù)據(jù)集可能有問題地放大人類偏見的方式。
墨爾本大學(xué)項(xiàng)目的首席研究員Niels Wouters表示,“我們想要提高認(rèn)識(shí)的是,如果這種技術(shù)商業(yè)化(我們已經(jīng)看到類似的應(yīng)用),那么這會(huì)產(chǎn)生嚴(yán)重的后果。假設(shè)這種技術(shù)已經(jīng)在世界各地實(shí)施,那么將引發(fā)更多擔(dān)憂。所有這些系統(tǒng)背后的基本問題是盡管算法在技術(shù)上可能是準(zhǔn)確的,但它們使用的數(shù)據(jù)集幾乎總是有缺陷的?!?/p>
去年,英荷快消巨頭聯(lián)合利華已經(jīng)在其招聘流程中實(shí)施了一個(gè)視頻訪談系統(tǒng),該系統(tǒng)測量面部表情,以評估特定工作的最佳候選人。當(dāng)時(shí)HireVue認(rèn)為他們,他們所推出的視頻訪談系統(tǒng)實(shí)際上可以消除人為偏見。
但Wouters認(rèn)為他們對著這種技術(shù)具有盲目的認(rèn)同感,這種對技術(shù)的錯(cuò)誤信念是令人擔(dān)憂的。
外媒New Atlas記者Rich Haridy在親自測試生物識(shí)別鏡后發(fā)現(xiàn),人工智能似乎100%肯定他是高度攻擊性的,這點(diǎn)非常奇怪,而且非常不負(fù)責(zé)任。當(dāng)他第二次不戴眼鏡穿過這個(gè)系統(tǒng)時(shí),雖然他的攻擊性和怪異評分仍然很高,但這次微笑讓他的情緒穩(wěn)定評分更高。作為人類驅(qū)動(dòng)的數(shù)據(jù)集如何能夠固有地保持偏見的一個(gè)例子,Wouters認(rèn)為有胡須的男性往往被發(fā)現(xiàn)具有高度攻擊性。
最終,研究人員希望借助生物識(shí)別鏡提醒人們,盡管世界各地的面部識(shí)別系統(tǒng)實(shí)施得非常廣泛,但這種技術(shù)仍然處于早期階段,依舊有缺陷存在。