IBM認為用于訓(xùn)練面部識別系統(tǒng)的數(shù)據(jù)不夠多樣化。
這家科技巨頭發(fā)布了大量數(shù)據(jù),其中包含從Flickr數(shù)據(jù)集中獲取的100萬張面孔圖像,其中包含1億張照片和視頻。
圖像標注有與特征相關(guān)的標簽,包括顱面測量,面部對稱,年齡和性別。
該公司的研究人員希望這些具體細節(jié)能夠幫助開發(fā)人員培訓(xùn)他們的人工智能面部識別系統(tǒng),以更公平,更準確地識別人臉。
“面部識別技術(shù)應(yīng)該是公平和準確的”IBM的研究員兼首席科學(xué)家約翰史密斯通過電子郵件告訴CNBC?!盀榱耸辜夹g(shù)進步,需要建立在各種培訓(xùn)數(shù)據(jù)之上。”
史密斯強調(diào)了面部識別系統(tǒng)數(shù)據(jù)集的多樣性對于反映現(xiàn)實世界多樣性和降低面部與人匹配的誤差率的重要性。
專家警告說,人工智能可能存在偏見。研究表明,面部識別技術(shù)在制作白人男性面部方面要比在少數(shù)人面前更加擅長。
IBM本身一直是批評 其面部識別系統(tǒng)的目標。一紙由麻省理工學(xué)院的研究人員喬伊Buolamwini去年出版,發(fā)現(xiàn)IBM沃森的視覺識別平臺有一個幾乎35%的錯誤率,當(dāng)它來識別深色皮膚的女性,以及識別膚色較淺的男性不到1%的錯誤率。
像Buolamwini這樣的研究引起了人們對在執(zhí)法等領(lǐng)域使用面部識別的擔(dān)憂,以及人工智能驅(qū)動的種族貌相的可能性。英國大都會警察正在測試面部識別,而中國人工智能公司SenseTime通過使用面部識別技術(shù)協(xié)助地方當(dāng)局識別犯罪嫌疑人。
一個2016報告由該中心對隱私和技術(shù)在喬治敦大學(xué)法學(xué)院說,非裔美國人會不成比例地受到警方的人臉識別系統(tǒng),因為它們是不成比例針對逮捕。