近日,新加坡國立大學(NUS)計算機學院院長Mohan Kankanhalli教授領導的,該學院計算機科學系的研究團隊開發(fā)了一種技術,可以通過對照片進行人類肉眼幾乎難以察覺的細微變化來保護照片中的敏感信息,使選定的特征無法被已知人工智能人臉識別算法檢測到。
此前,使用圖片“加擾”技術造成的視覺失真會破壞照片的美感。為了克服這一局限性,研究團隊開發(fā)了“人類敏感度圖”,用于量化人類對各種場景中圖像不同部分的視覺失真的反應。
開發(fā)過程始于一項涉及234名參與者和860張圖像的研究。向參與者顯示了同一圖像的兩個副本,他們必須挑選出視覺上失真的副本。對結果進行分析后,研究小組發(fā)現(xiàn)人的敏感性受到多種因素的影響。這些因素包括照明、紋理、對象情感和語義等。
通過使用此“人類敏感度圖”,團隊將其注入低人類敏感度區(qū)域中,以將視覺失真對圖像美學的破壞最小化。
AI算法能識別出左側圖片中的貓,但無法識別右側“加擾”處理的圖片中的貓
國大團隊花了六個月的時間研究這項新技術。
對于數(shù)字隱私保護來說,現(xiàn)在阻止人們在社交媒體上發(fā)布照片為時已晚。但是,我們可以采取措施對抗AI算法,因為與機器的威力相比,人類跟蹤者的威脅逐漸減弱。國大的解決方案可謂兩全其美,一方面可以有效防范人臉識別AI算法,同時又不影響用戶的使用體驗,加擾后的照片肉眼看上去并沒有明顯變化。
最終用戶可以使用該技術幫助在網(wǎng)上發(fā)布照片之前掩蓋照片中的重要屬性,并且默認情況下,社交媒體平臺也有可能將其集成到他們的系統(tǒng)中。這將引入額外一層的隱私保護。
據(jù)悉,國大團隊還計劃將該技術擴展到視頻隱私保護,視頻是社交媒體平臺上經(jīng)常共享的另一種重要媒體。