隨著算法在各行業(yè)的廣泛應用,算法已成為數(shù)字社會的重要構件和基礎。不過,在對整個社會帶來正向功能和價值的同時,也引發(fā)外界對其帶來的社會風險和倫理道德的談論。
為此,近日,由清華大學數(shù)據(jù)治理研究中心主辦的“人工智能倫理與治理”專題研討會在線上召開,邀請了來自中央黨校、中國社科院、清華大學、復旦大學、浙江大學、中國政法大學、電子科技大學、山東大學、北京化工大學、中國農業(yè)大學、對外經濟貿易大學、山東師范大學等多位專家學者,圍繞人工智能發(fā)展與應用帶來的社會風險、人工智能倫理的核心關切和構建方式等問題,展開了談論。
新形勢下的數(shù)據(jù)保護等問題受關注
研討會上發(fā)表了《人工智能倫理與治理報告》(下稱報告)。
報告認為,人工智能倫理準則可以分為安全、透明、公平、個人數(shù)據(jù)保護、責任、真實、人類自主、人類尊嚴等八個維度。會上,清華大學數(shù)據(jù)治理研究中心項目研究員戴思源分享了該報告的相關研究成果。他指出,網民對上述八個維度都有關注,其中在安全、公平、個人數(shù)據(jù)保護、責任方面關注的人數(shù)最多,對比之下,對透明、人類自主和人類尊嚴這幾個維度較少關注。
公眾數(shù)據(jù)保護一直受外界所關注。報告研究團隊在調查中發(fā)現(xiàn),公眾認為最重要的個人信息包括自己的基本信息、人際關系信息、經濟情況信息等。另外,在隱私泄露、信息盜用、信息刪除、信息查閱等個人信息和隱私潛在風險的四個方面,網民對于個人隱私泄露和信息盜用最為擔心。
政府和企業(yè)如何使用個人數(shù)據(jù)應具有雙向約束的契約屬性,當個人向政府或企業(yè)提供數(shù)據(jù)時,政府或企業(yè)應更透明、合理地使用個人數(shù)據(jù)。公眾是否愿意分享個人信息的意愿應得到尊重;在不同情況下的收集個人信息的目的和用途應有更明確的界定。因此,對于責任屬性的討論和隱私的保護應細分大數(shù)據(jù)的用途、目的和屬性,強調責任屬性的互利性,這是政府、企業(yè)與公眾的共同責任。
報告也指出,目前學界尚未對算法公平的定義、測量和準則形成一致意見,了解公眾在主觀上如何判定算法決策結果的公正性也非常重要,將有助于科技工作者研發(fā)出具有公平原則的算法,這些原則需符合公眾對公平概念的普遍理解。
在了解大眾基礎上推動“算法啟蒙”
上述報告調查發(fā)現(xiàn),就人工智能倫理,中國網民最關注違背了公平原則的大數(shù)據(jù)殺熟等行為,其次是數(shù)據(jù)保護、人臉技術等安全性問題和自動駕駛汽車等的責任界定問題,而較少擔心算法等人工智能的技術原理不透明、不公開或“人工智能越來越先進,普通人在社會中發(fā)揮的作用越來越小”等人類尊嚴問題。在所有場景中,有用性和倫理因素都是最重要的影響受訪者使用智能產品的因素。
報告稱,公眾看重人工智能的公共安全性和個人數(shù)據(jù)保護,年輕群體傾向于發(fā)揮企業(yè)、用戶、社會的自主性和多元共治作用,而50歲以上群體更傾向政府的行政監(jiān)管;學歷越高、所在城市經濟越發(fā)達、收入越高的受訪者,越看重技術倫理和法治方式對人工智能發(fā)展和規(guī)范的作用。
對于不同的群體為何會對人工智能的看法不盡相同,對外經濟貿易大學政府管理學院講師寧晶發(fā)表了她關于社交媒體用戶算法接受度的研究。她稱,社交媒體用戶的技能熟練度和對算法推薦內容的接受傾向存在一個正相關關系,也就是說,越不熟練使用社交媒體,越沒有辦法接受算法推薦內容。
解決人工智能倫理問題需實證研究和發(fā)展技術
報告認為,人工智能倫理準則是指“當前在人工智能技術開發(fā)和應用中,依照理想中的人倫關系、社會秩序所確立的,相關主體應予以遵循的標準或原則”。就理想的愿景如何在現(xiàn)實中接受檢驗和落地,專家們也給出了各自的看法。
當前,數(shù)字技術、人工智能等已經廣泛被應用在社會治理之中,如果看待這些技術的應用,以及帶來的影響,也為這場研討會所關注。中國農業(yè)大學人文與發(fā)展學院講師曲甜認為,基層治理智能化轉型,目前關于“場景”的開發(fā)和討論已經非常多了。但是,關于智能技術與治理手段的結合,似乎還不充分。特別是在鄉(xiāng)村地區(qū),鄉(xiāng)村有很多基于熟人社會、傳統(tǒng)文化形成的治理手段,在長期實踐中取得了很好的治理效果,如何讓現(xiàn)代智能技術和傳統(tǒng)治理手段有機結合而不是相互排斥,也是基層治理智能化轉型應當關注的問題。
人工智能倫理應與具體國情相結合
由于人工智能顛覆了很多傳統(tǒng)認知,解構了原有的生產關系,有關人工智能倫理的討論也在各個國家開展。但研究發(fā)現(xiàn),每個國家對待它的態(tài)度不盡相同。
報告對比發(fā)現(xiàn),美國重視“培養(yǎng)公眾對人工智能技術的信任和信心”,推動人工智能創(chuàng)新的三個基礎性原則是“確保公眾參與”;“限制監(jiān)管過度”,要求監(jiān)管機構在考慮提出與部署人工智能應用程序相關的法規(guī)之前,必須仔細評估風險和成本效益,重點是建立靈活的、基于性能的框架,而不是一刀切的法規(guī);以及“促進可信賴的人工智能”;在治理標準上鼓勵向私營部門和學術界提供政府數(shù)據(jù)集,促進機器學習模型的訓練,形成政企研優(yōu)勢互補和數(shù)據(jù)資源的流動和利用。而歐盟的監(jiān)管措施使人工智能企業(yè)的倫理治理更加規(guī)范,但相關限制性規(guī)定使歐盟人工智能企業(yè)在全球技術發(fā)展和應用中呈現(xiàn)相對劣勢。
上述報告還提出了人工智能治理的“中國方案”:“發(fā)揮倫理委員會作用、設立倫理道德基本原則”,企業(yè)人工智能委員會可制定內部倫理風險管理政策、協(xié)調企業(yè)各部門倫理風險應對;“因地制定治理細則、構建倫理標準體系”,從眾多倫理原則中提煉共識性通則,探索如何轉化為全面覆蓋、分級分類、科學合理、切實可用的標準細則,并通過技術研發(fā)實現(xiàn)落地;“制定智能治理法律法規(guī)、規(guī)范人工智能開發(fā)使用”,由于新技術快速發(fā)展,倉促立法不利于法律條文穩(wěn)定性和可能限制新技術發(fā)展,可用行政文件和行業(yè)規(guī)范暫替法律條文來積累經驗;“提高公眾智能素養(yǎng)、暢通社會監(jiān)督渠道”“出臺倫理道德培訓手冊、增強責任主體風險意識”“搭建倫理治理共同體、加強人工智能國際合作”。
為人工智能創(chuàng)造一個比較好的發(fā)展環(huán)境或創(chuàng)新環(huán)境,推動人工智能技術、應用發(fā)展,可能會對整個人類社會帶來更多的正向功能和價值。技術監(jiān)管更多地是一種平衡的藝術,即如何平衡技術發(fā)展、技術應用和技術監(jiān)管的關系,如何平衡經濟、社會和政治的關系,以及如何平衡風險與倫理,技術與規(guī)則之間的關系。