據(jù)美“情報與偵察”網(wǎng)站5月4日報道,五角大樓已正式公布人工智能五大倫理原則,即負(fù)責(zé)、公平、可追蹤、可靠和可控。無論作戰(zhàn)還是非作戰(zhàn)人工智能系統(tǒng),均須遵守上述原則,否則美國防部將不予部署。
“負(fù)責(zé)”,指開發(fā)者和使用者須對人工智能系統(tǒng)的開發(fā)、部署、使用和造成的結(jié)果負(fù)責(zé)。根據(jù)官方指導(dǎo)文件,在開發(fā)階段,開發(fā)者需為人工智能系統(tǒng)確定合理的活動界限。以自動駕駛系統(tǒng)為例,必須確定其劇烈運動的上下界限,以免在使用時導(dǎo)致事故發(fā)生。在部署階段,使用者應(yīng)為人工智能系統(tǒng)建立清晰的指揮鏈條,并明確操作者、指揮者的身份,避免發(fā)生混亂。
“公平”,指五角大樓應(yīng)最大限度減少人為偏差對人工智能系統(tǒng)的影響。眾所周知,機(jī)器學(xué)習(xí)的過程就是對人工輸入數(shù)據(jù)的分析過程。如果輸入者心存偏差,所輸入數(shù)據(jù)必然不全面,人工智能系統(tǒng)就失去了公平的學(xué)習(xí)環(huán)境。比如,人臉識別系統(tǒng)要提高識別率,需要對大量面部影像進(jìn)行對比和判斷,如果被輸入的面部影像只局限于某一性別或某一種族,勢必導(dǎo)致人臉識別系統(tǒng)的準(zhǔn)確率下降。
“可追蹤”,指人工智能系統(tǒng)在其使用周期內(nèi)的透明性,即從開發(fā)、部署到使用的各個環(huán)節(jié)都要留下準(zhǔn)確的記錄,比如研發(fā)手段、數(shù)據(jù)源、設(shè)計程序、使用檔案等。技術(shù)專家或用戶可對此進(jìn)行研究。一旦發(fā)生故障,他們可從研發(fā)數(shù)據(jù)庫或文檔查找源頭,及時、快速予以排除,避免人工智能系統(tǒng)失控。
“可靠”,五角大樓給出的定義是“安全、穩(wěn)定和有效”。具體而言,人工智能系統(tǒng)的可靠性建立在“可追蹤性”基礎(chǔ)上,即當(dāng)系統(tǒng)出現(xiàn)不穩(wěn)定現(xiàn)象或效率下降時,技術(shù)人員應(yīng)對系統(tǒng)數(shù)據(jù)庫和傳感器記錄進(jìn)行回溯追蹤,找出與正常狀態(tài)的不同之處并進(jìn)行處理。比如,當(dāng)自動駕駛系統(tǒng)出現(xiàn)不安全或不穩(wěn)定苗頭時,技術(shù)人員須第一時間調(diào)閱開發(fā)者為其規(guī)定的活動界限并與實際界限對比,對變化因素進(jìn)行及時糾正。正常情況下,可靠的人工智能系統(tǒng)會在無法做出判斷的情況下與操作人員或后方數(shù)據(jù)庫進(jìn)行溝通,以確定最終結(jié)果。
“可控”,指人工智能系統(tǒng)探測和避免意外發(fā)生的能力。五角大樓認(rèn)為,可控的人工智能系統(tǒng)應(yīng)具備足夠的抗干擾能力,并在發(fā)生意外或其他針對人類的惡意行為時,通過自動或手動方式停止工作。這種能力在設(shè)計階段就要嵌入人工智能系統(tǒng)。比如,一部自動駕駛車輛本不需要方向盤,但設(shè)計人員仍會安裝方向盤,就是為確保發(fā)生意外時乘坐者能夠切換為手動駕駛。