AI治理應(yīng)從人、算法、數(shù)據(jù)、隱私、政府五個(gè)方面考慮。首先,人是否應(yīng)該由算法來管控,后者在目前的實(shí)際應(yīng)用中,常以贏利為核心目標(biāo),因此,容易出現(xiàn)困在算法里的外賣小哥的情況。其次,經(jīng)典的電車問題也需要我們認(rèn)真思考人工智能發(fā)展后,每一個(gè)人的生存權(quán)的重要性。而從算法角度看,算法設(shè)計(jì)上的有偏會導(dǎo)致AI程序在處理問題時(shí)出現(xiàn)各種偏向,如性別偏向。數(shù)據(jù)的有偏也經(jīng)常會產(chǎn)生誤導(dǎo),如一張圖上的動物是哈士奇還是愛斯基摩犬,并非是基于動物的特征,而是基于圖像里是否有雪。第四,目前的很多AI算法都存在不經(jīng)他人許可就竊聽數(shù)據(jù)如聲音或視頻的問題,這嚴(yán)重侵犯了大家的隱私權(quán),需要有相應(yīng)的政府部門立法并成為相應(yīng)的部門來監(jiān)管,光靠企業(yè)內(nèi)部的自查是不靠譜和不安全的。第六,需要防范基于AI的新型犯罪方式,如換臉、換聲音,以及通過增加一些看似無關(guān)的噪聲點(diǎn)來攻擊AI識別系統(tǒng)。
(作者為復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授、博導(dǎo))