人臉識(shí)別的技術(shù)盲區(qū)與隱私邊界:當(dāng)面孔成為大數(shù)據(jù)養(yǎng)料,你的臉還好嗎?
但是,在人臉識(shí)別一路狂奔的同時(shí),技術(shù)開發(fā)所涉及的隱私問題日漸暴露,應(yīng)用中的弊病也逐漸凸顯。
試想,在簡單“刷臉”就能完成一切的同時(shí),你的五官數(shù)據(jù)將永遠(yuǎn)成為網(wǎng)絡(luò)數(shù)據(jù)集的一部分,甚至有可能被不同的機(jī)構(gòu)調(diào)用。人臉識(shí)別所帶來的并不只是便利、高效和未來感,在現(xiàn)階段,它應(yīng)該更多地與倫理、審查、規(guī)范化相聯(lián)系。
當(dāng)研究數(shù)據(jù)被永久存儲(chǔ)
如何劃定隱私邊界
當(dāng)你走進(jìn)一家坐著20個(gè)人的咖啡店,至少會(huì)有22個(gè)攝像頭在你身邊:每個(gè)人的手機(jī)里有一個(gè),另一個(gè)通常高高懸掛在角落。你說的內(nèi)容可能被偷聽或被發(fā)布出去,你甚至可能出現(xiàn)在另一位顧客的自拍或視頻會(huì)話背景中。但即使最注重隱私的人也不會(huì)因此而拒絕進(jìn)入咖啡店,因?yàn)槿藗兌寄芙邮苓M(jìn)入公共場所固有的風(fēng)險(xiǎn)。
正是這種對隱私的“合理”期望,使那些需要在公共場合采集人臉識(shí)別研究對象的研究者心安理得。但是,當(dāng)公共場合采集的信息成為了永久且開放的數(shù)據(jù)集,如何劃定“合理”的隱私邊界,就成為了一片學(xué)術(shù)倫理尚未完善的灰色地帶。
成為數(shù)據(jù)集的研究對象
杜克大學(xué)、斯坦福大學(xué)和科羅拉多州立大學(xué)多泉分校的學(xué)者們,都利用了校園監(jiān)控作為捕捉研究對象的手段,但這一行為引起了強(qiáng)烈的反對。雖然人們對在咖啡店里被人偷聽有心理準(zhǔn)備,但卻沒有想過會(huì)突然變成研究對象,更何況,被錄入的研究對象將永遠(yuǎn)成為數(shù)據(jù)集的一部分。
倫理委員會(huì)(IRB)批準(zhǔn)了這三個(gè)使用學(xué)生數(shù)據(jù)來改進(jìn)機(jī)器學(xué)習(xí)算法的研究項(xiàng)目。杜克大學(xué)研究員Carlo Tomasi在《杜克大學(xué)紀(jì)事報(bào)》(Duke Chronicle)的一份聲明中表示,他“真誠地認(rèn)為”自己遵循了委員會(huì)的指導(dǎo)方針。
為了開展研究,他和他的同事在公共區(qū)域的所有入口處張貼海報(bào),告訴人們他們正在被記錄,如果他們想要?jiǎng)h除自己的數(shù)據(jù),可以留下聯(lián)系信息。Tomasi也告訴《紀(jì)事報(bào)》,沒有人主動(dòng)來聯(lián)系研究團(tuán)隊(duì)刪除數(shù)據(jù)。
但Tomasi承認(rèn),他沒有通知IRB自己研究范圍的變化。一般來說,微小的變化是可以不用上報(bào)的,但是Tomasi獲得的批準(zhǔn)是在室內(nèi)錄制,并且只有提交請求才能訪問數(shù)據(jù)庫。但現(xiàn)實(shí)中,他在室外錄制,并且將數(shù)據(jù)庫向所有人開放。他向《紀(jì)事報(bào)》表示,“IRB不應(yīng)該受到指責(zé),因?yàn)槲覜]有在關(guān)鍵時(shí)刻咨詢他們。我對我的錯(cuò)誤承擔(dān)全部責(zé)任,我向所有被記錄的人和此舉對杜克大學(xué)造成的影響道歉”。
有限的監(jiān)管和失控的后果
在科羅拉多州立大學(xué)多泉分校,首席研究員表示雖然他們通過學(xué)生數(shù)據(jù)來測試技術(shù),但是團(tuán)隊(duì)從未收集過具體到個(gè)人的識(shí)別信息。在獨(dú)立聲明中,大學(xué)們都重申IRB批準(zhǔn)了所有研究,并強(qiáng)調(diào)了其對學(xué)生隱私的承諾。
但問題在于,大學(xué)倫理委員會(huì)的監(jiān)管范圍是有限的。他們主要關(guān)注研究是如何進(jìn)行的,但對研究將會(huì)如何結(jié)束,后續(xù)會(huì)產(chǎn)生什么影響卻并不關(guān)心。
正如蓋辛格的IRB領(lǐng)導(dǎo)委員會(huì)主席、生物倫理學(xué)家Michelle Meyer所解釋的那樣,IRB主要關(guān)注的隱私問題是在公共場所開展觀察研究時(shí),研究對象是否被單獨(dú)識(shí)別,以及對他們的識(shí)別是否會(huì)使他們面臨實(shí)質(zhì)利益或生理上的傷害。“從理論上講,如果你正在制造一枚核彈,其中涉及調(diào)查或采訪人類受試者,那么IRB考慮的風(fēng)險(xiǎn)將是直接參與該項(xiàng)目的人員面臨的風(fēng)險(xiǎn),而不是核爆炸的潛在風(fēng)險(xiǎn)?!?/span>
值得注意的是,在信息時(shí)代,大多數(shù)學(xué)術(shù)研究都依靠互聯(lián)網(wǎng),而互聯(lián)網(wǎng)上的信息將永遠(yuǎn)存在。為其他研究人員開放數(shù)據(jù)集會(huì)增加伴生風(fēng)險(xiǎn),但IRB在這一方面并沒有多少管轄權(quán)。因?yàn)閺母旧险f,數(shù)據(jù)共享與研究本身并不是一回事,因此它處在“一個(gè)奇怪的灰色監(jiān)管地帶”,Meyer解釋說。
如果IRB對研究可能導(dǎo)致的后果漠不關(guān)心,那么其他不受IRB標(biāo)準(zhǔn)約束的研究人員,就可以下載數(shù)據(jù)集并按照他們的意愿隨意使用。而被研究的對象卻對自己正在被研究這件事全然不知,這可能會(huì)導(dǎo)致各種消極的后果。
這些后果或許遠(yuǎn)遠(yuǎn)超出研究人員的想象。德國反監(jiān)視專家Adam Harvey在全球范圍內(nèi)發(fā)現(xiàn)了100多個(gè)引用杜克數(shù)據(jù)集的機(jī)器學(xué)習(xí)項(xiàng)目。他創(chuàng)建了一張地圖,用于追蹤這一數(shù)據(jù)集在全球的傳播情況,就像飛機(jī)的航線圖一樣,從杜克大學(xué)向各個(gè)方向延伸出長長的藍(lán)線,指向世界各地的大學(xué)、初創(chuàng)企業(yè)和研究機(jī)構(gòu),包括中國的商湯科技(SenseTime)和曠視科技(Megvii)。
每次有新項(xiàng)目訪問數(shù)據(jù)集時(shí),損害可能導(dǎo)致的影響和范圍都會(huì)發(fā)生變化。數(shù)據(jù)的可移植性和互聯(lián)網(wǎng)的快速度結(jié)合在一起,大大擴(kuò)展了一個(gè)研究項(xiàng)目的可能邊界,也把風(fēng)險(xiǎn)擴(kuò)展到遠(yuǎn)遠(yuǎn)超出任何一所大學(xué)能承擔(dān)的范圍。
解決嘗試:建立學(xué)術(shù)審查系統(tǒng)
杜克大學(xué)最終決定刪除與該研究相關(guān)的數(shù)據(jù)集。斯坦福大學(xué)清除了研究人員基于舊金山咖啡館的顧客所創(chuàng)建的數(shù)據(jù)集。
科羅拉多大學(xué)博爾德分校信息科學(xué)系助理教授Casey Fiesler撰寫了關(guān)于在研究中使用公共數(shù)據(jù)的倫理學(xué)。Fiesler提出了一種用于審查數(shù)據(jù)集訪問的系統(tǒng),與審查版權(quán)類似。她指出,系統(tǒng)中的使用條款主要關(guān)注請求者計(jì)劃如何使用該數(shù)據(jù)。
“為這些數(shù)據(jù)集設(shè)置守門人是一個(gè)好主意”,她說,“因?yàn)橹灰鞔_使用目的,請求者就能夠訪問數(shù)據(jù)集。”類似的規(guī)則在開源軟件和Creative Commons的標(biāo)準(zhǔn)化版權(quán)許可協(xié)議上已有應(yīng)用。
Creative Commons是一種基于許可的系統(tǒng),請求者只能將獲得的作品作為非商業(yè)用途,而一旦他們隱瞞或歪曲意圖,則需要承擔(dān)責(zé)任。這些標(biāo)準(zhǔn)可能與學(xué)術(shù)環(huán)境并不完全匹配,但至少在切斷后續(xù)傷害方面是有用的?!斑@并不是將規(guī)則繁瑣化,但它提出了一種方法,使得你無論決定要做什么時(shí),都把前后因果考慮進(jìn)去”,Fiesler說。
種族歧視&影響執(zhí)法
應(yīng)用中暴露的技術(shù)盲區(qū)
當(dāng)人臉識(shí)別技術(shù)走出實(shí)驗(yàn)室,走進(jìn)現(xiàn)實(shí)生活,它就被賦予了更多意義——你的臉將不再只是一張具有生物屬性的臉了。在足球比賽中,你的臉是貨幣,用于在體育場購買食物。在商場,它是一個(gè)賬本,用于告訴銷售人員你過去的購買行為以及購物偏好。在抗議中,你的臉會(huì)反映出你過去被逮捕的歷史。即使在太平間,臉也能幫助官方機(jī)構(gòu)識(shí)別遺體。
隨著人臉承載的意義不斷加強(qiáng),技術(shù)錯(cuò)誤導(dǎo)致的后果嚴(yán)重性也隨之增強(qiáng)。在現(xiàn)階段的應(yīng)用中,人臉識(shí)別技術(shù)的一些弊端已經(jīng)暴露。
識(shí)別準(zhǔn)確度存在差異
加劇種族歧視
2016年麻省理工學(xué)院的研究員Joy Buolamwini研究表明,人臉識(shí)別技術(shù)的準(zhǔn)確性在膚色較淺的男性中表現(xiàn)優(yōu)于膚色較深的男性,而對于膚色較深的女性則表現(xiàn)最差。
美國公民聯(lián)合會(huì)(ACLU)也發(fā)現(xiàn)了類似的問題。當(dāng)ACLU將國會(huì)議員與犯罪數(shù)據(jù)庫進(jìn)行匹配時(shí),亞馬遜的Rekognition軟件對黑人議員的錯(cuò)誤識(shí)別比白人議員多得多,盡管黑人議員在總體數(shù)量中占比更小。其中包括眾議院議長Elijah Cummings,一名巴爾的摩人。
對不同膚色人種間識(shí)別的準(zhǔn)確度差異可能加劇種族歧視的指責(zé),微軟和亞馬遜都聲稱,自麻省理工學(xué)院和ACLU的報(bào)告發(fā)布以來,公司已經(jīng)優(yōu)化了技術(shù)對識(shí)別不同種族在準(zhǔn)確性方面的差異。但是,更準(zhǔn)確地識(shí)別有色面孔只是技術(shù)需要改進(jìn)的一部分,因?yàn)榧词雇耆珳?zhǔn)確的技術(shù)仍然可以用來支持對有色人種有害的執(zhí)法措施。
對技術(shù)本身的改進(jìn)和完善并不是最重要的議題,如何使用這項(xiàng)技術(shù)才更應(yīng)該被關(guān)注。微軟和亞馬遜提出的解決方案是在技術(shù)應(yīng)用后對面部識(shí)別存在問題進(jìn)行糾正,但這只是亡羊補(bǔ)牢。
人臉識(shí)別執(zhí)法
可行性存疑
5月初,《華盛頓郵報(bào)》報(bào)道稱,警方正在使用面部識(shí)別軟件抓捕疑犯。一名目擊者向警方描述了嫌疑人的外貌,警察據(jù)此畫出草圖上傳到亞馬遜的Rekognition,并最終逮捕了某人。這一事件震驚了國會(huì)聽證會(huì)上的專家——提交給數(shù)據(jù)庫的草圖竟可以被當(dāng)做逮捕嫌疑人的充分依據(jù)。
對此,亞馬遜網(wǎng)絡(luò)服務(wù)首席執(zhí)行官Jassy稱,亞馬遜從未收到對警方誤用技術(shù)的投訴。就在今年5月,亞馬遜股東投票否決了一項(xiàng)禁止向警方出售Rekognition的提案。亞馬遜的一位代表在一份聲明中說,“亞馬遜從未收到過任何公眾投訴,而且地方機(jī)構(gòu)在使用Rekognition方面沒有任何問題?!?/span>
立法者&制造商:
把“危險(xiǎn)的”人臉識(shí)別關(guān)進(jìn)籠子
為了平衡人臉識(shí)別技術(shù)的回報(bào)與風(fēng)險(xiǎn),華盛頓州、馬薩諸塞州、奧克蘭市以及美國立法機(jī)構(gòu)提出了一系列監(jiān)管建議。眾議院監(jiān)督和改革委員會(huì)的共和黨人和民主黨人舉行了幾個(gè)小時(shí)的聽證會(huì),并表示兩黨愿意共同努力來規(guī)范這項(xiàng)技術(shù)。
Face API和Rekognition軟件的制造商微軟和亞馬遜也對聯(lián)邦監(jiān)管表示支持。今年6月,美國排名第一的隨身攝錄機(jī)制造商Axon同意其道德委員會(huì)的建議,即不要讓Axon相機(jī)配備面部識(shí)別裝置。
去年,微軟總裁Brad Smith呼吁各國政府“立法來規(guī)范這項(xiàng)技術(shù)”。而亞馬遜網(wǎng)絡(luò)服務(wù)公司首席執(zhí)行官Andy Jassy在6月份表示附和,他將這項(xiàng)技術(shù)比作一把刀。這位來自世界上最強(qiáng)大的面部識(shí)別技術(shù)公司的高管想表達(dá):這個(gè)東西很危險(xiǎn)。
但在呼吁監(jiān)管方面,微軟和亞馬遜采取了一個(gè)巧妙的伎倆:他們沒有就面部識(shí)別是否應(yīng)該被廣泛應(yīng)用進(jìn)行辯論,而是在討論這一技術(shù)應(yīng)該如何被應(yīng)用。
亞馬遜在《大西洋月刊》上發(fā)表的一份聲明中表示,它正在與研究人員、立法者及其客戶合作,“了解如何最好地平衡面部識(shí)別的益處和潛在風(fēng)險(xiǎn)”,并指出Rekognition具有多種用途,包括打擊人口販賣并找到失蹤人員。微軟重申Smith的聲明,表示支持面部識(shí)別法規(guī)的建立,包括施行針對濫用行為的規(guī)范,以及獲得被識(shí)別對象的許可。
但一些隱私專家認(rèn)為這些公司別有用心。羅切斯特理工學(xué)院哲學(xué)教授Evan Selinger指責(zé)微軟和亞馬遜試圖“遏制強(qiáng)有力的監(jiān)管”。他認(rèn)為,這些公司努力推動(dòng)聯(lián)邦層面的監(jiān)管,是因?yàn)槿珖缘姆赏ǔ4碇拙€,與地方性法律相比,它們不太可能對私營公司如何使用該技術(shù)進(jìn)行限制。
目前看來,學(xué)術(shù)倫理和技術(shù)盲區(qū)的問題正在逐步解決,人臉識(shí)別的“狂奔”之路并不會(huì)因此減速。在人臉識(shí)別技術(shù)大范圍應(yīng)用之前,這可能是我們擁有自己面孔的最后時(shí)光。
終有一天,我們的臉將不再屬于我們,但在此之前,我們對這項(xiàng)技術(shù)的了解決定了我們會(huì)成為受益者還是受害者。當(dāng)科技公司不斷地縮小問題的討論范圍,將公共治理轉(zhuǎn)變?yōu)榉?wù)條款協(xié)議,我們能做的,就是在一方設(shè)定條款的時(shí)候,不要當(dāng)不感興趣的另一方,只會(huì)簡單地說:“我同意”。