迄今最全面研究發(fā)現(xiàn):即使頂級(jí)人臉識(shí)別算法,依然存在偏見(jiàn)
- 來(lái)源:互聯(lián)網(wǎng)
- |
- 2019-12-23
- |
- 0 條評(píng)論
- |
- |
- T小字 T大字
目前,人臉識(shí)別系統(tǒng)在執(zhí)法、邊境控制和其他社會(huì)應(yīng)用領(lǐng)域的使用正在迅速增長(zhǎng)。之前就有幾項(xiàng)學(xué)術(shù)研究表明,人臉識(shí)別算法在流行的商業(yè)體系存在種族和性別偏見(jiàn)。
最近,美國(guó)聯(lián)邦政府一項(xiàng)新的研究證實(shí)了這些早期結(jié)果。根據(jù)美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的研究,世界上許多頂尖的面部識(shí)別算法都存在年齡、種族和民族偏見(jiàn)。研究顯示,目前市場(chǎng)上出售的算法識(shí)別某些特定人群的錯(cuò)誤率是識(shí)別其他人群的100倍。
圖 | 邊境警察檢查護(hù)照(來(lái)源:麻省理工科技評(píng)論)
NIST表示,他們的“實(shí)驗(yàn)數(shù)據(jù)”表明,年齡、性別和種族等特征會(huì)影響“大多數(shù)”算法的準(zhǔn)確性。該小組測(cè)試了來(lái)自99個(gè)組織的189種算法,這些算法為全球大多數(shù)面部識(shí)別系統(tǒng)提供支持。
據(jù)《華盛頓郵報(bào)》報(bào)道,立法者稱(chēng)該研究結(jié)果“令人震驚”,并呼吁美國(guó)政府重新考慮使用該技術(shù)來(lái)保護(hù)邊境安全的計(jì)劃。
“令人震驚”的研究結(jié)果
NIST研究了目前在美國(guó)政府應(yīng)用中使用的四組面部數(shù)據(jù): 美國(guó)居民的面部照片;申請(qǐng)移民福利人士的申請(qǐng)照片;申請(qǐng)簽證人員的申請(qǐng)照片,以及穿越邊境進(jìn)入美國(guó)的申請(qǐng)照片。
總的來(lái)說(shuō),數(shù)據(jù)庫(kù)包括了 1827 萬(wàn)張圖片,涉及 849 萬(wàn)人,是迄今為止最全面的評(píng)估。
這項(xiàng)研究測(cè)試了“一對(duì)一”識(shí)別和“一對(duì)多”搜索。“一對(duì)一”就是把某人的照片與數(shù)據(jù)庫(kù)中同一個(gè)人的另一張照片進(jìn)行匹配,它一般是用于解鎖智能手機(jī)或執(zhí)法部門(mén)檢查護(hù)照;“一對(duì)多”則是將某個(gè)人與一個(gè)更大數(shù)據(jù)庫(kù)中的單個(gè)記錄匹配,這經(jīng)常被警察部門(mén)用來(lái)在調(diào)查中識(shí)別嫌疑犯。
在一對(duì)多的搜索中,非裔美國(guó)婦女最常被錯(cuò)誤地識(shí)別,而亞洲人、非裔美國(guó)人、印第安人和太平洋島民在一對(duì)一的搜索中經(jīng)常被錯(cuò)誤識(shí)別。兒童和老年人的錯(cuò)誤識(shí)別率也相對(duì)更高。在某些情況下,亞裔和非裔美國(guó)人被錯(cuò)誤識(shí)別的概率是白人的 100 倍。一般來(lái)說(shuō),中年白人男性的準(zhǔn)確率最高。
人臉識(shí)別還沒(méi)做好準(zhǔn)備
研究結(jié)果進(jìn)一步證明,世界上許多最先進(jìn)的面部識(shí)別算法仍不具備在執(zhí)法和國(guó)家安全等關(guān)鍵領(lǐng)域使用的條件。NIST 的研究是迄今為止最全面的評(píng)估,調(diào)查結(jié)果對(duì)這些系統(tǒng)是否應(yīng)該繼續(xù)如此廣泛地使用提出了疑問(wèn)。
NIST 研究測(cè)試的算法是這些組織自愿提交的。但向當(dāng)?shù)鼐胶吐?lián)邦調(diào)查人員銷(xiāo)售Reko面部識(shí)別軟件的亞馬遜并沒(méi)有提交相關(guān)算法。此前就有研究對(duì)亞馬遜面部識(shí)別系統(tǒng)的準(zhǔn)確性提出了擔(dān)憂(yōu)。
2018 年 7 月,美國(guó)公民自由聯(lián)盟(American Civil Liberties Union)測(cè)試了亞馬遜的面部識(shí)別系統(tǒng),結(jié)果系統(tǒng)將28名國(guó)會(huì)議員識(shí)別成了罪犯。人工智能研究人員呼吁亞馬遜停止銷(xiāo)售其“有缺陷”的系統(tǒng)。但亞馬遜聲稱(chēng),它的軟件不是 NIST 的測(cè)試可以輕易分析的(盡管擁有類(lèi)似產(chǎn)品的科技公司提交算法是沒(méi)有問(wèn)題的),其股東也抵制了要求限制Reko銷(xiāo)售的呼聲。
要尊重人們的安全和隱私
專(zhuān)家表示,這些算法中的偏差可以通過(guò)使用更多樣化的訓(xùn)練數(shù)據(jù)來(lái)減少。例如,研究人員發(fā)現(xiàn),亞洲國(guó)家開(kāi)發(fā)的人臉識(shí)別算法表現(xiàn)更好,在亞洲人和白人之間的錯(cuò)誤率差別很小。
然而,即使解決了算法偏見(jiàn),也不能解決面部識(shí)別的所有問(wèn)題,因?yàn)檫@項(xiàng)技術(shù)的使用方式?jīng)]有尊重人們的安全和隱私。
(來(lái)源:麻省理工科技評(píng)論)
Joy Buolamwini 是一名人工智能研究人員,他在去年接受采訪時(shí)表示,他一直在研究面部識(shí)別的偏見(jiàn)問(wèn)題。“發(fā)展面部識(shí)別技術(shù)并將其武器化有什么好處?技術(shù)應(yīng)用不能脫離其社會(huì)影響,”他說(shuō)。
現(xiàn)在,需要政策制定者來(lái)找出監(jiān)管這些技術(shù)的最佳方式。NIST還敦促人臉識(shí)別的開(kāi)發(fā)者進(jìn)行更多的研究,以減少這些偏見(jiàn)。
編輯:李亞山
參考:
https://www.theverge.com/2019/12/20/21031255/facial-recognition-algorithm-bias-gender-race-age-federal-nest-investigation-analysis-amazon
https://www.theverge.com/2018/7/26/17615634/amazon-rekognition-aclu-mug-shot-congress-facial-recognition
https://www.technologyreview.com/f/614986/ai-face-recognition-racist-us-government-nist-study/
- 標(biāo)簽:
- 編輯:李娜
- 相關(guān)文章