迄今最全面研究發(fā)現(xiàn):即使頂級(jí)人臉識(shí)別算法,依然存在偏見(jiàn)

      • 來(lái)源:互聯(lián)網(wǎng)
      • |
      • 2019-12-23
      • |
      • 0 條評(píng)論
      • |
      • |
      • T小字 T大字

      目前,人臉識(shí)別系統(tǒng)在執(zhí)法、邊境控制和其他社會(huì)應(yīng)用領(lǐng)域的使用正在迅速增長(zhǎng)。之前就有幾項(xiàng)學(xué)術(shù)研究表明,人臉識(shí)別算法在流行的商業(yè)體系存在種族和性別偏見(jiàn)。

      最近,美國(guó)聯(lián)邦政府一項(xiàng)新的研究證實(shí)了這些早期結(jié)果。根據(jù)美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的研究,世界上許多頂尖的面部識(shí)別算法都存在年齡、種族和民族偏見(jiàn)。研究顯示,目前市場(chǎng)上出售的算法識(shí)別某些特定人群的錯(cuò)誤率是識(shí)別其他人群的100倍。

      圖 | 邊境警察檢查護(hù)照(來(lái)源:麻省理工科技評(píng)論)

      NIST表示,他們的“實(shí)驗(yàn)數(shù)據(jù)”表明,年齡、性別和種族等特征會(huì)影響“大多數(shù)”算法的準(zhǔn)確性。該小組測(cè)試了來(lái)自99個(gè)組織的189種算法,這些算法為全球大多數(shù)面部識(shí)別系統(tǒng)提供支持。

      據(jù)《華盛頓郵報(bào)》報(bào)道,立法者稱(chēng)該研究結(jié)果“令人震驚”,并呼吁美國(guó)政府重新考慮使用該技術(shù)來(lái)保護(hù)邊境安全的計(jì)劃。

      “令人震驚”的研究結(jié)果

      NIST研究了目前在美國(guó)政府應(yīng)用中使用的四組面部數(shù)據(jù): 美國(guó)居民的面部照片;申請(qǐng)移民福利人士的申請(qǐng)照片;申請(qǐng)簽證人員的申請(qǐng)照片,以及穿越邊境進(jìn)入美國(guó)的申請(qǐng)照片。

      總的來(lái)說(shuō),數(shù)據(jù)庫(kù)包括了 1827 萬(wàn)張圖片,涉及 849 萬(wàn)人,是迄今為止最全面的評(píng)估。

      這項(xiàng)研究測(cè)試了“一對(duì)一”識(shí)別和“一對(duì)多”搜索。“一對(duì)一”就是把某人的照片與數(shù)據(jù)庫(kù)中同一個(gè)人的另一張照片進(jìn)行匹配,它一般是用于解鎖智能手機(jī)或執(zhí)法部門(mén)檢查護(hù)照;“一對(duì)多”則是將某個(gè)人與一個(gè)更大數(shù)據(jù)庫(kù)中的單個(gè)記錄匹配,這經(jīng)常被警察部門(mén)用來(lái)在調(diào)查中識(shí)別嫌疑犯。

      在一對(duì)多的搜索中,非裔美國(guó)婦女最常被錯(cuò)誤地識(shí)別,而亞洲人、非裔美國(guó)人、印第安人和太平洋島民在一對(duì)一的搜索中經(jīng)常被錯(cuò)誤識(shí)別。兒童和老年人的錯(cuò)誤識(shí)別率也相對(duì)更高。在某些情況下,亞裔和非裔美國(guó)人被錯(cuò)誤識(shí)別的概率是白人的 100 倍。一般來(lái)說(shuō),中年白人男性的準(zhǔn)確率最高。

      人臉識(shí)別還沒(méi)做好準(zhǔn)備

      研究結(jié)果進(jìn)一步證明,世界上許多最先進(jìn)的面部識(shí)別算法仍不具備在執(zhí)法和國(guó)家安全等關(guān)鍵領(lǐng)域使用的條件。NIST 的研究是迄今為止最全面的評(píng)估,調(diào)查結(jié)果對(duì)這些系統(tǒng)是否應(yīng)該繼續(xù)如此廣泛地使用提出了疑問(wèn)。

      NIST 研究測(cè)試的算法是這些組織自愿提交的。但向當(dāng)?shù)鼐胶吐?lián)邦調(diào)查人員銷(xiāo)售Reko面部識(shí)別軟件的亞馬遜并沒(méi)有提交相關(guān)算法。此前就有研究對(duì)亞馬遜面部識(shí)別系統(tǒng)的準(zhǔn)確性提出了擔(dān)憂(yōu)。

      2018 年 7 月,美國(guó)公民自由聯(lián)盟(American Civil Liberties Union)測(cè)試了亞馬遜的面部識(shí)別系統(tǒng),結(jié)果系統(tǒng)將28名國(guó)會(huì)議員識(shí)別成了罪犯。人工智能研究人員呼吁亞馬遜停止銷(xiāo)售其“有缺陷”的系統(tǒng)。但亞馬遜聲稱(chēng),它的軟件不是 NIST 的測(cè)試可以輕易分析的(盡管擁有類(lèi)似產(chǎn)品的科技公司提交算法是沒(méi)有問(wèn)題的),其股東也抵制了要求限制Reko銷(xiāo)售的呼聲。

      要尊重人們的安全和隱私

      專(zhuān)家表示,這些算法中的偏差可以通過(guò)使用更多樣化的訓(xùn)練數(shù)據(jù)來(lái)減少。例如,研究人員發(fā)現(xiàn),亞洲國(guó)家開(kāi)發(fā)的人臉識(shí)別算法表現(xiàn)更好,在亞洲人和白人之間的錯(cuò)誤率差別很小。

      然而,即使解決了算法偏見(jiàn),也不能解決面部識(shí)別的所有問(wèn)題,因?yàn)檫@項(xiàng)技術(shù)的使用方式?jīng)]有尊重人們的安全和隱私。

      (來(lái)源:麻省理工科技評(píng)論)

      Joy Buolamwini 是一名人工智能研究人員,他在去年接受采訪時(shí)表示,他一直在研究面部識(shí)別的偏見(jiàn)問(wèn)題。“發(fā)展面部識(shí)別技術(shù)并將其武器化有什么好處?技術(shù)應(yīng)用不能脫離其社會(huì)影響,”他說(shuō)。

      現(xiàn)在,需要政策制定者來(lái)找出監(jiān)管這些技術(shù)的最佳方式。NIST還敦促人臉識(shí)別的開(kāi)發(fā)者進(jìn)行更多的研究,以減少這些偏見(jiàn)。

      編輯:李亞山

      參考:

      https://www.theverge.com/2019/12/20/21031255/facial-recognition-algorithm-bias-gender-race-age-federal-nest-investigation-analysis-amazon

      https://www.theverge.com/2018/7/26/17615634/amazon-rekognition-aclu-mug-shot-congress-facial-recognition

      https://www.technologyreview.com/f/614986/ai-face-recognition-racist-us-government-nist-study/

      免責(zé)聲明:本站所有信息均搜集自互聯(lián)網(wǎng),并不代表本站觀點(diǎn),本站不對(duì)其真實(shí)合法性負(fù)責(zé)。如有信息侵犯了您的權(quán)益,請(qǐng)告知,本站將立刻處理。聯(lián)系QQ:1640731186
      友薦云推薦
      熱網(wǎng)推薦更多>>
      主站蜘蛛池模板: 国产精品视频不卡| 日本簧片在线观看| 可以免费看污视频的网站| 你懂的在线视频网站| 工囗番漫画全彩无遮拦老师| 亚洲Av无码一区二区二三区| 男人天堂999| 国产三级精品视频| jizz18高清视频| 天天干天天操天天玩| 久久久久亚洲av成人网人人软件 | 男插女青青影院| 国产午夜无码精品免费看| 88av视频在线| 宝宝你里面好烫很软不想出来| 久久强奷乱码老熟女网站| 欧美日本在线视频| 免费人成在线观看网站品爱网| 虎白女粉嫩尤物福利视频| 国产第一福利136视频导航| 99精品国产成人一区二区| 成人欧美一区二区三区| 久久精品国产亚洲AV麻豆不卡 | 久久天天躁狠狠躁夜夜av| 毛片a级三毛片免费播放| 又大又硬又爽免费视频| 香蕉视频在线观看男女| 国产精品内射视频免费| 人妻无码一区二区三区AV| 老熟女高潮一区二区三区| 国产成人精品a视频| 521色香蕉网站在线观看| 好大好爽好舒服视频| 久久99热精品免费观看动漫| 暴力调教一区二区三区| 亚洲成人www| 狠狠久久永久免费观看| 午夜亚洲国产成人不卡在线| 野花社区视频在线观看| 国产揄拍国内精品对白| 国产精品久久久久久久久久免费 |