讓人臉識(shí)別應(yīng)用以"必要"為限 技術(shù)發(fā)展須有法律規(guī)范
- 來(lái)源:互聯(lián)網(wǎng)
- |
- 2019-11-13
- |
- 0 條評(píng)論
- |
- |
- T小字 T大字
“難道我們就要一輩子躲在井底下嗎?”
本月初,經(jīng)典科幻電影《終結(jié)者:黑暗命運(yùn)》如期上映。影片中,大反派使用人臉識(shí)別技術(shù)鎖定對(duì)方的位置信息進(jìn)行追殺。面對(duì)如影隨行的危險(xiǎn),女主角Dan絕望而無(wú)奈地說(shuō)出了這句話。很快,大反派又通過(guò)人臉識(shí)別找到了他們……
實(shí)際上,電影中的情節(jié)已經(jīng)在現(xiàn)實(shí)中上演。近段時(shí)間,隨著人臉識(shí)別技術(shù)的大規(guī)模應(yīng)用,有關(guān)“臉”的話題成為焦點(diǎn)。據(jù)媒體報(bào)道,9月初,中國(guó)藥科大學(xué)試水教室人臉識(shí)別,引發(fā)對(duì)課堂隱私邊界的爭(zhēng)議;10月,上海一小區(qū)電梯引入人臉識(shí)別,引發(fā)公眾對(duì)隱私泄露的擔(dān)憂;不久前,有消息稱北京地鐵將應(yīng)用人臉識(shí)別技術(shù)對(duì)乘客實(shí)施分類安檢,觸動(dòng)大眾擔(dān)心個(gè)人信息安全的神經(jīng)。
而因不愿意“刷臉進(jìn)門(mén)”,購(gòu)買了動(dòng)物園年卡的浙江理工大學(xué)副教授郭兵將杭州野生動(dòng)物世界告上了法庭。11月3日,浙江省杭州市富陽(yáng)區(qū)人民法院正式受理此案。這也被稱為國(guó)內(nèi)“人臉識(shí)別第一案”。
一些業(yè)內(nèi)專家近日接受《法制日?qǐng)?bào)》記者采訪時(shí)指出,人臉識(shí)別等人工智能技術(shù)本身并無(wú)好壞,但這種技術(shù)在使用的時(shí)候必須要在法律框架內(nèi)進(jìn)行。要通過(guò)規(guī)范的引導(dǎo)來(lái)進(jìn)行必要的規(guī)制,以維護(hù)好安全、便利和隱私三者間的平衡。
當(dāng)事人同意并不意味著合法
抓捕逃犯、追蹤兒童、智慧城市……人臉識(shí)別技術(shù)除了在這些特定場(chǎng)景下得以應(yīng)用之外,還越來(lái)越多地滲入到普通人的日常生活中,比如進(jìn)門(mén)不用刷卡,看球賽看演唱會(huì)過(guò)安檢不用憑票,超市購(gòu)物不用掃碼支付。在帶來(lái)諸多便利的同時(shí),對(duì)人臉識(shí)別技術(shù)的擔(dān)憂也隨之而來(lái),越來(lái)越多的人擔(dān)心“刷臉”會(huì)讓自己“丟臉”。
在一些業(yè)內(nèi)專家看來(lái),這種便利的代價(jià)過(guò)于巨大,一旦操作不當(dāng),不僅會(huì)給個(gè)人帶來(lái)危險(xiǎn),甚至?xí)䦟?duì)整個(gè)世界秩序產(chǎn)生不堪設(shè)想的后果。更值得警惕的是,人臉識(shí)別技術(shù)的隨意擴(kuò)大使用還面臨著合法性和比例原則等法律拷問(wèn)。此前,就有媒體曝光某地廁所用人臉識(shí)別技術(shù)來(lái)達(dá)到避免人們重復(fù)取紙的應(yīng)用。
由于人臉采集不需要專門(mén)設(shè)備,幾乎可以在無(wú)意識(shí)的狀態(tài)下獲取人臉圖像,所以一旦當(dāng)事人同意,人臉信息瞬間就可以被企業(yè)等“合法”地采集走。但在北京航天航空大學(xué)法學(xué)院教授、北航備案審查制度研究中心主任王鍇看來(lái),人臉識(shí)別應(yīng)用的合法性問(wèn)題并非僅僅獲得當(dāng)事人同意就可以解決。“從個(gè)人信息自決權(quán)的角度,個(gè)人的自決要建立在充分知情的基礎(chǔ)上,即個(gè)人要充分了解風(fēng)險(xiǎn),同時(shí)要求個(gè)人全程參與個(gè)人信息流動(dòng)的過(guò)程,至少要留給個(gè)人監(jiān)督企業(yè)使用個(gè)人信息的渠道。個(gè)人自決意味著個(gè)人隨時(shí)有權(quán)對(duì)企業(yè)使用個(gè)人信息喊停。”
“在當(dāng)前無(wú)法完全保障人臉信息數(shù)據(jù)庫(kù)安全性的情況下,對(duì)人臉識(shí)別廣泛應(yīng)用的擔(dān)心是可以理解的。”王鍇分析指出,人臉識(shí)別的“危險(xiǎn)”在于,一方面,人臉雖然不屬于隱私,但因?yàn)槿四樳@種生物特征具有唯一性,通過(guò)人臉識(shí)別可以更加容易地發(fā)現(xiàn)個(gè)人隱私;另一方面,人臉識(shí)別要依靠大型的信息數(shù)據(jù)庫(kù),而這種數(shù)據(jù)庫(kù)的安全性是存疑的,一旦被濫用或者泄露,就會(huì)極大威脅到個(gè)人隱私乃至個(gè)人的其他權(quán)利。
“這就好像安樂(lè)死,盡管大家都知道它對(duì)于維護(hù)人的尊嚴(yán)的好處,但是在無(wú)法防止被濫用而且生命一旦損失就無(wú)法補(bǔ)救的情況下,世界各國(guó)對(duì)放開(kāi)安樂(lè)死還是比較謹(jǐn)慎的。”王鍇說(shuō)。
濫用刷臉屬于技術(shù)不當(dāng)使用
從密碼識(shí)別到芯片識(shí)別,再到個(gè)體生物特征識(shí)別(包括指紋、語(yǔ)音以及面部識(shí)別等),就加密或識(shí)別技術(shù)而言,日新月異的科技在帶來(lái)便捷與效率的同時(shí)也帶來(lái)?yè)?dān)憂。
正因?yàn)槿四樧R(shí)別技術(shù)可能會(huì)導(dǎo)致對(duì)隱私和公民權(quán)利的侵犯,目前,一些國(guó)家和地區(qū)已經(jīng)開(kāi)始對(duì)人臉識(shí)別技術(shù)持謹(jǐn)慎甚至否定的態(tài)度,并從法律層面加以防范。
8月,瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)對(duì)瑞典一所中學(xué)因違反《通用數(shù)據(jù)保護(hù)條例》而判處約1.9萬(wàn)歐元罰款。原因是該機(jī)構(gòu)被發(fā)現(xiàn)使用人臉識(shí)別技術(shù)來(lái)監(jiān)控22名高中生的出勤率。瑞典數(shù)據(jù)監(jiān)管機(jī)構(gòu)認(rèn)為,在日常環(huán)境中對(duì)學(xué)生進(jìn)行攝像監(jiān)控等行為侵犯了學(xué)生的隱私,即便教育部門(mén)事先取得那些學(xué)生家長(zhǎng)的同意,但仍然沒(méi)有足夠的合法理由,去搜集其他人的敏感數(shù)據(jù)。再以美國(guó)為例,鑒于該項(xiàng)技術(shù)可能會(huì)引起對(duì)有色人種的歧視,美國(guó)舊金山市今年專門(mén)出臺(tái)禁令,成為第一個(gè)禁止使用人臉識(shí)別技術(shù)的城市。此外,一些其他城市,如加利福尼亞州奧克蘭市以及馬薩諸塞州薩默維爾市也都提出了類似禁令建議。
中國(guó)社會(huì)科學(xué)院法學(xué)所研究員、教授姚佳分析指出,對(duì)于人類來(lái)說(shuō),除了保護(hù)人格尊嚴(yán)等精神層面,最重要的就是對(duì)生物層面的保護(hù),因?yàn)楹笳卟攀俏ㄒ恢械摹拔ㄒ弧保峭耆珶o(wú)法替代的。
“技術(shù)本身并無(wú)好壞善惡之分,但是人們利用技術(shù)的行為應(yīng)接受評(píng)判,人們?cè)趹?yīng)用技術(shù)時(shí)應(yīng)充分考慮技術(shù)可能帶來(lái)的負(fù)面影響并將風(fēng)險(xiǎn)降至最低。技術(shù)本來(lái)是為了便捷和提高效率,濫用‘刷臉’屬于典型的技術(shù)不當(dāng)使用。”姚佳說(shuō)。
人工智能技術(shù)發(fā)展須有法律規(guī)范
顯然,以人臉識(shí)別為代表的人工智能技術(shù)的急速擴(kuò)張帶來(lái)的法律問(wèn)題不容回避,但現(xiàn)行法律卻顯得“力不從心”。目前,對(duì)于包括收集主體、目的、方法、范圍與程序等在內(nèi)的關(guān)鍵問(wèn)題,法律尚一片空白,尤其是缺乏對(duì)侵權(quán)責(zé)任者的追究機(jī)制。
值得一提的是,今年6月,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則》,提出對(duì)人工智能治理的框架和行動(dòng)指南,呼吁發(fā)展“負(fù)責(zé)任的人工智能”,即技術(shù)的發(fā)展應(yīng)該符合人類的價(jià)值觀和倫理道德,避免誤用,禁止濫用、惡用。
“應(yīng)把保護(hù)人類能動(dòng)性作為人工智能研發(fā)的底線原則。”中國(guó)互聯(lián)網(wǎng)協(xié)會(huì)青年專家、國(guó)家能源集團(tuán)研究院研究員畢競(jìng)悅認(rèn)為,以人臉識(shí)別技術(shù)為代表的人工智能的發(fā)展不應(yīng)妨礙人類自治,人類不從屬于人工智能系統(tǒng),也不應(yīng)受到人工智能系統(tǒng)的脅迫。人類與人工智能系統(tǒng)互動(dòng)時(shí)必須保持充分有效的自我決定權(quán),有權(quán)選擇退出。
在畢競(jìng)悅看來(lái),科技的發(fā)展有利有弊,但總體而言利大于弊。不應(yīng)因噎廢食恐懼于科技的發(fā)展,而要善于利用科技增進(jìn)人類福祉。在此過(guò)程中,政府要承擔(dān)起監(jiān)管和制定標(biāo)準(zhǔn)的責(zé)任。
畢競(jìng)悅具體分析說(shuō),首先,在人臉識(shí)別等人工智能系統(tǒng)的開(kāi)發(fā)、使用和管理過(guò)程中要確保公平。開(kāi)發(fā)人員和實(shí)施者需要確保不讓特定個(gè)人或少數(shù)群體遭受偏見(jiàn)、侮辱和歧視,避免將弱勢(shì)群體置于更為不利的地位。在發(fā)生危害時(shí),可以為用戶提供有效補(bǔ)救。政府還可以提供機(jī)制,保障特殊群體的需求。其次,透明性應(yīng)成為人工智能運(yùn)行的基本要求。在使用包括人臉識(shí)別在內(nèi)的人工智能技術(shù)收集個(gè)人信息時(shí),必須保障個(gè)體的知情權(quán),并擁有選擇退出的權(quán)利。再次,人工智能系統(tǒng)的全生命周期都必須保護(hù)隱私數(shù)據(jù)。包括用戶提供的所有數(shù)據(jù)以及在與人工智能系統(tǒng)交互過(guò)程中生成的關(guān)于用戶的所有信息。此外,還要建立起具體、可操作的責(zé)任機(jī)制。
“新技術(shù)處于發(fā)展初期,法律制度不能過(guò)于嚴(yán)苛,需要鼓勵(lì)新產(chǎn)業(yè)的發(fā)展。但是,當(dāng)行業(yè)發(fā)展較為成熟,新技術(shù)影響到公眾的生活安寧,就需要嚴(yán)格法律規(guī)范予以調(diào)整,就應(yīng)該建立更加嚴(yán)格的準(zhǔn)入和監(jiān)管制度。”中國(guó)科學(xué)技術(shù)法學(xué)會(huì)常委會(huì)理事、北京市偉博律師事務(wù)所主任李偉民說(shuō)。
李偉民建議盡快建立“人臉識(shí)別倫理規(guī)范”,評(píng)估新技術(shù)的價(jià)值和作用,加強(qiáng)新技術(shù)的行業(yè)監(jiān)管。時(shí)機(jī)成熟之時(shí),建立關(guān)于人臉識(shí)別的專門(mén)法律制度,規(guī)范大數(shù)據(jù)的采集、保管、加工、交易等環(huán)節(jié)中的法律監(jiān)管,防止人臉識(shí)別過(guò)程中的信息泄露。“技術(shù)應(yīng)該服務(wù)于人類、方便為人類應(yīng)用,而不能成為限制人行為、傷害人生活安寧的工具。我們應(yīng)該建立對(duì)人臉識(shí)別技術(shù)的風(fēng)險(xiǎn)評(píng)估、法律規(guī)范的相應(yīng)制度,讓人臉識(shí)別技術(shù)在一個(gè)合理范圍內(nèi)服務(wù)人類。”
同時(shí),李偉民還建議制定人臉識(shí)別技術(shù)應(yīng)用的相關(guān)規(guī)范制度。“相關(guān)部門(mén)采用人臉識(shí)別技術(shù)應(yīng)當(dāng)遵守嚴(yán)格的程序限制,履行嚴(yán)格的審批、聽(tīng)證、公開(kāi)等程序,廣泛聽(tīng)取民意,讓人臉識(shí)別技術(shù)的應(yīng)用做到以‘必要’為限。”
人工智能勢(shì)頭猛,立法如何跟上
記者 朱寧寧
很多時(shí)候,技術(shù)越強(qiáng)大,內(nèi)心越恐慌。
人臉識(shí)別作為生物識(shí)別的一種技術(shù),可用來(lái)長(zhǎng)期追蹤個(gè)人身份、去向、習(xí)慣。據(jù)悉,最新的人臉識(shí)別技術(shù)通過(guò)對(duì)人臉面部表情的深度識(shí)別,不僅能夠識(shí)別性別與估計(jì)年齡,還能夠辨別個(gè)人的面部表情,計(jì)算個(gè)體內(nèi)心世界的真實(shí)情感。這意味著,人臉識(shí)別不但能看清臉,還能讀懂心,不僅能把行蹤摸清楚,還能把內(nèi)心想明白。
然而,以人臉識(shí)別為代表的科學(xué)技術(shù)的高速發(fā)展和廣泛應(yīng)用,也給個(gè)人信息保護(hù)帶來(lái)巨大挑戰(zhàn)。目前,我國(guó)有關(guān)數(shù)據(jù)管理、數(shù)據(jù)安全等人工智能內(nèi)容以及個(gè)人信息保護(hù)等規(guī)定散見(jiàn)于一些法律之中。比如,根據(jù)現(xiàn)行刑法規(guī)定,不經(jīng)同意而非法獲取,或者將合法取得的個(gè)人信息出售給第三方,此類行為均涉嫌構(gòu)成侵犯公民個(gè)人信息罪。民法總則第一百一十一條規(guī)定,任何組織和個(gè)人需要獲取他人個(gè)人信息的,應(yīng)當(dāng)依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個(gè)人信息,不得非法買賣、提供或者公開(kāi)他人個(gè)人信息。消費(fèi)者權(quán)益保護(hù)法第二十九條規(guī)定,經(jīng)營(yíng)者收集、使用消費(fèi)者個(gè)人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,明示收集、使用信息的目的、方式和范圍,并經(jīng)消費(fèi)者同意。經(jīng)營(yíng)者收集、使用消費(fèi)者個(gè)人信息,應(yīng)當(dāng)公開(kāi)其收集、使用規(guī)則,不得違反法律、法規(guī)的規(guī)定和雙方的約定收集、使用信息。網(wǎng)絡(luò)安全法中明確了對(duì)個(gè)人信息收集、使用及保護(hù)的要求,并規(guī)定了個(gè)人對(duì)其個(gè)人信息進(jìn)行更正或刪除的權(quán)利。目前正在編纂中的民法典人格權(quán)編草案對(duì)“換臉”等人工智能技術(shù)使用等作出了回應(yīng)。草案規(guī)定,任何組織或者個(gè)人不得以利用信息技術(shù)手段偽造的方式侵害他人的肖像權(quán)。此外,2019年,中央網(wǎng)信辦發(fā)布了《數(shù)據(jù)安全管理辦法(征求意見(jiàn)稿)》,向社會(huì)公開(kāi)征求意見(jiàn),明確了個(gè)人信息和重要數(shù)據(jù)的收集、處理、使用和安全監(jiān)督管理的相關(guān)標(biāo)準(zhǔn)和規(guī)范。
然而,制定專門(mén)的數(shù)據(jù)安全法、個(gè)人信息保護(hù)法仍然是必要的。值得一提的是,十三屆全國(guó)人大常委會(huì)立法規(guī)劃中,數(shù)據(jù)安全法與其他68部法律被列為“條件比較成熟、任期內(nèi)擬提請(qǐng)審議的法律草案”。2019年十三屆全國(guó)人大二次會(huì)議新聞發(fā)布會(huì)上,大會(huì)發(fā)言人張業(yè)遂稱在2019年將推進(jìn)數(shù)據(jù)安全法立法工作。
然而,立法加速的同時(shí),不得不看到技術(shù)的突破和進(jìn)步速度似乎更快。由此,給立法工作帶來(lái)的挑戰(zhàn)也不斷加碼。立法該怎樣追趕技術(shù)的腳步呢?
鑒于此,有專家建議全國(guó)人大常委會(huì)積極授權(quán)國(guó)務(wù)院和地方各級(jí)人大先行先試相關(guān)領(lǐng)域立法。比如,目前,大數(shù)據(jù)、網(wǎng)絡(luò)平臺(tái)治理、人工智能、生物技術(shù)等前沿科技引發(fā)的隱私權(quán)保護(hù)等問(wèn)題比較突出的地方大都位于北京、上海、廣東、浙江、江蘇等地方,而這些地方人大的立法專業(yè)化水平也都較高。據(jù)了解,現(xiàn)在一些地方已經(jīng)在積極推進(jìn)人工智能立法。比如,上海市最近在《上海市促進(jìn)國(guó)際科創(chuàng)中心建設(shè)條例》起草過(guò)程中,將人工智能、大數(shù)據(jù)等前沿科技的安全規(guī)制等問(wèn)題凝練成條款。同時(shí),立法中還可借鑒地方立法以往采用的專業(yè)性專職委員等好的做法,將一些前沿科技治理研究的學(xué)者或者實(shí)務(wù)人員充實(shí)到立法隊(duì)伍中,以加快相關(guān)立法起草的速度和質(zhì)量。此外,考慮到前沿科技涉及利益群體較多,地方各級(jí)人大要解放思想,除了一部分涉及國(guó)家安全的條款,其他部分應(yīng)將開(kāi)門(mén)立法的理念貫徹到底,要讓民眾積極地參與其中,以避免產(chǎn)業(yè)界通過(guò)立法和規(guī)范性文件的制定來(lái)進(jìn)行利益立法。
- 標(biāo)簽:
- 編輯:李娜
- 相關(guān)文章