五月天成人小说,中文字幕亚洲欧美专区,久久妇女,亚洲伊人久久大香线蕉综合,日日碰狠狠添天天爽超碰97

涉嫌“種族歧視”,IBM和亞馬遜叫停面部識(shí)別技術(shù)服務(wù)|海外頭條

爭議越來越大,亞馬遜表示希望盡快出臺(tái)強(qiáng)有力的法規(guī)規(guī)范面部識(shí)別技術(shù)的道德使用。

編者按:

《海外頭條》是創(chuàng)業(yè)邦推出的海外欄目,服務(wù)于廣大創(chuàng)業(yè)人群,為他們提供專業(yè)、有啟發(fā)性和實(shí)用性的海外訊息。

欄目通過分享優(yōu)秀的行業(yè)熱點(diǎn)文章,幫助創(chuàng)業(yè)者打開新思路,洞悉全球市場動(dòng)向,掌握大企業(yè)背后的秘密。創(chuàng)業(yè)不應(yīng)盲目,張開眼睛看世界,才能找到新風(fēng)景。

美國圍繞警察對(duì)黑人施暴的全國性抗議活動(dòng)仍在持續(xù),科技公司每次在這種時(shí)候都不可避免要做出一些表態(tài)。

這一次,由于隱私和民權(quán)組織的多次呼吁,兩家科技巨頭IBM和亞馬遜出面宣布它們將不再向執(zhí)法部門出售面部識(shí)別技術(shù),因?yàn)檩浾摲Q該技術(shù)對(duì)深膚色的人影響很大,可導(dǎo)致種族定性,加深矛盾。

本期推介文章來自The Millennial Source網(wǎng)站《出于種族偏見的考慮,IBM和亞馬遜將停止出售面部識(shí)別技術(shù)》(IBM and Amazon will stop selling facial recognition technology over racial bias concerns),作者Sam Mukwamu。

6月8日,IBM首席執(zhí)行官Arvind Krishna宣布公司將不再開發(fā)面部識(shí)別技術(shù),并在給國會(huì)的一封信中說,“IBM對(duì)將任何技術(shù)用于種族定性、侵犯基本人權(quán)的做法非常反對(duì),這不符合其信任和透明的價(jià)值觀?!?/p>

亞馬遜也宣布將暫停警方一年使用Rekognition(亞馬遜的面部識(shí)別技術(shù))的服務(wù)。

不過,該公司將繼續(xù)為那些致力于解救人口販賣受害者和讓失蹤兒童與家人團(tuán)聚的組織提供這項(xiàng)技術(shù)。

作者指出,人臉識(shí)別技術(shù),或者說人工智能的飛速發(fā)展一直以來都存在爭議。

比如,人工智能會(huì)不會(huì)讓更多的工人失去工作?如何解決可能會(huì)帶來的社會(huì)倫理問題?人們的隱私安全等基本權(quán)利誰來保證?

實(shí)際上,人工智能是一個(gè)強(qiáng)大的工具,可以幫助執(zhí)法部門保護(hù)公民的安全。人臉識(shí)別技術(shù)可以用來實(shí)時(shí)識(shí)別人的身份信息,也可以通過照片和視頻來識(shí)別。

多年來,美國軍方和情報(bào)機(jī)構(gòu)一直使用該技術(shù)來識(shí)別逃犯和可能的恐怖嫌疑人,各地執(zhí)法機(jī)構(gòu)也使用該技術(shù)偵查和預(yù)防犯罪行為。

這項(xiàng)技術(shù)也在其他地方得到了應(yīng)用,包括在機(jī)場驗(yàn)證旅客身份,在銀行和金融領(lǐng)域用于打擊欺詐犯罪,在智能手機(jī)領(lǐng)域用于解鎖手機(jī)、登錄移動(dòng)應(yīng)用程序和驗(yàn)證支付。

在更好的人工智能算法和更多的訓(xùn)練數(shù)據(jù)的推動(dòng)下,人臉識(shí)別技術(shù)得到越來越多的應(yīng)用。

根據(jù)Grand View Research的一份報(bào)告,全球面部識(shí)別市場在2019年估值為34億美元,預(yù)計(jì)從2020年到2027年將以每年14.5%的速度增長。

但它的風(fēng)險(xiǎn)似乎就是“太過智能”。反對(duì)者認(rèn)為面部識(shí)別軟件可以識(shí)別那些沒有犯罪記錄的人,這是不能接受的,成為了一個(gè)引起分歧的話題。

根據(jù)喬治敦大學(xué)法學(xué)院的一份報(bào)告,估計(jì)有1.17億美國成年人在執(zhí)法部門使用的面部識(shí)別網(wǎng)絡(luò)系統(tǒng)之中。

該報(bào)告還估計(jì),美國至少有26到30個(gè)州允許執(zhí)法部門將駕照和身份證照片數(shù)據(jù)庫用于面部識(shí)別搜索。

在評(píng)估了來自39個(gè)不同開發(fā)商的127種軟件算法后,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)報(bào)告稱,在2014年至2018年間,算法在搜索數(shù)據(jù)庫匹配照片方面的能力整整提高了20倍。

作者表示,抗議活動(dòng)之后,對(duì)這項(xiàng)技術(shù)對(duì)隱私的影響和對(duì)種族偏見的擔(dān)憂發(fā)生了碰撞和重疊,反對(duì)的聲浪更強(qiáng)了。

根據(jù)喬治敦大學(xué)的法律報(bào)告,由于不成比例的高逮捕率,非洲裔美國人更有可能被基于嫌疑犯照片數(shù)據(jù)庫的系統(tǒng)挑出來。

而且由于人臉識(shí)別技術(shù)日益提升的準(zhǔn)確性,它可以快速將人群根據(jù)性別和種族進(jìn)行區(qū)分。

麻省理工學(xué)院媒體實(shí)驗(yàn)室做了一項(xiàng)研究,針對(duì)不同性別和膚色的整理數(shù)據(jù)測(cè)試了面部識(shí)別軟件。

研究結(jié)果顯示,這些軟件更擅長識(shí)別男性,尤其是淺膚色男性,對(duì)淺膚色男性的識(shí)別錯(cuò)誤率不到1%。

但是,在嘗試識(shí)別深色皮膚的女性時(shí),卻出現(xiàn)了重大錯(cuò)誤。微軟的人臉識(shí)別軟件的錯(cuò)誤率為21%,而IBM的軟件的錯(cuò)誤率接近35%。

2018年,美國公民自由聯(lián)盟(ACLU)強(qiáng)調(diào)了面部識(shí)別技術(shù)在識(shí)別有色人種方面的缺陷。

當(dāng)時(shí)亞馬遜的Rekognition軟件錯(cuò)誤地將28名國會(huì)議員的照片與因犯罪而被捕的人的面部照片相匹配。

而在有色人種非常普遍、又無法解決種族歧視問題的美國,上述的技術(shù)失誤可能會(huì)進(jìn)一步導(dǎo)致錯(cuò)誤逮捕或警察暴力行為。

作者稱,在亞馬遜和IBM發(fā)聲之后,ACLU開始呼吁其他科技公司效仿,尤其點(diǎn)名了微軟公司,以及一些有可能“不正當(dāng)”使用該技術(shù)拒絕求職者就業(yè),或拒絕有色人種獲得金融服務(wù)和醫(yī)療保健的公司。

據(jù)了解,微軟內(nèi)部要求停止向執(zhí)法部門出售技術(shù)的呼聲也非常強(qiáng)烈,有250名微軟員工本周要求公司取消與西雅圖警察局的合同。

爭議越來越大,亞馬遜表示希望盡快出臺(tái)強(qiáng)有力的法規(guī)規(guī)范面部識(shí)別技術(shù)的道德使用。除此之外,只能暫停這項(xiàng)技術(shù),不知道未來還會(huì)怎樣。

本文為創(chuàng)業(yè)邦原創(chuàng),未經(jīng)授權(quán)不得轉(zhuǎn)載,否則創(chuàng)業(yè)邦將保留向其追究法律責(zé)任的權(quán)利。如需轉(zhuǎn)載或有任何疑問,請(qǐng)聯(lián)系editor@cyzone.cn。

來源:創(chuàng)業(yè)邦
反饋
聯(lián)系我們
推薦訂閱