国产成人精品a视频一区www_国产区视频在线观看_99色视频_欲色av_亚洲一区电影_亚洲综合视频一区

人工智能已經在預測誰會變成罪犯,這可不是好事

來源:網絡

點擊:823

A+ A-

所屬頻道:新聞中心

關鍵詞: 人工智能,預測

    人工智能已經在預測誰會變成罪犯,這可不是好事

    “還有 30 秒。”湯姆·克魯斯扮演的未來警察跳下直升機后,耳邊響起同事的最后一次提醒。

    此刻,一位男子在臥室里拿起床頭的剪刀,面前是他出軌的妻子。在他來得及做任何事之前,一眾警察沖進屋子,將他按住。

    “看著我,看著我”湯姆·克魯斯用虹膜識別設備掃描了男子的眼睛,“就是你了,霍華德·馬克思。我要以‘即將謀殺罪’逮捕你,你本來要在 4 月 22 日,也就是今天 8 點 04 分謀殺你的妻子。”

    “但我什么都沒做!”男子辯解道,但警方已經銬上他的手腕。城市里的城市謀殺案數量依然保持為零。

    這是斯皮爾伯格 2002 年的科幻電影《少數派報告》,片中的警察可以預測犯罪細節,提前趕到現場,制止犯罪。

    今天還沒有人能精確預測未發生罪案的細節。但預測哪里會發生罪案、誰更有可能犯罪是已經被用在執法、乃至定罪上。

    人工智能已經在決定數十個城市的警察去哪兒巡邏、找誰“聊天”

    意大利的 KeyCrime 是一家軟件預測公司。他們目前主要服務米蘭警方,針對商店的搶劫和偷竊做地區預測,目前這套系統已經用了 9 年了。

    創始人 Mario Venturi 告訴《好奇心日報》,他們的邏輯是已經有很多的經驗和數據支持:犯罪者有他們行動的一套范式——如果他們在某一地區進行了搶劫犯罪并且得手了,他們更傾向于在該地點附近的再次作案。

    今年 3 月,米蘭的警察通過 KeyCrime 的指引做到了“預防犯罪”——在一個超市門口,在兩個罪犯正準備搶劫超市,警察抓住了他們。

    1497485620761069032.png

    KeyCrime 調用的是警方的犯罪嫌疑人的數據,配合被搶劫的商店地點、攝像頭里拍攝的犯罪嫌疑人的動作,攜帶的武器,來分析這個罪犯的危險程度,更重要的是,分析他跟附近犯罪案件有沒有什么別的關系,如果有——他下一宗犯罪可能會在什么時間和區域。

    最近幾年,有了大量的數據和神經網絡學習算法之后,KeyCrime 在不同罪案中建立聯系變得方便起來。

    像 KeyCrime 這樣的犯罪預測軟件已經有很多家警局在使用。

    今年 5 月,芝加哥警局局長 Jonathan Lewin 開了一個人工智能的溝通會:警局在城市里安裝了可以檢測槍聲的聲音感應器收集數據,加上城市路邊的攝像頭數據,通過機器學習算法做了一個“罪案預測系統”,能預測搶劫、槍擊案的罪案地點,還能預測什么人可能會犯罪,讓警方可以提前找嫌疑人聊聊天。

    現在芝加哥警員巡邏時,會在手機和平板上用這么一個應用:地圖上顯示著一個個紅色的小方塊,那里就是下一次犯罪可能發生的地方。

    人工智能已經在預測誰會變成罪犯,這可不是好事

    不同犯罪行為的熱點圖,來自 PredPol 公司的軟件

    警方使用技術分析和預測犯罪地點,已經有很多年了,而原因也很好理解:效率。

    著名犯罪學家 Lawrence W. Sherman 曾總結過“減少犯罪的八個原則”:

    1. 更多的警員數量;

    2. 更快的 911 反饋;

    3. 從接報到出警響應時間更短;

    4. 更多隨機巡邏;

    5. 更多對于犯罪熱點地區有目的巡邏;

    6. 更多逮捕;

    7. 更多和有犯罪前科的嫌疑人交流;

    8. 更多和社區溝通;

    這些原則當中有不少都是跟怎么調派警力到某一位置相關。現實當中,地方警局的人手和工作時間都是有限的。而算法和機器學習在這當中的作用,就是幫警局提升效率。如果一個警員每天只有 8 小時的巡邏時間,到處亂走看看有沒有撞見罪犯,并不是一個很高效的行為模式。

    洛杉磯警局的警長 Charlie Beck 說法也是類似,“我要不來跟更多的經費,也要不來更多的人手。我只能把我有的資源用得更好,如果巡警能對這種技術改變看法,那么管理者也會這么做。” 洛杉磯表示,使用這套提高效率的模型,一年光一個分局就能省下 200 萬美元。

    人工智能已經在預測誰會變成罪犯,這可不是好事

    背后有不少技術公司在幫忙。剛剛我們談了那么多洛杉磯和芝加哥警局使用的預測犯罪的軟件,背后就是加州圣克魯茲的警力軟件公司 PredPol。

    芝加哥警局表示,用了 PredPol 的算法短短幾個月后,槍擊案件等發生幾率已經下降了 13%,預計謀殺案件的數量將降低 49%。

    芝加哥其實在 2009 年開始就在犯罪分析系統 PredPol,而被證實有效的 KeyCrime 也已經在米蘭警局使用了 9 年。

    只是最近幾年,在有了更多數據之后,警方開發重心,從分析到預測“地點”,再從預測地點升級到預測“嫌疑人”上。

    去年很受爭議的就是芝加哥警局的“預測罪犯熱點名單”,他們會告訴警員,附近街區最有可能犯罪的前 20 名嫌疑犯名字和照片,具體到這樣的程度:“此人可能在 18 個月內有 25% 的可能性參與暴力事件。”

    根據芝加哥警局透露的信息,這個名單已經有 400 人。上榜的人不一定有犯罪史:住在罪案高發地地區,或者朋友、家人有人犯罪……都是這個名單背后算法考慮的因素。

    警方還會提前給這些算法挑選出來的“未來罪犯”提前做心理建設。Jonathan Lewin 把這套提前干預犯罪的機制叫做“定制化提醒”,提前去找嫌疑人聊天:

    “我們注意到你了,我們想把你從犯罪圈里解脫出來,這些是我們準備的社會服務項目。”而所謂的“社會服務項目”,可能是從清理社區、志愿者活動到職業培訓,到底是要嫌疑人自己去做還是全家都要換地方,也沒有說清楚。

    如果這位嫌疑人不同意繼續要留在算法設定的高犯罪地區,警方就會發出警告,“如果你在此區域犯罪,你可能會被處以更嚴重的懲罰。”

    怎么定罪,人工智能也會參與其中

    2013 年,艾瑞克·盧米斯因為偷車被美國威斯康辛州的法院判處了 6 年的有期徒刑。

    他偷來的車曾經參與過一場槍擊案,車尾箱里還有槍。警方原本以為是人贓并獲,結果查清楚是誤判,盧米斯其實并沒有參加持槍犯罪,只是剛好偷了一輛有過犯罪記錄的車。如果只是犯了偷車,根據威斯康辛州的法律,刑期最多是入獄三年,然后還有三年是出獄監視。

    但法院還是給盧米斯判了更重的刑罰。法庭的量刑參考的是一套名為 COMPAS 的人工智能算法。這個十分制的“打分”機制被美國司法部用于判斷有過犯罪紀錄的人未來犯罪的幾率。

    盧米斯在偷車之前,曾經因為性犯罪入獄。上次入獄的時候,COMPAS 算法當時給他打了一個高分。這次,這個分數被威斯康辛州法院當作參考數值了。

    盧米斯提起上訴,要求公開算法是對他評分的機制,他認為評分細則里有性別等參考因素。

    這個要求遭到了法院的拒絕:他們認為給罪犯做打分分析是自從 1923 年就開始有的事情,而且這個算法是開發方 Northpointe 公司的知識產權,所以不能公開。而對于盧米斯的考量除了算法還有別的機制,所以是公平公正的,就在今年 5 月 23 日,法庭駁回了上訴,維持原判。

    如果在美國犯罪進了監獄,COMPAS 這個人工智能算法很可能就會接管你的個人數據。入獄者填寫一份個人情況調查問卷,綜合犯罪的嚴重程度,COMPAS 會計算出一套“未來罪犯”的評分機制。為避免歧視,這份問卷里并沒有問種族、收入等敏感的維度,但會有這么一些類似問題:

    你在什么地方居住?

    你的教育程度?

    你中學之前有坐過飛機旅行嗎?

    你的親人、朋友有人曾經參與犯罪嗎?

    去年,非盈利調查機構 ProPublica 從警方處拿到 1.8 萬 COMPAS 評分數據,然后做了一份調查報告,追蹤這些人在兩年來的再犯罪的記錄。

    人工智能已經在預測誰會變成罪犯,這可不是好事

    最后出來的結果是:

    窮人更容易犯罪;

    教育程度低的人更容易犯罪;

    黑人更容易再犯罪;

    男性更容易犯罪。

    從統計數字看,這些可能都是事實。但這樣的數據被反過來用在判斷一個個體未來犯罪的可能性,并就此量刑的時候,就有問題了。

    這和前段時間被開除的那位美團點評人事在招聘信息里寫的“不要黃泛區及東北人士”沒什么本質區別。

    在美國,COMPAS 是從 2000 年初就開始在全國的司法機構使用,這個算法已經修改到第四版。在各個州法官量刑或者警察盤查疑犯的時候,會把 COMPAS 分數作為參考。

    2014 年,時任司法部長 Eric Holder 公開表示,美國法庭依賴算法來判定罪行,預測再犯罪是有風險的。Holder 表示,美國的法官量刑過于依賴這套評分算法。

    看起來公平的算法,背后依然受設計者的偏見影響

    有一個關于科研的比喻,說科學家在研究新東西的時候容易過度分析自己已經有的信息,強行從中獲得結論,進而忽視了未知因素的影響。

    一個人在室外停車場丟了鑰匙,他首先會去看路燈照耀下的路面。

    這不是因為鑰匙更可能丟在路燈下,而是因為這里比較容易找。

    人工智能算法判斷一個人的犯罪可能也差不多。

    MIT 教授 Ethem Alpaydin 曾經這么解釋現在最新的機器學習的原理:

    以前你需要知道特定的數據要來實現什么,于是雇傭一個程序員來編寫程序。機器學習就是,現在計算機自己學會處理和識別這些數據,程序也是自己寫的,然后導出你所需要的結果。

    要做一個判定誰是罪犯的系統。首先,是這個機器學習算法的設計者在判斷“什么樣的人更容易犯罪?”然后再把不同原因分解開來,去搜集數據。

    一個人犯罪的可能性有千千萬萬,而算法設計者輸入進去的維度,就好像路燈下的路面。計算機強行在設計者覺得重要的維度里判斷一個人犯罪的可能性。

    更糟糕的是,今天的機器學習算法基本是黑盒子——輸入了數據,等待輸出結果。但當中機器是怎么識別的,即使是算法的設計者,也不能肯定。

    上個月,上海交大教授武筱林和博士生張熙的論文引來爭議。他們的論文《基于面部圖像的自動犯罪性概率推斷》用機器學習算法和圖像識別技術掃描了 1856 張中國成年男子的身份證照片,讓算法來判斷這個人是不是罪犯,稱成功率達到了 90%。

    武筱林和張熙還總結了這些罪犯的面相特點:內眼角間距比普通人短 5.6%,罪犯的上唇曲率不一樣,罪犯的鼻唇比非罪犯角度小19.6%,罪犯跟普通人相比,面部特征來的更明顯。

    這篇文章在發布之初就惹來了一些種族歧視的爭議。5 月初,Google 和普林斯頓大學的三位研究人員寫了一篇反駁文章,名為《相面學的新衣》。他們在文章中認為武筱林的研究方法跟 150 年前的意大利的“醫學相面術”類似,只是使用了機器學習算法:

    “1870 年意大利醫生龍勃羅梭(Lombroso) 打開了意大利罪犯維萊拉尸體的頭顱,發現其頭顱枕骨部位有一個明顯的凹陷處,它的位置如同低等動物一樣。這一發現觸發了他的靈感,他由此提出‘天生犯罪人’理論,認為犯罪人在體格方面異于非犯罪人,可以通過卡鉗等儀器測量發現。龍勃羅梭并認為犯罪人是一種返祖現象,具有許多低級原始人的特性,可被遺傳。”

    人工智能已經在預測誰會變成罪犯,這可不是好事

    來自 Google 的研究者 Blaise Aguera y Arcas 解釋,神經網絡算法“判斷”圖片的方式跟人不太一樣:給數百萬個學習參數加不同的權重。比如讓算法判斷一張圖片是來自什么年代,機器學習很可能學到了發現各種細微線索,從比較低層次的“膠片顆粒和色域”到衣服和發型,乃至車型和字體。

    所以機器學習到底從這 1000 多張身份證照片中學到的規律是什么?

    不一定是罪犯的面部都有什么獨特的特征,可能是圖片的顆粒度,也可能是其他一些共同特點——例如襯衫。例如,武筱林論文中的 3 個“非罪犯”圖像中都穿著白領襯衫,而另外 3 名被判別為“罪犯”的都沒有。當然,只有 3 個例子,Blaise Aguera y Arcas 寫到,“我們不知道這是否代表整個數據集。”

    而在我們都不知道機器學習的做判斷的方式時,作為算法的設計者,我們人類給出的“假設”,以及我們給出的數據,可能決定了算法的走向。

    《相面學的新衣》的第三作者,普林斯頓大學法學系教授 Alexander T. Todorov 告訴《好奇心日報》,“有些人認我們的文章是在攻擊武筱林,但并不是有意如此。我們想做的是展示這個結果并不如他們展現的那樣‘客觀’,武筱林進行的假設是未經檢驗的。”

    這事情在 1980 年代也發生過——對,今天每個科技公司都在炒的機器學習那時候就有了。

    當時,美國軍方想要設計一套算法,想讓計算機自動從照片里分辨美蘇兩國的坦克。

    經過一段時間訓練他們的算法,識別準確率已經很不錯了。

    但后來工程師們發現,這不是因為計算機真的認出了兩國坦克的設計不同。

    事實上計算機認為像素更高的圖片等同于“美國坦克”。

    這是因為那會兒還在冷戰中,輸入資料庫的照片里,俄羅斯坦克的照片更模糊。

    “新技術有為善和作惡的潛在力量。如果你的假設沒有被仔細考證,那么機器學習技術只會帶來更多的不公平和加速現有的不平等。” Todorov 用這句話結束了我們的采訪。

    而如果你覺得這件事只是美國警方的才會有的問題。那么也可以看看彭博社早前的一篇報道。

    政府直接管理的技術公司“中國電子科技集團”也正在開發軟件,整理公民的行為數據,包括工作,興趣,消費習慣等等,以便在恐怖襲擊之前就預測罪犯的行為。軍事總承包商總工程師吳曼青說:“在恐怖行為之后的檢查很重要, 但更重要的是預測。”

    這篇報道對于這個新系統的信息非常含糊。具體會從什么地方收集數據,算法是誰來編寫,是否已經上線,其實很難被公眾所知。

    算法和人工智能技術,只是目前這些人類社會的司法機構問題的一個數字化的版本而已。盡管提高了效率,但它可能更能免除普通執法者對于地區、人群、種族的偏見的責任:因為這是一個客觀機器學習算法的選擇。

    預測犯罪的算法也會影響到日常生活

    “你雇用的人,真的可以信任嗎?”

    今年 5 月,在加州桑尼維爾一個金融科技(FinTech)創業分享會上,侯賽因·何塞從這個問題開始,介紹起自己的公司 Onfido。

    侯賽因·何塞在現場用圖片演示,可以用算法來幫企業確定雇傭的人是否“靠譜”。

    使用方法和滴滴司機上傳拿著身份證的照片的過程有點類似,讓人拿著證件拍一張照片。

    之后 Onfido 會掃描雇員照片,做人臉識別、背景調查,幾十秒之內可以確認這個人是不是他聲稱的人、有沒有犯罪前科、是不是非法移民。

    人工智能已經在預測誰會變成罪犯,這可不是好事

    Onfido 最開始也是做 Uber 的生意,但自從去年開始 Uber 增長放緩,侯賽因就開始讓公司轉型,從識別共享經濟的顧客有沒有犯罪記錄,變成了給銀行做貸款人的背景調查。“其實我們更像是 RegTech 公司(政策科技公司)了,因為數據要跟政府有一定合作。”

    Onfido 去年一下拿了接近 3000 萬美元,最新投資者有紅杉、Saleforce。他們的競爭對手 Checkr 的投資者來頭更大,Google Venture、YC、Accel……去年已經拿了 5000 萬美元了。

    Onfido 的網站上,識別之后數據會用在什么地方并沒有清楚的解釋。雇主獲得信息之后怎么辦也不在它關心的范圍內。

    我在現場問了侯賽因數據隱私保護以及怎么獲取第一筆數據,他的回答卻很含糊:跟銀行、政府等本身擁有大量數據等機構合作是最快的訓練算法的方式,他們也想要讓那些普通人更快通過審核,獲得他們想要的貸款和工作機會。

    更多的,他怎么也不愿意說了。

    這樣的謹慎態度能在許多銷售犯罪分析相關產品的公司身上看到。

    給罪犯打分的 COMPAS 算法背后的 Northpointe 公司在被《紐約時報》、ProPublica 等多個媒體報道后,改了新品牌 Equivant 重新賣服務。

    今年 5 月,在美國加州山景城舉行了一場名為 SVOD 的創投大會。

    剛離職沒多久的人工智能專家,前百度人工智能實驗室負責人的吳恩達在臺上說:“人工智能就是 21 世紀的電力設施,抓住這個新技術的公司,將會在下一輪的競爭中跑得更快。”

    一個一個初創公司走上臺,介紹自己的項目。當中有給企業做臉部識別方案的、做語音識別系統的。臺下投資人們拋出一個又一個問題。

    “你們識別率有多準?”

    “你們考慮怎么退出?”

    ……

    公平和隱私,可能并不一定在他們的考慮范圍。在臺上的創業公司展示結束后,一個專門給兒童做人工智能助手的創業者 Ivan Crewkov 跟我聊起人工智能的未來,我問如果機器學習算法一個從小就知道小孩是誰,優點缺點是什么,不會覺得擔心嗎?

    他說,“我是個樂天派,即使有更多監管,我想商業上一定會向前走的。”

    大會結束后,吳恩達對《好奇心日報》談到了自己的對于監管人工智能的態度,這也是業內的典型態度:“我覺得現在太早了。技術還沒完全發展起來,太多設限會阻礙發展。”

    (審核編輯: 林靜)

    聲明:除特別說明之外,新聞內容及圖片均來自網絡及各大主流媒體。版權歸原作者所有。如認為內容侵權,請聯系我們刪除。

    主站蜘蛛池模板: 日韩一区不卡 | 日韩一区二区三区在线 | 成人精品一区二区三区电影黑人 | 激情久久五月天 | 97超碰网 | jjzz日本 | 久久国产久 | 99久久99久久精品国产片果冻 | 凹凸日日摸日日碰夜夜 | 九九精品免费 | 亚洲黄色av网站 | av免费网站在线观看 | 精品亚洲国产成av人片传媒 | 色综合色综合网色综合 | 青青草97| 青青久久 | 亚洲成人一二区 | 成人激情视频在线观看 | 超碰精品 | 一级特黄网站 | 久久伊人av | 精品无人乱码区1区2区3区 | 国产一区成人 | 亚洲一区二区精品视频 | 成人一区在线观看 | 九九视频这里只有精品 | 亚洲精品三级 | 玖草在线视频 | 国产午夜精品一区二区三区 | 久久久天天 | 久草新在线| 国产精品一区欧美 | 日本视频在线播放 | 九九亚洲| 91精品国产高清久久久久久久久 | 久草在线青青草 | 国产一区二区亚洲 | 国产精品一区二区在线播放 | 黄视频入口 | 精品亚洲一区二区 | 久久九九久久精品 |