曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

《少數派報告》《疑犯追蹤》這樣的影視作品或許只能在前些年出現。如果是近幾年的影視作品,觀眾看著就會很「心慌」。

犯罪預防、預測模型、用系統推測未發生之事……這意味著大量的信息會被收集,也意味著你將會被一個未知系統判定是否有威脅。把命運交給未知的感覺,估計沒幾個人喜歡。

但不喜歡可能也沒辦法,因為在你不知道的時候,已經有越來越多公司在收集你的公開信息,來從你社交網絡的日常內容中判斷你犯罪的可能性。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ 圖片來自:《少數派報告》

社交媒體變身最大「告密者」,這是一場自我揭發?

Voyager、Kaseware、Aura、PredPol、Palantir,這是一部分正在試圖通過社交網絡找出潛在威脅的公司,它們中很大一部分還和當地的警察局進行了合作,走在預測犯罪的前列。

從每個人的社交媒體中獲得需要的信息是這類公司的核心,他們通過用戶做社交網絡發布的內容來預估對方是否有犯罪的可能。這類公司的算法並不相同,但基本都在通過人工智慧破譯用戶的線上,從用戶分享的內容中判斷主體是否已經犯罪、可能犯罪或堅持某種危險的意識形態。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ Kaseware 官網頁面

這其實不算一個新進展,畢竟在 2012 年就有人將社交網絡成為「城市脈搏」。你很難看到一個空間和產品同時容納如此多的用戶,還讓他們願意在上面分享自己的一切。

社交網絡的特性為人們尋找目標創作了條件,學生在社交網絡尋找受訪對象,統計機構在社交網絡預測大選結果,也有 AI 偵探想要在社交網絡找出罪犯。

因為人人都用社交網絡,所以社交網絡很多時候可以反應一個人的真實情況。美國密西根州的眾議員 Tyrone Carter 認為警方搜索公共社交網絡的行為並沒有違背任何的法律,也沒有侵犯用戶的權利,所以這種預測是可行的。

當你在公共頁面上點擊發送的那一刻,那個文章就不再是你的了。人們會因為他們發布的東西而陷入各種麻煩,因為社交媒體是我見過的最大的「自我告密者」。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲圖片來自:Lifehacker

但秘密只有在引導的時候,才會被說出。和洛杉磯警察局合作的 Voyager Labs 在這個過程中就擔當了引導者的角色。只是非營利組織 Brennan Center 通過洛杉磯警察局提供的公開信息發現,Voyager 工作也涉嫌種族歧視、侵犯隱私。

Voyager 這類公司的工作方式並不復雜。它會收集一個人社交媒體上的所有公開信息,包括文章、聯系人甚至常用的表情符號。在某些特殊情況下,它會利用這些公開的信息與非公開信息交叉引用,進行進一步的分析和索引。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ Voyager 會基於個人社交媒體的參與話題做出判斷

通過 Voyager 的服務,警察可以清晰地看到一個人的社交關系。他們的聯系是怎樣的,他們在社交平台是如何互動的。更進一步,Voyager 甚至可以探測到兩個用戶之間是否有間接聯系(兩人都有至少四個相同好友)。

聽上去好像只是看看用戶在社交網絡上做些什麼,用作調查的輔佐信息。但事實上,Voyager 不僅收集信息,展示信息,它也會做出判斷。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ Voyager 會通過社交網絡關系鏈做出判斷預測

Voyager 在提交給洛杉磯警局的一份白皮書中就提到了一起襲擊案件,該案件具體地展示了平台的做法——AI 在沒有人介入的情況下會根據人們在社交網絡發帖的內容完成自動審查和分類(分別為用戶標記藍色、橙色、紅色三種顏色)。

在具體案例中,槍擊案嫌疑人 Adam Alsahli 就因為自己在 Facebook 和 Instagram 上發布的伊斯蘭主題照片,被系統判定為「對阿拉伯傳統有強烈自豪感與認同感」。因此,Adam Alsahli 在發動具體的攻擊前就被 Voyager 的人工智慧工具打上了橙色的顏色標記。

這可以是一個成功預測潛在犯罪者的案例,同時也是一個充滿「偏見」的案例。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ 槍擊案嫌疑人 Adam Alsahli 的社交媒體信息,在他犯罪之前就已經被標記為橙色

數據預測犯罪?但數據也不能完全相信

這些結論真的可信嗎?他們是根據什麼做出判斷的呢?大數據下每個人要如何自證清白?

目前確實有不少數據證實社交網絡的內容偏向和犯罪事實的相關性,但這並不是一個 100% 關聯的數據。

紐約大學坦登工程學院和全球衛生公共學院發布的研究結果顯示,Twitter 上關於種族仇恨言論數量較多的城市,相關的犯罪率也更高;芬蘭亦有研究表明,根據二十年的數據,溫度每升高 1°C,犯罪活動就會增加 1.7%;美國研究證明,周末晚上的車輛盜竊率激增;被證明過的還有當地足球隊意外輸球時,家暴事件會增加 10%。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ AI 沒辦法做出 100% 正確率的裁決

但這些並不能證明什麼,因為機率和事實是不同的。

即便有相關數據背書,也不能證明在種族仇恨言論最多的城市,夏天周末的晚上就一定會有車輛被盜,炎熱天氣遇到當地主隊輸球 100% 就會有更多的家暴案件發生。

類似的犯罪預測系統是根據已有的犯罪事實和研究結果進行反推的,這造成的另一個問題是它充滿了「刻板印象」。

圖靈獎得主楊立昆就曾表示,當數據有偏見時,機器學習系統就變得有偏見。而具體到單一案例,當機器學習接收到的信息是監獄中男性黑人用戶占比較大時,這樣的系統可能就會做出黑人男性更容易犯罪的判斷。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ 楊立昆表示機器學習系統的偏見來自於人

對機器學習來說,「黑人男性更容易犯罪」可能是數據分析的事實,但落在現實中這就會是種族偏見和差別對待。

暗中將用戶進行評級,劃分哪些更有威脅性,對於有威脅的人進行更密切的追蹤和預防就是整套系統的運行邏輯。

類似的創業公司會用算法和人工智慧來解釋他們處理、分析信息,從而做出判定的過程。盡管目前沒有證據證明這種預測是有效的,來自民眾的質疑也很多,警察局卻依舊想要和類似的平台進行合作。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ 對於警察而言,平台的預測服務很有價值

對警察來說,這類工具很有吸引力,如 Voyager 這類平台在社交網絡的發現可以提供用戶側寫的有效輔助,也可以不錯過線上的細微線索。如果僅僅是輔助調查,這就會是非常有效的工具。但工具發展到後期,開始發揮預測犯罪的作用時,也會成為傷人的利器。

經過前些年的狂熱後融資後,不少 AI 產品已經進入了應用階段。但在某些領域,它們依舊是輔助者的角色。

醫療就是一個對於 AI 介入慎之又慎的領域,即便是在進展最快的 AI 醫學影像領域,今天的 AI 技術依然無法保證 100% 的正確率,需要人類醫生的介入。因為人人都知道,醫療是一個需要近乎 100% 正確率的行業,任何的偏差和錯誤都可能造成嚴重的後果。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

▲ 現階段我們可能更需要人類警察

而警務領域同樣是一個力求 100% 正確的領域,任何的臆測推斷在缺乏證據的支撐下亦會造成嚴重的後果。一個在社交媒體上發表各種歧視、暴力言論的人可能會被標為潛在犯罪者,有 90% 的可能性進行暴力犯罪,但在他真的做出犯罪行為前,他就是一個普通人。

在總體的數據集之中,我們永遠不能忽略每個人都是獨立的個體。

曬著照片、聊著天,怎麼就有人覺得我要犯罪了呢?

來源:愛范兒