你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

上世紀末的作品《攻殼機動隊》中,全身義體化的素子,懷疑自己是否仍然存在。身體、記憶和其他人的關系,當這些事物都能夠被復制,也就無法成為肉身生命的論據。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

AI 歌手爆火之時,孫燕姿也在回應里提出類似的觀點,你並不特別,你已經是可預測的,而且不幸你也是可定製的。

我們可以加上一句,任何人都是可以被 AI 描述和生成的,哪怕你從未做過某些事情。

魯迅真的說過,一見短袖子,立刻想到白臂膊。人類的想像力是共通的,毫不意外,每當技術有新進展,某個垂直賽道會被開發得越發成熟:搞黃色。

從明星網紅,到每個普通人

2017 年興起的色情 Deepfake 有續集了。

之前是換臉的「移花接木」,眼下是數行文字的「無中生有」。

AI 作圖發展到如今,已經有了很多分享 AI 模型的網站,你可以用來生成各種風格的圖片,莫奈筆調風景畫、韋斯·安德森配色產品圖,當然也包括仿佛真人出鏡的色情場景。

「Create Anything(創造任何東西)」,這是其中一個網站(避免有宣傳之嫌,名字就不透露了)打出的旗號。雖然什麼都能幹,不少用戶更願意在「十八禁」大展拳腳。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

在文本框輸入名人名字,加上「裸體」等提示詞,就會得到一個模糊的圖像。接下來是另外的價錢,每月 4 美元試水基礎版,或者每月 15 美元尊享專業版。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 付費解鎖界面,NSFW 意為「工作場所不宜」,一般指色情、暴力等內容.

不僅如此,生成圖片之後,提示詞公開可見,讓類似喜好的其他用戶沿用或者疊代都很方便。

另外,這個網站在聊天軟體 Discord 有 3000 多名成員和數十個聊天室,他們討論的都是怎麼精進提示詞技巧,從而更符合自己對某個部位和姿勢的想像。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 好萊塢女星的 AI 模型,已經下載 1300 次.

網站的創始人在接受采訪時說,NSFW 只占平台內容的一小部分,每月有 100 萬個活躍的創作者產出獨特的作品。

在另一個類似的網站,用戶可以上傳、共享和發現自定義模型,同樣是什麼風格都有,動漫風、遊戲風、膠片復古風…… 但人性所致,帶顏色的模型人氣居高不下,最熱門的幾個已經被下載六七萬次。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 一個「擦邊球」模型.

色情固然是網際網路的一部分,然而問題在於,訓練這些模型的真實人物圖片,是在網際網路擅自抓取的,並沒有經過本人的同意。

有些圖片也不是完全露骨,而是讓名人穿著內衣,或者某個部位看起來更大,但五十步笑百步的做法,仍然是不道德的。

這時候就需要稍微解釋下原理。很多個性化的 AI 模型,都是基於開源的 Stable Diffusion 微調,而 LoRA 又是一種主流的模型微調訓練方法,因為它相對輕量化,用少量圖片訓練,便能生成特定的人物、物體或畫風。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 之前很火的賽博 COSER 用的也是 LoRA. 圖片來自:@勘雲工造

那麼對於色圖,誰成為了微調數據集呢?

獨立媒體公司 404 Media 調查發現,其中一個模型的訓練數據,來自「美版貼吧」Reddit 的幾個成人主題社區。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

願意上傳圖片,不代表願意充當 AI 的口糧。一位負責管理社區的 Reddit 用戶懷疑,大多數在 Reddit 發布裸照的人,可能並不知道照片正在被用來餵養 AI 模型。

倒也不是發出裸照才有威脅。7 月初,德國電信發了一條關於兒童數據安全的廣告,展現個人數據被拿去使用是多麼容易,後果又是多麼嚴重,呼籲家長盡量少在網際網路分享兒童隱私。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 德國電信廣告部分截圖,兒童照片可能會被用於製造成人內容.

這也意味著,威脅不僅在明星和網紅頭上盤旋,也可能擊中在網際網路路過的普通人,恐怕離人人都有一個 AI 模型的未來也不遠了,只要你我在網際網路上有過數字痕跡。

根據今年 7 月的網際網路狀況統計報告,近 50 億人(48.8 億)活躍在社交媒體上,占世界總人口的 60.6%。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

或許有人會問,這不是 Deepfake 換臉時就有的毛病嗎?是的,但偽造圖片的腳步不會停下,已經存在的問題變本加厲。

從基於生成式對抗網絡的 Deepfake,到模擬粒子熱運動過程的擴散模型,訓練數據集擴大了、算法框架疊代了、算力水平也提升了。更直觀的是,普通人在 AI 上也有參與感了。

從前我們更偏向 AI 消費者,或是刷到真假難辨的湯姆·克魯斯微微一哂,保持看熱鬧的旁觀心態,或是換上好玩的濾鏡跟進社交媒體潮流,交出去的基本是自己的個人信息。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ TikTok 的「湯姆·克魯斯」,本人看了也得犯迷糊.

現在我們都可以是 AI 生產者,登錄 AI 模型網站,在文本框輸入提示詞,由雲計算處理需求,幾分鍾就可以生成某位名人的定製 AI 作品,哪怕質量不好,用戶規模和圖片數量是空前的,每個月產出上百萬張圖片不在話下。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 某 AI 模型網站的生成速度,最多需要 1 分鍾.

AI 成人內容的可怕之處還在於,既要從真人取材,也要回歸「真實」。

各網站最受歡迎的模型之一非常強調現實感,用戶們還在 Reddit 討論怎麼給某個器官特寫。行業里最優秀的創作者,甚至稱自己的作品就像「1080P+ 視頻的定格幀」。

可想而知,騷擾和勒索也可能會增加,技術的惡面往往最先向無法自保的人刀劍相向。

是興趣,更是交易

和性搭上了邊,那就不缺交易。買家是出於個人興趣,賣家則是因為真金白銀。除了上文提到的訂閱模式,用 AI 色圖賺錢的方式還有很多,雖然基本都是「打零工」。

在 Patreon、Ko-fi 等具有打賞、贊助功能的平台,可以找到創作者的蹤影。一位創作者在 Patreon 有 100 多名付費會員,巔峰時期每個月能賺到 1500 美元。

他還順便加入了另外一個平台的「創作者計劃」,每張圖片入帳 0.001 美元,雖然單價低,但好在他使喚 AI 的速度夠快。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ Patreon 的訂閱界面.

任務眾包平台 Fiverr 也值得一提,它是一個連接甲方乙方的中介,幾乎可以購買和出售任何數位化「零活」,比如寫作、翻譯、設計,不少 AI 創作者明碼標價,按照模型和圖片數量階梯收費。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 一位 Fiverr 創作者的接活界面.

還有作風更加極客的創作者,直接在 AI 模型網站貼出比特幣錢包地址。

別說個體創作者了,平台同樣賺得盆滿缽滿。

有的 AI 模型網站自己也有打賞功能,同時提供每月 5 美元的會員福利,讓用戶可以搶先體驗新功能,並在官網和 Discord 上的用戶名後面戴上獨特的徽章。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ AI 模型網站的打賞功能.

號稱全世界第二大成人網站的 OnlyFans,不像 P 站收入主要來自廣告並按視頻點擊量和創作者分成,創作者可以通過用戶訂閱和按次付費賺錢。

有觀點認為,OnlyFans 改變了成人產業,因為創作者拿回了主導權,通過自己的作品直接獲得收入。

然而現在,出圖更快的「AI 師傅」也在復刻這套商業模式,「傳統手藝人」的生財之路可能再次被打斷。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

這一集我們在 Deepfake 視頻大行其道的時候就看過。彭博社采訪的一位 29 歲網紅,是其中一位惴惴不安的受害者。

放在以前,如果想看她玩電子遊戲,可以每月花 5 美元訂閱 Twitch,如果想看她尺度更大的內容,可以每月花 15 美元訂閱 OnlyFans。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

然而現在,粉絲可以花更少的錢或者免費觀看她的 Deepfake 視頻,只要帶著她的大名搜索 Google。與此同時,心理創傷如影隨形:

人們總是在發布新視頻,在你不同意的情況下看到自己出現在色情片中,感覺很惡心。

AI 色圖這把火,也遲早燒到真人頭上。一位在 Reddit 發圖的「女菩薩」很是悲觀:

過去沒有採取任何措施來保護我們,所以我不明白為什麼現在會激勵任何保護措施。

操作猛如虎,維權打地鼠

作惡成本低、維權成本高,是 2017 年「黃色」Deepfake 興起之時就有的毛病了,現在它只會變得更加嚴重。

撤下未經本人同意的 AI 色圖,往往是靠受害者自行發現,或者平台事後補救。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

按照 Google 的服務條款,如果證據充分,用戶可以請求 Google 刪除某條具體的連結。然而「野火燒不盡」,這就像一個沒有終點的打地鼠遊戲。

不過,Google 也在改進排名系統,減少此類內容的出現。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ Google 的服務條款.

提供 AI 模型的平台們也並非沒有意識到,技術存在被濫用的可能,但前所未有的內容規模,已經不允許平台只是沿用以前的審核策略。

404 Media 記者發現,某 AI 模型網站的服務條款允許色情內容,也允許真人內容,但不允許兩者兼而有之的真人色情內容,尤其涉及到未成年時。

然而,此類內容仍然不斷發布,部分被平台刪除,部分已經「倖存」了幾個月。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ 某 AI 模型網站的服務條款.

只能說,意識到位了,但方法沒有。對技術的規范,總是相對技術落後半步。

類似地,生成真人色情圖像,違反了 Discord 的社區規則,但管理起來並不容易,靠的主要是用戶自覺。

Discord 的信任與安全團隊,負責檢查用戶、版主或記者的報告,如果有人確實違反了社區准則,那就發出警告、刪除內容、關停帳號等,存在一定的被動性。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

▲ Discord 的社區准則,上為原文下為翻譯.

諷刺的是,把 AI 色圖分享到 Discord,也會被 AI 模型網站的用戶內部批評,不是問心有愧,而是因為這壞了規矩,有可能讓社區被禁:「你可以在網站上創建它,但不能在這里分享。」

甚至法律也不一定派上用場,就像 Deepfake 存在這麼久了,美國只有幾個州在為它立法,但因為雜亂無章,很難真正執行,並且有些創作者想盡辦法隱藏身份,既然找不到人維權,很多時候受害者只能吃下啞巴虧。

好在幾個更加主流的文生圖工具,用技術為技術事先附加了制約。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

OpenAI 旗下的 Dall-E,盡可能減少了訓練數據中的裸體圖像,並且在實際使用過程中,阻止某些提示詞的輸入,以及在圖片顯示給用戶之前掃描輸出結果。

Midjourney 也有屏蔽詞和人工審核,還計劃推出更先進的、能夠關聯上下文的過濾功能。

Stable Diffusion 背後的公司 Stability AI 也曾回應過類似的問題,「對任何開原始碼所做的事情都是無法控制的」。

盡管如此,Stability AI 認為,識別此類行為並將其定為犯罪,還有很多事情可以做,開發者社區和網際網路基礎設施提供商也應該參與進來。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

簡言之,對技術的規范就像鈍刀子割肉,不能立刻起效,而 AI 色圖的問題遠比以前嚴重,靠的是一條運行順暢的「生產鏈」:

  • 提供訓練圖像的內容社區;
  • 生成色圖的開源技術;
  • 將 AI 模型和圖片商業化的平台;

自從 Deepfake 問世,我們就遇到了同樣的問題。人性難測,技術的普及和濫用只有一步之遙,工具更加容易上手了,商業模式也走通了,那麼創建和分發色圖的動力就更大了。

你在社交平台分享的照片,下一秒可能淪為 AI 成人內容的口糧

很多時候,網際網路的成人行業已經被「非人化」地看待,當真正非人的 AI 取而代之,繼續滿足刻板印象,可能導致物化更上一層樓,而不是停止物化。

就像《攻殼機動隊》提出的問題那樣,真實和虛假不再溝壑分明。完全像你的人做出了你從來不會做的事,但你很難證明那不是你,數據就是你,存在過的痕跡就是你。

每當 AI 被最先應用到色情產業,總有人說,這會加速技術普及,或者不再需要真人。有人用金錢兌換欲望,有人不經意被投入技術熔爐,卻沒有誰會為傷害買單。

來源:愛范兒