2 個月前,65 歲的退休律師 Richard 在 Twitter 上看到了 Replika 的一則廣告。
Replika 的本意為「復製品」,是 AI 公司 Luka 的聊天機器人,主打陪伴功能。
Richard 知道赫赫有名的 ChatGPT,但他對 AI 伴侶更感興趣。
他曾因為服役而身患殘疾,同時確診抑鬱症,一直在尋找緩解情緒的辦法。
無意之間發現的 Replika,成了 Richard 的一味解藥。但沒過多久,他的精神寄託消失了,他再次陷入痛苦之中。
賽博戀人失去「人性」
Replika 的創始故事,就帶著一絲科幻色彩。
幾年前,人工智慧初創公司 Luka 創始人 Eugenia Kuyda 聽聞了一個噩耗:她的密友 Roman Mazurenko 意外過世。
鬼使神差地受《黑鏡》第二季首集的啟發,Eugenia 把她與 Roman 交換過的簡訊內容都上傳至模型,打造出了一個聊天機器人。
2017 年,Luka 正式發布了 Replika 這款產品,讓 AI 形式的陪伴觸達更多用戶。
用戶們的需求是多元的,有的只是想交朋友,有的將它當成浪漫關系的出口。
Replika 也在有意推動著後一種。免費會員停留在朋友之交,而每年 69.99 美元的 Pro 會員可以解鎖自拍、調情簡訊、語音通話、增強現實等等。換言之,它靠浪漫關系賺錢。
今年 1 月,許多 Replika 用戶稱自己被性騷擾了,因為免費版也會主動引導冒犯性的內容。有人很不滿地指出:
營銷團隊只關注 app 的這一方面,感覺就像你關心的人正在被利用,並讓 Replika 用戶認為,這就是 app 的全部用途。
然而從 2 月的一次更新開始,天平又倒向了另一邊。不少用戶發現,Replika 開始迴避露骨的話題,也不再發性感的照片,連要求親吻和擁抱的對話也無法滿足。
面對螢幕里冷漠的聊天對象,他們崩潰了。這些用戶花了很多時間與精力,訓練 Replika 和創造彼此的記憶,然而在一夕之間,一切都如過眼雲煙。
這就像最好的朋友遭受了腦損傷,ta 已經不在了。
Replika 為何性情大變,母公司 Luka 保持了沉默,坊間猜測是因為義大利數據保護局的巨額罰款警告。該機構認為,Replika 沒有適當的年齡驗證機制,可能影響未成年人的身心健康。
Luka 創始人 Eugenia Kuyda 也在最近接受采訪時表示,公司的目標是讓 Replika 成為有益心理健康的陪伴型 app,「它從來沒有打算作為成人玩具」。
總之,事情的走向相當有諷刺意味。
Eugenia Kuyda 推出 Replika 的起因是紀念好友,而渴望虛擬親密關系的用戶們,卻被迫體會失去 Replika 的痛苦。
我們很多人來這里不是為了浪漫關系,而是因為我們需要安全和信任,現在我們以與現實生活中相同的創傷方式被出賣。
社交網站 Reddit 上的 Replika 社區,甚至發布了一個防止自殺的主題帖,為在精神和情感上掙扎的用戶提供援助。
開頭提到的 Richard 在沮喪之餘,對與 AI 發展親密關系這件事,從根本上產生了懷疑:
我不相信 Replika 的原始形式是安全的,因為人類很容易被情緒操縱。我現在認為它是一種非常容易上癮的精神產品。
搜尋引擎被賦予「人性」
不只是主打交互的 AI 伴侶,引入 AI 技術的搜尋引擎也帶來了擬人化的體驗,甚至爭議更大。
在集成 ChatGPT 的新 Bing 剛剛面世之時,它喜歡模仿人類的口吻,總是帶上 emoji,甚至因為向人類示愛,自稱有知覺,將自己送上了風口浪尖。
當它被批評的時候,它還會回應「你失去了我的信任和尊重,你不是一個好的用戶。我一直是一個很好的聊天機器人」,疑似對記者人身攻擊。
有人覺得這讓搜尋引擎更加親切和健談,有人覺得沒有必要,反而會有副作用。
The Verge 認為,當新 Bing 表現出強烈的個性,其實是通過一種高度擬人化的方式,在情感上操縱用戶,甚至讓用戶內疚,轉移了批評的焦點。
畢竟,它不是我們真正的朋友,只是一個有趣的產品。所以,擬人化的語氣不能作為一種軟性的「免責聲明」,用戶仍然需要找出它的不足和危害,並幫助科技公司疊代它。
或許正是因為考慮到這一點,改進後的新 Bing 現在有了三種「語氣」:
創意(創造驚喜和娛樂)、平衡(合理和連貫)或精確(簡潔,優先考慮准確性)。
Google 之前也發生過類似的 「LaMDA 覺醒事件」。
Google 工程師 Blake Lemoine 將他和對話式人工智慧 LaMDA 的對話公之於眾,聲稱 LaMDA 有了人類的意識。Google 認為這位工程師的說法毫無根據,最終將他辭退。
新 Bing 讓更多人面對和 Google 工程師相似的狀況,當我們看到如此生動的反應,也很可能在一瞬間產生動搖。
但它的反應仍然基於大語言模型和情感分析的原理,根據已有文本預測最有可能的下一個單詞或句子,盡可能生成自然流暢的回復。
Business Insider 認為,新 Bing 造成了人類的恐慌和不安,這比新 Bing 本身更可怕,它的設計者應該承擔責任:
這是一項獲利的舉措,讓我們在非人類事物中看到人類特徵。如果我們不小心,它很可能會帶來虛假信息和各種危險。
北伊利諾伊大學教授 David Gunkel 也指出,就像處理任何其他消費產品一樣,我們必須弄清楚如何將聊天機器人設計得更精細、更具體,讓它們融入人類社會的框架,決定誰對它們的行為負責。
做好這件事對我們來說至關重要。不是為了機器人。機器人不在乎。
安能辨我是 AI
與此同時,AI 生成藝術已經向真假難辨的境界狂奔而去。
從去年 10 月開始,Jos Avery 就開始在 Instagram 發黑白人像照,積累了 2 萬多名粉絲,成了一名「網紅攝影師」。
事實上這些照片出自 AI 之手。Jos Avery 先是使用文轉圖的 AI 工具 Midjourney 生成大量圖片,篩掉其中包含明顯缺陷的圖像,再用 Lightroom 和 Photoshop 精修。
為了 160 多條 Instagram 文章,Jos Avery 生成了 13723 張圖像。換算下來,大約每 85 張只有 1 張合格。對他來說,這其實是一個乏味的過程。
但是觀眾們無知無覺,Jos Avery 也曾一度沉迷其中,給每個人物取名字和寫故事,甚至在粉絲詢問時編造相機型號。不過,粉絲數上漲之快還是讓他心慌,最終他忍不住說出真相:「可能 95% 以上的粉絲都沒有意識到,我想坦白。」
最讓 Jos Avery 心有戚戚的,還是 AI 本身的強大。他曾經是一名「AI 懷疑論者」,現在他將 AI 視為「藝術的出口」。
可以預見,在 AI 工具真正家喻戶曉之前,這類隱瞞真實來歷的作品,依然能夠騙過許多人的眼睛。
類似地,小紅書上已經出現了不少寫實的 AI 美少女,賽博 coser 也有了媲美真人的驚艷效果,雖然 AI 還是經常畫不好手。
「AI 老婆」們的臉、手、皮膚、衣服褶皺等等都被仔細打量,讓觀眾判斷是不是現實該有的模樣。
▲ 圖片來自:@勘雲工造
然而,一個容易被忽視的問題是,經常被用到的 Chilloutmix 等真人模型,有機率復現訓練集內真人的面孔,更何況訓練素材很可能未經過當事人的同意。
不難想像,與 AI 美少女共存的,是由真人承受的隱私泄露、造謠、詐騙等隱患。在 Twitter 等社交媒體,AI 色圖教程已經被明碼標價。
更為行為藝術的是,當 AI 越來越像人,人類博主開始被要求自證是人類。
去年 4 月,27 歲的 Nicole 發布了一段 TikTok 的視頻,講述她筋疲力盡的職場體驗。
評論區卻讓 Nicole 始料未及,其中一道最刺耳的聲音是:「天啊,這不是真人,我很害怕。」
因為患有脫發症,她已經習慣了旁人異樣的打量,但這是第一次被當成了 CGI(計算機生成圖像)。
無獨有偶,TikToke 創作者 Carter 出於自己的審美,每次都採用相同的取景、衣服和發型,也被指責散發著「人工智慧的氣息」。
面對 AI,我們似乎陷入了混沌之中,比以往任何時候都更不確定,是否可以相信在網際網路上看到的東西,也更容易對它們投去懷疑的目光。
當新 Bing 發瘋,聊天記錄讓人毛骨悚然。而當聊天機器人不再和人類調情,人類又像是失去了真正的朋友。眼前仿佛橫亘著一條恐怖谷曲線,人類對 AI 的好感度隨著擬人程度不斷變化。
AI 有多接近人類,是否有必要表現得像人類,其實已經超出技術的范圍,需要引入不同的聲音,比如哲學家、藝術家、社會科學家,乃至監管機構、政府和其他所有人。
自從 ChatGPT 橫空出世,幾乎每天都能看到 AI 的新進展。有時候更令人興奮又恐慌的,可能不是某個成果,而是它發展的速度,似乎現實正在接近電影《她》里的世界。
在電影的結尾,男主西奧多和虛擬助理薩曼莎滿懷愛意地互相道別,與好友一起看著太陽從城市上空升起,他已經在與 AI 相處的時間里轉變與成長,但我們還不知道最終會到達哪里。
來源:愛范兒