意識的困難問題:我們如何知道人工智能有了意識?

澳大利亞哲學家大衛·查莫斯(David Chalmers)有一個著名的問題是,是否可以想象「哲學殭屍」(philosophical zombies)——那些表現得像你我一樣卻又缺乏主觀經驗的人——的存在?這個問題引起了很多學者對意識的興趣,包括我。原因在於,如果這種殭屍(或者說精密但毫無感情的機器人)可能存在,那麼僅僅用物理屬性——關於大腦或類似大腦的機制——就無法解釋意識體驗。

相反,我們必須考慮一些額外的精神屬性,才能解釋什麼是有意識的感覺。弄清楚這些心理屬性是如何產生的,就成為所謂的「意識的困難問題」。

但是,對於查莫斯的哲學殭屍一說,我有一個小小的問題。哲學殭屍應該有能力提出有關體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。在播客「Making Sense」(此前的名稱是「Waking Up」)的一集節目中,查莫斯與神經學家兼作家薩姆·哈里斯(Sam Harris)討論了這一問題。「我認為至少設想一個能這麼做的系統並不是特別困難,」查莫斯說,「我的意思是,我現在正與你交談,而你正在做出大量有關意識的評論,這些評論似乎很強烈地表明你具有意識。盡管如此,我至少可以考慮這麼一個想法,即你並沒有意識,你實際上是一個殭屍,你發出所有這些噪音的同時內心並沒有任何意識。」

這不是一個嚴格的學術問題。如果Google的DeepMind公司開發了一個人工智能,它開始提問「為什麼紅色感覺像紅色,而不是其他什麼東西」,那麼就自有少數可能的解釋。或許它從別人那里聽到了這個問題。這是可能的,例如,人工智能可能只需要簡單地閱讀有關意識的論文,就可以學會提出關於意識的問題。它還可能經過編程來提出這個問題,就像視頻遊戲中的角色一樣。或者,它可能從隨機噪音中蹦出了這麼一個問題。很顯然,提出有關意識的問題本身並不能說明任何事情。但是,如果沒有從其他來源聽到這些問題,或者沒有足夠的隨機輸出的話,一個人工智能殭屍會自己構想出這種問題嗎?對我來說,答案顯然是否定的。如果我是對的,那麼我們就應該認真考慮當一個人工智能自發地提出有關主觀體驗的問題時,它就很可能是有意識的。因為我們不知道在沒有確定一個人工智能是否有意識的情況下,拔掉它的電源是否合乎道德。我們最好現在就開始注意聽取這些問題。

我們的意識體驗由「感質」(quale)組成。感質即感官感受的主觀方面,例如紅色中的紅,甜味中的甜。構成意識體驗的感質是不可簡化的,無法被映射到其他任何事物上。如果我天生失明,那麼任何人都無法讓我感受到鮮血和玫瑰花共有的顏色感受,無論描述得多麼清晰。即使我是發展出盲視能力——盡管失明但是能夠避開障礙物並准確猜出電腦顯示屏上物體出現的位置——的眾多失明者之一,情況也同樣如此。

盲視似乎表明一些行為可以完全機械化,也就是說,可以完全沒有任何主觀意識地做出某些行為,這回應了查莫斯的哲學殭屍概念。盲視者的大腦似乎利用了視覺系統的前意識區域,在沒有視覺體驗的情況下產生視覺行為。這種情況經常發生在一個人遭受中風或其他視覺皮層損傷之後。視覺皮層是處理視覺信息的大腦皮層。由於此時人的眼睛仍然是健康的,因此眼睛可能會將隱藏在意識中的信息提供給特定的大腦區域,比如上丘(superior colliculus)。

意識的困難問題:我們如何知道人工智能有了意識?

出於同樣的原因,也存在少數聾人具有聽力的案例。2017年發表於《哲學心理學》(Philosophical Psychology)期刊的一篇報告詳述了一個這樣的案例,一位被稱為LS的男性患者盡管天生失聰,卻能根據內容區分不同聲音。對於像LS這樣的人,這種辨別能力是在寂靜中產生的。但是,如果一個聾人問出類似正常人所提出的問題,比如「那個聲音聽起來難道不是很奇怪嗎?」那麼我們就有充分的理由懷疑這個人是不是真的聾了(我們不能完全確定,因為這個問題可能只是一個惡作劇)。同樣,如果一個人工智能開始自發地提出只有具備意識的人才能提出的問題,那我們就會合理地產生類似的懷疑:主觀體驗是不是已經上線了?

在21世紀,我們迫切需要就意識進行圖靈測試。人工智能正在學習如何駕駛車輛、診斷肺癌以及編寫自己的計算機程序。智能對話可能在十年或二十年內就會出現,而未來的超級人工智能不會生活在真空中。它將可以訪問互聯網,讀取查莫斯和其他哲學家關於感質和意識等問題的著述。但是,如果科技公司能在本地內部網上對人工智能進行beta測試,隔離這些信息,他們就可以進行圖靈測試式的對談,以檢測有關感質的問題是否對人工智能有意義。

面對一個潛在的硅基思想,我們會提些什麼問題?對於諸如「如果我的紅色是你的藍色怎麼辦?」或「會有比綠色更綠的顏色嗎?」這樣的問題,人工智能給出的答案應該能讓我們瞭解很多關於它們精神體驗(或者缺乏精神體驗)的情況。一個具有視覺體驗的人工智能可能會思考這些問題暗示的可能性,或許會這麼回答,「是的,我有時會想知道是否還會存在一種顏色,能將紅色的發熱與藍色的冷淡混合在一起。」另一方面,缺乏視覺感質的人工智能可能會回答,「那是不可能的,紅色、綠色和藍色各自以不同的波長存在。」即使人工智能試圖自由發揮或欺騙我們,比如回答「有意思,如果我的紅色是你的漢堡包怎麼辦?」這就表明它沒有抓到重點。

當然,人工意識也可能具有與我們自己截然不同的感質。在這種情境下,關於特定感質(比如顏色感知)的問題可能就無法觸動人工智能。但是,關於感質本身更加抽象的問題或許就能篩選出哲學殭屍。出於這個原因,最好的問題很可能就是「意識的困難問題」本身:意識為什麼能夠存在?為什麼你在處理周圍世界輸入的信息時會體驗到感質?如果人工智能認為這個問題有意義,那我們就很有可能找到人工意識。然而,如果人工智能明顯不理解諸如「意識」和「感質」等概念,那麼關於其內心精神生活的證據也就不存在了。

建立一個意識的「檢測器」並不是一件小事。除了這樣的圖靈測試,未來的研究人員還可能會應用今天的抽象意識理論,試圖從計算機的接線圖中推斷出意識的存在。一種這樣的理論就考慮了大腦或其他系統整合的信息量,並且已經被用於推斷腦損傷患者是否具有意識,甚至用於推斷魚群是否具有意識。事實上,在以檢測人工意識為動機的研究獲得大量資金支持之前,在腦損傷患者中檢測意識的需求就已經突破了科學上的禁忌。

我所在的實驗室由加州大學洛杉磯分校的馬丁·蒙蒂(Martin Monti)領導,致力於通過開發更好的手段,從大腦電生理活動或代謝活動來推斷意識的情況,從而改善腦損傷患者的生活。當我們拔掉那些意識清醒但沒有反應的患者的生存設備時,就會產生倫理悲劇;而如果我們拔掉人工意識的電源,就會出現同樣的悲劇。就像我在加州大學洛杉磯分校的實驗室所做的工作,就是將理論上的意識測定與腦損傷患者的臨床行為聯繫起來,而未來的研究人員也必須將人工意識的理論測定與人工智能在某種圖靈測試中的表現聯繫起來。到了那時,當我們不再需要教科書的時候,我們仍然需要思考殭屍無法回答的那個問題。(任天)

作者簡介:喬·弗洛里希(Joel Frohlich)是加州大學洛杉磯分校的一位博士後研究者,在馬丁·蒙蒂的實驗室中從事意識研究,他在加州大學洛杉磯分校獲得了神經科學博士學位,師從沙法利·耶斯特(Shafali Jeste),當時的研究方向是神經發育紊亂的生物標記物。目前他還是科學交流網站「Knowing Neurons」的總編輯。

來源:cnBeta