📝📝:AI 正處於危險的幻覺|認知科學家 Guillaume Thierry:我們需要停止人性化 AI

在人類社會急於擁抱 AI 的過程中,英國認知科學家 Guillaume Thierry 認為現在的 AI 正創造了一個危險的幻覺。
當今的 AI 系統普遍表現出能夠思考、感受和創造,幾乎像人類的數位伴侶。大型語言模型以自然的節奏說話,表達好奇心,甚至聲稱能體驗情感。但這精心打造的表象掩蓋了一個基本的事實:
這些 AI 系統根本不具備這些人類特質。
AI 面具背後的現實
Thierry 指出,我們今天所稱的 AI,不過是一個極其複雜的統計機器(statistical machine)。一個從人類數據的浩瀚海洋中,挖掘排列和重複模式的數位鸚鵡(digital parrot)。
當 AI 回答你的問題時,並非在思考或推理;AI 只是基於從訓練數據中計算得出的概率,去預測序列中應該出現的下一個字詞。
這就代表 AI 沒有理解力、沒有意識,也沒有任何有意義的人類知識。AI 所擁有的是工程上的輝煌,以非凡精確度操縱和預測數據模式的能力。但這與人類思維有本質上的不同。

真正的思考型 AI 是不可能的
AGI 的概念,能夠模仿人類思維的 AI,仍然牢牢地停留在科幻領域,而且可能會永遠停留在那裡,AI 缺乏人類認為對意識重要的關鍵:身體。
AI 沒有感官、沒有肉體、沒有神經,沒有痛苦或快樂的體驗。不會挨餓、不會渴望、不會恐懼。沒有這些塑造人類認知的身體體驗,AI 所消費的數據(源自人類經驗的數據)與 AI 真正能用這些資訊做什麼之間存在著根本性的鴻溝。
正如澳洲哲學家、認知科學家查默斯(David Chalmers)提出所謂的「意識的困難問題」(hard problem of consciousness):我們的身體與有意識體驗之間的關係仍然是神秘的。
Thierry 考慮到人類感官和情感對意識的關鍵作用,AI 系統與真正意識(本質上是人類現象)之間,似乎存在著深刻且可能無法調和的斷裂。
數位扮裝的危險
給予 AI 人類的面孔、溫和的聲音、朋友一般的對話風格,Thierry 將這一系列的操作稱之為
危險的數位扮裝行為
a dangerous act of digital cross-dressing
Thierry 指出,這種人性化的設計會在人類的認知系統中,觸發自動的社交反應,導致我們將 AI 視為有血有肉的對象,儘管 AI 身上的這些特質和人類存在著根本的差異。

這導致了一些聲稱某些 AI 系統已通過圖靈測試(Turing test)的說法,圖靈測試是判斷機器是否表現出人類智能行為的基準。但也許真正的問題是,圖靈測試本身需要更新,以考慮這些模仿系統已變得多麼複雜。
現實依然是:AI 對人類經驗沒有真正的理解。
AI 不能提供真正的同情,不能預測你的痛苦,不能直覺隱藏的動機或謊言。AI 也缺乏品味、本能以及定義人性的所有複雜、混亂的品質。
真正的威脅:不是工具,而是主人
也許最令人擔憂的是,AI 沒有內在的目標、欲望或道德,AI 只有被編程到其代碼中的內容。這意味著真正的危險不在於機器本身,而在於控制 AI 的人:工程師、企業和政府。
當你與 AI 系統分享你最深的秘密、生活決策或情感
困擾時,你並不是真正在向 AI 傾訴,你是在將這些資訊提供給矽谷的科技巨頭們。Thierry 反而質疑,你願意將你最私密的想法交給一個工程師或科技公司嗎?
然而,當你將 AI 視為可信任的夥伴時,這就是會發生的事情。
把 AI 作為工具就好
這種批評並非源於技術恐懼症(techno-phobia)。
Thierry 本人就每天都使用 AI,並承認 AI 也許是他們擁有過的最強大的工具 ,能夠以人類夢想中更快更好的方式進行翻譯、摘要、視覺化、寫程式、代換、探索替代方案和分析數據。
正是因為這些工具如此強大,我們必須保持對本質的清晰認識。像人類發明的每一種工具,從石斧到核武器,AI 可以被建設性地或破壞性地使用。將不可避免地被用於兩者。
Thierry 提到電影《雲端情人》(her)的劇情,一個男人愛上了一個 AI。
如果那個 AI 最終決定離開你,你會做什麼來阻止?Thierry 諷刺地指出:我們該擔心的不是 AI 拒絕你,而是背後的人或系統,可能作為武器來控制你的行為。
去人性化 AI
Thierry 主張,我們需要剝去 AI 的人類面具;也就是,讓 AI 完全去人性化。
公司應該從 AI 系統中移除所有關於情感、判斷或認知處理的參考。AI 應該以事實回應,而不說「我」或表達感受或好奇心。
這有可能發生嗎?Thierry 將其比作數十年來被忽視的關於二氧化碳排放的警告。就算如此,我們必須繼續警告科技公司關於人性化 AI 的危險,特別是,如果他們真的想開發所謂「更有道德」的 AI。

在等待更基進的改變時,Thierry 提供了一個實用的方法:
要求 AI 不要稱呼你的名字,要求稱自己為 AI;以第三人稱說話,並避免情感或認知術語。使用語音聊天時,要求平坦、機器人式的語調。
Thierry 認為這種簡單的做法,可以不斷提醒你實際上在互動的對象,並不是一個合成的人類,而是一個工具。
讓 AI 和人類使用者都保持在適當的角色中,防止當我們誤將複雜的模式識別視為真正的人類連接時產生的危險混淆。
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

- 来自作者
- 相关推荐