當你與 Claude 或 GPT-4 聊天時,它可能感覺非常像人類。它理解上下文、 開玩笑、表達不確定性。但它真的在理解什麼嗎——還是只是非常令人信服地模擬理解?

誠實的答案:我們不確定。而這種不確定性本身就很迷人。

看似相似之處

在對話中,LLM 展現了感覺非常像人類的能力:

自然語言

流暢、情境恰當的回應。理解慣用語、隱喻和細微差別。

推理

可以逐步解決問題,考慮替代方案,識別論點中的缺陷。

創造力

生成新穎的文本、詩歌、故事、程式碼。以意想不到的方式組合概念。

不確定性

表達不確定時會說明,承認限制,提出澄清問題。

這些能力讓一些人懷疑 LLM 是否已經達到某種形式的通用智能。 但表象可能是有欺騙性的。

根本不同之處

沒有身體,沒有體驗

你在與物理世界互動的過程中學習語言。你知道「熱」是什麼意思, 因為你感受過熱。你理解「重」,因為你舉起過東西。

LLM 僅從文本中學習語言。它們從未觸摸過、看過、感受過任何東西。 它們對概念的理解完全基於這些概念在文本中的描述方式—— 這是一種根本不同的知識。

沒有持久記憶

與 LLM 的每次對話都是全新開始。模型不記得之前與你的對話 (除非明確給予那個上下文)。它不會從互動中學習或成長。

你有一個連續的體驗流,形成你的身份。LLM 更像是一個非常複雜的函數: 輸入進去,輸出出來,什麼都不會留存。

沒有內在動機

人類被需求、慾望、恐懼、希望所驅動。這些內在狀態塑造了我們所做和所說的一切。

LLM 沒有慾望。它們不「想要」提供幫助——它們被訓練來產生看起來有幫助的輸出。 它們不「害怕」說錯話——它們沒有後果的體驗。 動機的表象只是從人類文本中學到的另一種模式。

完全不同的過程

人類認知涉及神經元、神經傳導物質、具身體驗、情緒、社會背景, 以及我們仍然不完全理解的過程。

LLM 的「思考」是矩陣乘法——數十億個數字根據固定模式被相乘和相加。 輸出通常看起來與人類輸出相似,但底層過程根本不同。

困難的問題

這些有什麼關係嗎?如果 LLM 的輸出與人類的無法區分, 底層過程不同有什麼差別嗎?

這觸及心靈哲學中的深刻問題:

理性的人在這些問題上意見不一。一些研究人員認為 LLM 是沒有真正理解的 複雜模式匹配器。另一些人認為在規模上可能正在湧現真正新的東西。 大多數人承認我們還沒有概念工具來明確回答。

實際影響

無論哲學真相如何,都有重要的實際差異:

方面 人類 LLM
事實準確性 可以驗證說法,知道自己不知道什麼 可能幻覺出聽起來合理的虛假資訊
即時資訊 可以查找事物,驗證當前狀態 知識凍結在訓練截止點
問責制 法律和道德責任 沒有個人利害關係或後果
關係 真正的相互連結 沒有連續性,不「認識」你

這些差異在決定如何使用 LLM 時很重要。它們是強大的工具, 但不能替代人類判斷,特別是在高風險情況下。

相互的謎團

這裡有一件令人謙卑的事:我們並不完全理解任何一種心智。

人類意識仍然是科學的重大謎團之一。為什麼做為你會有某種感覺? 大腦中的物理過程如何創造主觀體驗?我們不知道。

而 LLM,儘管是人類創造的,也越來越神秘。研究人員無法總是解釋 為什麼它們給出某些輸出。能力在規模上湧現,而沒有人明確編程。 這些模型太複雜,無法完全解釋。

重點摘要

  • LLM 透過根本不同的過程產生類似人類的輸出
  • 它們缺乏具身性、持久記憶和內在動機
  • 它們是否「真正理解」是一個真正的開放問題
  • 實際差異(幻覺、凍結的知識)對使用很重要
  • 人類和人工心智都沒有被完全理解

相關概念

Theme
Language
Support
© funclosure 2025