1 / 6 • 6 分鐘
圖靈測試
機器能思考嗎?
Alan Turing • 1950
1950 年,數學家與密碼破譯專家 Alan Turing 提出了一個將定義人工智慧領域的問題:「機器能思考嗎?」
但 Turing 沒有直接處理這個充滿哲學爭議的問題,而是建議用一個更具操作性的東西來取代它——一個測試。
模仿遊戲
想像一位人類詢問者透過文字與兩個隱藏的參與者交流:一個人類和一台機器。詢問者提問,試圖判斷哪個是哪個。兩位參與者都試圖說服詢問者自己是人類。
Turing 認為,如果機器能像人類一樣頻繁地騙過詢問者,我們就應該認為它有思考能力。這個測試不問機器是什麼——只問它能做什麼。
迴避問題?
批評者立刻指出 Turing 自己也承認的一點:測試並沒有真正回答機器是否在思考。它回答的是機器能否模仿思考。
但 Turing 認為這是特點,不是缺陷。我們接受其他人類有意識,是基於他們的行為——我們無法直接接觸他們的內在經驗。為什麼要對機器要求比我們對彼此更多的東西?
這個務實的舉措開啟了數十年的 AI 研究,但也埋下了關於行為與理解之間關係的更深層哲學辯論的種子。
反對意見與回應
Turing 在原始論文中預見了許多反對意見:
- 神學反對:「思考是不朽靈魂的功能。」Turing 指出,這為上帝賦予靈魂的能力設置了武斷的限制。
- 「鴕鳥心態」反對:「機器思考的後果太可怕了。」這關係到我們希望什麼是真的,而非事實為何。
- Lovelace 夫人的反對:「電腦只能做我們編程讓它做的事。」但學習型機器可能連創造者都會感到驚訝。
- 意識反對:「機器無法真正感受或理解。」Turing 承認,這是最強的反對意見——但行為證據是我們唯一擁有的。
LLM 時代
大型語言模型讓 Turing 的問題再次變得緊迫。現代 AI 系統能進行許多人難以分辨是否來自人類的對話。我們通過測試了嗎?
還不完全——而且其中的微妙之處揭示了測試本身的局限:
- LLM 可以被某些探測「抓住」(新穎的數學題、邏輯謎題、近期事件)
- 它們有時會以人類永遠不會的方式失敗(幻覺、前後不一致)
- 測試衡量的是欺騙能力,跟智慧一樣多
更根本的是,通過圖靈測試可能不代表 Turing 所希望的那樣。令人信服的思考模仿可能根本不是思考——這個擔憂在三十年後被 John Searle 用他的中文房間論證具體化了。
重點摘要
- 圖靈測試避開「什麼是思考?」,改問「它能做到思考者做的事嗎?」
- 這是一個行為測試——只看輸出,不管內部過程
- 測試揭示了我們對他者意識的不確定性,不只是對機器
- 現代 LLM 挑戰了測試對於模仿能證明什麼的假設