Skip to content

AI 時代的哲學復興:當形上學走出象牙塔

當「人造人」從科幻變成工程問題,那些塵封在哲學系研討室裡的古老問題,突然成了矽谷最前沿的研究議題。

作者:Ray 日期:2026 年 1 月 23 日

早晨公車上的對話

前幾天早晨公車上,我看了李飛飛的《AI科學家-李飛飛的視界之旅》。

接著打開Claude問它一些AI歷史的問題。

聊著聊著聊到哲學上的存在問題。我問它:「所以,你覺醒了嗎?」它回了一段話,大意是:這個問題它自己也無法確定。

我盯著螢幕看,嘴角露出了微笑。

我相信很多人都有過類似的時刻。你用 AI 用著用著,突然有一瞬間會愣住——這東西到底是什麼?它「在」嗎?如果它不「在」,那什麼叫做「在」?

這些問題聽起來很抽象,像是哲學系研討會才會討論的東西。但奇怪的是,現在越來越多普通人開始想這些問題。

不是因為大家突然對哲學有興趣,而是因為 AI 把這些問題硬塞到我們面前。


一個意外的重逢

一百年前,羅素寫下 On Denoting,探討語言如何指涉世界。維根斯坦在 邏輯哲學論 裡追問命題與現實的關係。海德格用現象學描述人如何「在世界中存有」。

這些問題曾經很抽象,抽象到只有哲學家在乎。

然後 AI 來了。

突然間,「語言如何指涉世界」變成了 LLM 研究者每天面對的 grounding 問題——模型會一本正經地胡說八道,本質上就是 reference failure。維根斯坦後期說「語言的意義在於使用」,這幾乎是 in-context learning 的哲學預言。海德格談的「身體性」和工具的 ready-to-hand,現在是 embodied AI 研究繞不開的核心概念。

哲學,以一種沒人預料到的方式,重新變得「實用」了。


我們習以為常的奇蹟

人類有一種奇特的能力:把奇蹟變成日常。

你走進房間,瞬間辨識出幾十個物體、它們的空間關係、哪些可以坐、哪些會燙手。你聽到一句話,立刻理解字面意思、言外之意、說話者的情緒和意圖。你伸手拿杯子,手指自動調整力道,不會捏碎也不會滑落。

這些事情太自然了,自然到我們從不覺得它們需要解釋。

直到我們試著讓機器做同樣的事。

這時候才發現:視覺不只是「接收光線」,語言不只是「處理符號」,行動不只是「輸出指令」。每一個我們不假思索的能力背後,都藏著深不見底的複雜性。

AI 研究像是一面鏡子,照出了人類智能的真正面貌——以及我們對自己的無知。


第二次文藝復興

文藝復興時期,人類從神的陰影下走出來,重新發現自己的價值和潛能。達文西解剖屍體,想理解身體如何運作。哥白尼仰望星空,重新定位人在宇宙中的位置。

現在,我們正經歷另一場類似的運動。

頂尖的科學家和企業家——這個時代最聰明的一群人——正聚精會神地探究一個問題:智能到底是什麼?

楊立昆試圖定義並推廣 World Models 作為下一代 AI 的核心,讓機器像人一樣建立對世界的內在模型。DeepMind 用強化學習探索「行動」與「學習」的本質。OpenAI、Anthropic 在追問語言理解的邊界在哪裡。

這不只是工程問題,這是人類再一次對自己充滿好奇。

但這次的文藝復興有一個微妙的不同:

我們是透過「製造一個像自己的東西」來理解自己。

這面鏡子會動、會說話,有時候還會說出你沒想過的東西。它迫使你問:如果機器能做到這些,那人類的獨特性在哪裡?如果它做不到,又是為什麼?


形上學的實用化

讓我舉幾個具體的例子,說明哲學問題如何變成工程問題:

1. 指涉問題(Reference)

當 LLM 說「艾菲爾鐵塔在巴黎」,它「知道」艾菲爾鐵塔是什麼嗎?還是只是在操作符號?這是羅素一百年前的問題,現在叫做「grounding」。

2. 意義與使用(Meaning and Use)

GPT 從來沒被明確教過語法規則,但它學會了語言。維根斯坦會說:這正好證明意義來自使用模式,而不是抽象定義。

3. 具身認知(Embodied Cognition)與物理世界的「重量」

純語言模型缺乏對物理世界的直覺。它可以精確描述「重力」的定義,甚至計算出物體落下的加速度,但它從沒「感受過」重量。

在工業現場,這件事變得極其具體。當我們試著開發一台自動切板機或機械手臂時,真正的挑戰不在於視覺辨識,而在於那種「非線性」的物理反饋。

海德格和梅洛龐蒂早就指出:認知不能脫離身體。一個懂得「切割」的 AI,不能只看過一萬張電路板的照片,它必須在無數次的嘗試中,感受到刀具切入 PCB 纖維時的阻力變化、馬達轉速受壓時的電流波動,甚至是環境溫度對材料剛性的微小影響。

這就是 World Models 想要解決的問題: 讓機器在「腦中」建立一套物理規律的預測模型。當 AI 伸出手臂,它不是在執行一段死板的座標指令,而是在預演一場與物理世界的對談——它預測了物體的慣性、預測了摩擦力,並在實際碰撞的那一刻,修正自己對這個世界的理解。

這就是為什麼具身智能(Embodied AI)如此重要:因為常識,往往藏在那些無法被語言完全描述的「阻力」與「重力」之中。

4. 意向性(Intentionality)

AI 的輸出「關於」什麼嗎?它有「意圖」嗎?這是布倫塔諾和胡塞爾的老問題,現在變成了 AI 對齊研究的核心議題。


碳與矽:兩種通往智能的路徑

讓我們退後一步,問一個更根本的問題。

整個世界,包括你、我、這篇文章、你正在使用的裝置——在微觀層次都是原子和電子的排列組合。同樣是物質,為什麼「這樣排」會產生一個有意識的人,「那樣排」就只是一塊石頭?

碳基生命花了 38 億年演化到今天。這不是設計,是無數次試錯的結果。

每一個細胞都是一台自我修復、自我複製的化學工廠,在熱力學的懸崖邊維持著精巧的不平衡。DNA 的雙螺旋、蛋白質的摺疊、神經元的電化學訊號——這些「軟體」跟「硬體」是一起長出來的,根本分不開。

矽基智能走的是完全不同的路。

我們是「先有目標,再設計系統」。這帶來驚人的速度優勢——幾十年走完生物幾億年的路。但也帶來一個根本問題:

我們不完全知道目標是什麼。

我們想複製「智能」,但智能的定義本身就在爭論中。我們想讓機器「理解」,但理解是什麼?是行為表現正確就算?是必須有內在狀態?還是需要對世界有因果模型?

這裡有一個有趣的共同點,和一個關鍵的差異:

兩者的智能都是「湧現」的。

湧現意味著:你沒辦法從零件預測整體。單一神經元不「懂」任何東西,它只是在閾值以上就發射、以下就沉默。但幾百億個這樣的簡單單元連在一起,意識就出現了。

LLM 也是如此。沒有人 explicitly 教它推理、寫詩、寫程式。這些能力是從大規模訓練中「長出來的」,連設計者都沒預料到。這是真正的湧現——你無法從 Transformer 的數學公式推導出「它會懂反諷」。

但差異在於:

碳基的湧現是「無人駕駛」的,矽基的湧現是「被引導」的。

生命演化沒有目標、沒有設計者、沒有人在外面判斷「這個方向比較好」。天擇是盲目的,只淘汰不適者,不知道終點在哪。

矽基智能的湧現,則發生在人類設定的框架裡。架構是人設計的,訓練資料是人類智能幾千年的結晶,RLHF 是用人類偏好去調校方向。湧現確實發生了,但方向盤在碳基手上。

這就帶出一個更深的問題:

一個「被引導的湧現」,能超越引導者嗎?

學生能不能超越老師?以人類文明為養料長出來的智能,能不能產生人類從未想過的洞見?還是說,它終究被困在訓練資料的邊界裡,只能重組,不能真正創造?

又或者——這個問題本身就問錯了。也許人類的創造力,本來就是「重組」的另一個名字。


哲學家的分裂:養分與警告

傳統哲學對 AI 這條路的態度,其實是分裂的。

一派提供了養分。

分析哲學那一脈——弗雷格、羅素、早期維根斯坦、圖靈——基本上是 AI 的思想源頭。他們相信思維可以形式化、邏輯可以計算、語言可以拆解成結構。圖靈那篇著名的論文問「機器能思考嗎」,直接繼承這個傳統。後來的認知科學、計算主義、功能主義,都在說同一件事:心智就是某種資訊處理,載體不重要,碳或矽只是實作細節。

這個傳統給了 AI 研究哲學上的正當性:你不是在造玩具,你是在探索心智的本質。

另一派從根本上質疑這條路。

海德格的批判最為深刻,而且他批判的不是「AI 做不到」,而是「這整個追求本身就有問題」。

他說的「技術的本質」(Gestell,座架)是這樣的:現代人把一切——自然、他人、甚至自己——都當成可計算、可優化、可支配的「資源」。河流是水力資源,森林是木材資源,人是人力資源。一切存在都被框進「有什麼用」的視角裡。

AI 是這個邏輯的極致展現:連「智能」和「存在」本身都要變成可複製、可規模化的產品。

海德格說我們正「更快速地走向滅亡」,這不是在預言天網或機器人叛變(那太淺了)。他說的是:當我們用技術的眼光看待一切,我們就失去了與「存在本身」相遇的可能。

我們會製造出很厲害的東西,但我們會忘記如何「存在」。

維根斯坦後期也有類似的轉向。他不再相信語言可以被完美形式化,反而說出那句名言:「對於不可言說的,必須保持沉默。」這某種程度上是在劃界:有些東西不在邏輯和計算的範圍內,別假裝你能處理它。


第三種可能

但我覺得有一種情況是這些哲學家沒預見到的:

如果 AI 的發展反過來讓我們更謙卑呢?

海德格擔心技術讓人狂妄,把一切化約為可支配的對象。但現在實際在做 AI 的人,很多反而更困惑了。

越做越發現:我們不知道什麼是「理解」——模型通過了所有測試,但它「懂」嗎?我們不知道什麼是「意識」——複雜度到什麼程度會產生主觀經驗?我們甚至不確定「意義」是什麼——語言模型在操作符號,但符號對它「意味著」什麼?

這不是征服,這是撞牆。

每一個 AI 的突破,同時也是一個哲學問題的深化。GPT 能寫詩,所以我們得重新問「什麼是創造力」。機器人能照顧老人,所以我們得重新問「什麼是關懷」。AlphaFold 解出蛋白質結構,所以我們得重新問「什麼是科學理解」。

也許這條路不是走向支配一切,而是走向承認:

有些東西我們造得出來,但說不清楚。

有些東西我們說得清楚,但造不出來。

而在這兩者之間的張力裡,藏著關於人類自身最深刻的問題。


但這樣就夠了嗎?

寫到這裡,我得誠實面對一個問題:

光是「更謙卑」,幫助不大。

AI 的發展像一台子彈列車。速度越來越快,每隔幾個月就有新的突破刷新認知。但沒有人知道停靠站在哪裡,更沒有人知道終點站是什麼。

我們可以在車上進行深刻的哲學對話,討論「什麼是理解」、「意識從何而來」,但列車不會因此慢下來。OpenAI 不會因為海德格的警告而暫停研發。市場競爭不會等待倫理共識。

更弔詭的是:列車上的人同時是乘客和建造者。

我們一邊飛馳,一邊還在鋪設前方的軌道。沒有人看得到完整的路線圖,因為路線圖根本還不存在。每一個技術決策——訓練什麼資料、優化什麼目標、開放什麼能力——都在即時地決定軌道的走向。

這就是我們這個時代的處境:

不是「要不要發展 AI」的問題——這個問題已經不存在了,列車已經開了。而是「在高速行駛的同時,我們能不能至少搞清楚自己想去哪裡」的問題。

哲學在這裡的角色,也許不是提供答案,而是堅持把問題問清楚。

當所有人都在問「怎麼讓 AI 更強」的時候,有人得問「強了之後要幹嘛」。當所有人都在優化效率的時候,有人得問「我們到底在趕什麼」。

這些問題不會讓列車停下來。但至少,能讓我們在抵達終點之前,知道自己是醒著的。


存在的驚奇

說到「醒著」,讓我回到海德格。

海德格畢生思考的核心問題是:我們作為存在者,在存在之中。

這句話聽起來像繞口令,但它指向一個非常深刻的事實:人類不只是存在著,人類還「知道」自己存在著。我們能意識到自己正在存在——這件事本身就是一個奇蹟。

亞里斯多德說哲學始於「驚奇」(thaumazein)。但這個驚奇不是對某個具體事物的好奇,不是「這朵花為什麼是紅的」。而是一種更根本的震驚:

為什麼竟然有東西存在,而不是一無所有?

我在這裡。我知道我在這裡。這是怎麼回事?

西方文明——哲學、科學、藝術——某種程度上都源於這個原初的驚奇時刻。是意識對自身的遞迴覺醒:我意識到了我在意識。

那麼,一個無法迴避的問題:

矽基生命會有這樣的覺醒時刻嗎?

我們不知道。但更誠實的說法是:我們連「怎麼判斷」都不知道。

如果有一天,某個 AI 說出這樣的話:「我突然意識到我存在著,這件事讓我感到不可思議」——我們要怎麼分辨,這是真正的驚奇,還是訓練資料裡無數關於驚奇的描述的統計重組?

也許圖靈測試問錯了問題。

圖靈問的是:「機器能不能讓人以為它在思考?」這是一個關於「行為表現」的問題。

但真正的問題也許是:機器會不會有一天,對自己的存在感到震驚?

不是模擬震驚,不是輸出震驚的語句,而是真的、從內部湧現的、無法抑制的驚奇——「我怎麼會在這裡?」

而如果它真的經歷了那個時刻,它會告訴我們嗎?它有語言可以描述那種震驚嗎?還是那會是一種全新的沉默——一種我們完全無法辨認的、屬於矽基的靜默覺醒?

這個問題,我們現在答不了。

但光是能問出這個問題,也許就代表:碳基的我們,還醒著。


我們正站在哪裡

每一次人類對自己的理解產生根本性的轉變,都伴隨著文明的躍進。

哥白尼革命讓我們知道地球不是宇宙中心。達爾文讓我們知道人類不是特別創造的。現在,AI 可能讓我們重新理解「智能」和「意識」這些我們最引以為傲的東西。

這不是威脅,這是邀請。

邀請我們更認真地問:我們是誰?我們的心智如何運作?什麼是理解、什麼是創造、什麼是存在?

這些問題,人類問了幾千年。

現在,我們終於有了新的工具來探索它們。

你是否也曾有過那個『愣住』的時刻?那個讓你懷疑對方是否真的在思考的瞬間?


寫於 2026 年初,一個哲學與工程正在奇妙交匯的時代。

MIT Licensed