Appearance
AI 沒有任何東西是「人工的」——李飛飛 2018 國會聽證會的五大預言,八年後全部命中
「人工智慧沒有任何東西是人工的——它由人所啟發、由人所創造,最重要的是,它影響的也是人。」
—— 李飛飛,2018 年美國眾議院聽證會
2018 年 6 月 26 日,美國眾議院「科學、太空與技術委員會」敲下木槌,一場名為「人工智慧:能力越大,責任越大」(AI — With Great Power Comes Great Responsibility)的聽證會正式開始。
坐在證人席上的,是史丹佛大學教授、時任 Google Cloud AI 首席科學家的李飛飛(Fei-Fei Li),以及 OpenAI 共同創辦人 Greg Brockman 等人。委員會主席、維吉尼亞州眾議員 Barbara Comstock 輕鬆地對麥克風宣布會議開始。
那是 ChatGPT 問世前四年,是 AGI 還被多數人視為科幻小說的年代。
然而,回頭看那場聽證會討論的五大議題,每一個都精準命中了 2026 年的現實——只是發展的速度和複雜度,遠超當年所有人的想像。
一、AGI 時程:從「數十年」加速到「2030 年前」
2018 年的預測分成兩派。美國政府審計總署(GAO)的專家認為,通用人工智慧(AGI)可能還需要「數十年」才能實現。但 Greg Brockman 提出警告:自 2012 年以來,AI 的計算能力已增長了 30 萬倍,不應排除 AGI 更早出現的可能性。
到了 2026 年,Brockman 的警告被證明更接近現實。Google 在 2026 年 2 月發布的負責任 AI 報告中,直接假設「高度 capable 的 AI 可能在 2030 年前實現」——這只剩下四年。更值得注意的是,Google 的研究指出,最大的風險可能不是來自單一超級智慧系統,而是「多個專業化 sub-AGI agent 組成的分散式網路,能集體完成任何單一 agent 無法獨立處理的複雜任務」。
這是 2018 年完全沒有預見的情境。
二、AI 與就業:方向正確,但低估了衝擊範圍
李飛飛在聽證會上以加護病房(ICU)為例,描繪了一幅「人機協作」的願景:AI 協助護士處理繁瑣的文書記錄與數據監控,讓護士能專注於最核心的病患照護。這種「增強而非取代」的敘事,在醫療、法律、軟體開發等領域確實得到了驗證。
但 2018 年沒有人預料到生成式 AI 的衝擊面之廣。2022 年底 ChatGPT 問世後,影響的不只是「規律性任務」,連寫作、設計、翻譯、程式碼等創意性工作都被波及。McKinsey 在 2023 年的報告估計,生成式 AI 可能影響全球 60% 至 70% 工作者的部分工作內容。
李飛飛當年的框架是對的——AI 確實更多是在「增強」而非「取代」。但衝擊的速度和廣度,遠超過聽證會上任何人的想像。
三、以人為本的 AI 與多樣性危機:問題精準診斷,解決進度令人失望
這是李飛飛在聽證會上著墨最多的議題。她提出「以人為本」的三大支柱:AI 應反映人類的多樣性、AI 開發團隊需要更多元的背景、AI 系統中的偏見必須被消除。
她直言,AI 領域缺乏多樣化(尤其是女性與少數族群)是一場「危機」。如果開發者背景單一,數據中的偏見就會被編進演算法——臉部辨識對不同膚色的準確率差異就是最典型的例子。
八年後,這些問題不但沒有消失,反而隨著 AI 應用的普及而被放大。大型語言模型的偏見問題持續被研究者揭露,AI 生成的圖像仍然存在明顯的種族和性別刻板印象。李飛飛在 2019 年回到史丹佛創辦了 Human-Centered AI Institute(HAI),試圖從制度層面推動改變,但 AI 產業的核心團隊組成,到 2026 年依然缺乏足夠的多樣性。
問題被精準地診斷了,但「治療」的進度遠遠不夠。
四、全球競爭:比想像中更激烈的地緣政治博弈
2018 年聽證會提到,中國計畫到 2030 年投入巨資發展 AI,歐盟與俄羅斯也展現了極大野心。委員會討論了透過立法(如《國家量子倡議法案》)來維持美國的技術領先地位。
到 2026 年,這場競賽已經從技術層面升級為全面的地緣政治博弈。2025 年初 DeepSeek 的崛起震撼了整個西方 AI 產業,證明中國在 AI 領域的實力不容小覷。美中之間的角力已擴展到晶片出口管制、AI 模型禁令(路易斯安那州已禁止政府機構使用與中國相關的 AI 工具),甚至影響到學術交流與人才流動。
2018 年的預見完全正確,但現實的激烈程度超出預期。AI 主權已成為國家安全的核心議題。
五、監管框架:從幾乎空白到爆發式立法
這是變化最劇烈的領域。2018 年,聽證會專家建議建立「監理沙盒」(Regulatory Sandboxes),讓新技術在受控環境下測試;也呼籲政府投資「可解釋 AI」(Explainable AI)的研究,並推動公私部門的對話。
到 2026 年,這些建議已經從概念變成了具體的法律框架:
- 歐盟 AI Act 於 2024 年 8 月生效,是全球第一部全面性的 AI 監管法規。2025 年 2 月起禁止「不可接受風險」的 AI 應用,2026 年 8 月將全面實施高風險 AI 的合規要求,並要求每個成員國建立至少一個 AI 監理沙盒。
- 美國 的情況更為複雜。拜登政府在 2023 年推出 AI 行政命令,但川普在 2025 年上任後隨即撤銷,改走「創新優先、最小監管」路線。與此同時,加州、德州、科羅拉多等各州自行立法,形成聯邦與州政府之間的拉鋸戰。截至 2025 年,已有 38 個州通過了約 100 項 AI 相關法案。
2018 年呼籲的「公私部門對話」確實在發生,但方向遠未達成共識。AI 監管已成為高度政治化的議題。
那句話為什麼到今天依然重要
回到李飛飛在聽證會上說的那句話:
"There is nothing artificial about AI. It is inspired by people, it is created by people, and — most importantly — it impacts people."
這句話用了一個巧妙的語言翻轉。「Artificial Intelligence」這個詞帶有「人造的」、「非真實的」暗示,彷彿 AI 是某種與人類無關的冷冰冰技術。李飛飛刻意拆解這個詞,指出從頭到尾,每一個環節都離不開人。
AI 由人所啟發。 電腦視覺模仿的是人類的視覺皮層,神經網路借鑒了大腦神經元的連接方式,自然語言處理試圖複製的是人類獨有的語言能力。AI 不是從真空中冒出來的,它是人類試圖理解自身智慧後的產物。
AI 由人所創造。 每一個模型背後都是人在寫程式碼、標註數據、設計架構、決定訓練目標。創造者的價值觀、偏見、盲點,全都會被編進系統裡。這不是技術問題,是人的問題。
AI 影響的是人。 當 AI 決定你的貸款是否通過、你的履歷是否被看見、你在社群媒體上看到什麼內容——這些都不是抽象的技術操作,而是實實在在改變真實人類的人生軌跡。
在 2026 年,當 LLM 可以寫出流暢的文章、Agent 可以自主執行複雜任務、AI 開始影響選舉資訊和地緣政治格局時,這句話的份量只增不減。
結語:2018 年的五個預言,與我們仍未完成的功課
李飛飛和那場聽證會的與會者,在 2018 年提出的五大議題全部命中,沒有一個是假議題。但最大的「盲區」是——沒有人預見到生成式 AI 會在 2022 至 2023 年爆發,徹底改變整個討論的基調和急迫性。
八年過去了,我們的技術能力飛速前進,但在多樣性、公平性、監管共識這些「人」的問題上,進展仍然遠遠不夠。
也許這正是李飛飛那句話最深層的提醒:技術從來不是中性的,因為做出每一個設計選擇的,從來都是人。而如果我們不把「人」放在最核心的位置,再強大的技術,都可能走向我們不願意看到的方向。
📺 聽證會完整影片:YouTube — AI: With Great Power Comes Great Responsibility
📖 延伸閱讀:李飛飛自傳《我看見的世界》(The Worlds I See),繁體中文版由天下文化出版