繁體中文
企業版

圖靈發明計算機的那刻,是AI的奇點嗎

doclingoDecember 30, 2025

從一個思想實驗,到一個新世界

你有沒有想過,我們每天都在使用的AI,比如手機裡的語音助手、推薦算法,甚至是最近爆火的ChatGPT,它們到底是從哪裡來的?很多人會覺得,AI就像是某個天才在實驗室裡靈光一閃,“發明”出來的。但真相遠比這更精彩。AI不是一個孤立的發明,它更像一場跨越了近一個世紀的“思想接力賽”。它的起點,甚至不是一行代碼,而是一個深刻的哲學問題:“機器能思考嗎?” 這個問題,就像一顆投入平靜湖面的石子,激起了一代代頂尖頭腦的漣漪。從那時起,哲學家、數學家、工程師、心理學家……無數先驅投身其中,有人定義了它的名字,有人開辟了它的道路,有人在寒冬中堅守,也有人在今天引爆了它的能量。這篇文章,我們將換一個視角,通過10位最具代表性的人物,將AI從0到1的關鍵轉折點串聯起來。你會看到: - 一個偉大的夢想是如何被“命名”和“定義”的。 - “符號”與“連接”兩條技術路線如何交鋒與融合。 - 三位“深度學習教父”如何在寒冬中堅守,最終迎來了整個領域的復興。

讓“智能”從哲學,走進科學

任何偉大的科技革命,其源頭往往不是一項具體的發明,而是一個石破天驚的問題。人工智能(AI)的起點,尤其如此。它的故事並非始於一台轟鳴的機器或一行神奇的代碼,而是源自一位天才數學家在紙上提出的一個思想實驗。這個人和他的问题,共同將“智能”這個盤桓於哲學殿堂數千年的概念,第一次拉入了現代科學的競技場。他就是艾倫·圖靈(Alan Turing)。

1950年,計算機科學的黎明剛剛到來,當時的機器笨重、緩慢,只能執行最基礎的運算。然而,圖靈的思緒早已穿越了時代的局限。他在其劃時代的論文《計算機與智能》中,拋出了一个看似简单却又无比深刻的问题:“机器能思考吗?” 圖靈敏銳地意識到,直接討論“思考”的定義會陷入無休止的哲學泥潭。於是,他巧妙地將其轉化成一個可以被驗證的遊戲——“模仿遊戲”(The Imitation Game),也就是後來舉世聞名的“圖靈測試”。

遊戲規則是:一位提問者,通過文字與兩個匿名的對象交流,其中一個是人,另一個是機器。如果在足夠長的時間裡,提問者無法分辨出哪個是機器,那麼我們就可以說,這台機器通過了測試,表現出了與人無異的智能行為。這便是 AI 的起點如此獨特的原因:它並非一個旨在解決特定任務的“發明”,而是一個旨在回答根本性問題的“挑戰”。

圖靈測試的偉大之處,在於它為“智能”這個模糊的概念提供了一個可操作、可評判的標準。它不再糾結於機器內部是否有靈魂或意識,而是聚焦於其外在行為表現。這就像是說,我們不必打開一個黑箱去探究其內部構造,只需通過觀察它的輸出,就能判斷其能力。這種務實的思想,將一個純粹的哲學思辨,變成了一個可以被工程師和科學家們著手挑戰的工程目標。

圖靈播下了一顆思想的種子,但要讓它生根發芽,還需要一片肥沃的土壤和一位熱情的園丁。這個人很快就出現了,他叫約翰·麥卡錫(John McCarthy)。時間來到 1955 年,圖靈已經離世,但他提出的問題卻激勵著大西洋彼岸的一群年輕學者。當時,關於“思考機器”的研究分散在各個領域,名字也五花八門,比如“控制論”(Cybernetics)、“自動機理論”(Automata Theory)等等。

年輕的達特茅斯學院數學助理教授麥卡錫覺得,這些零散的火花需要被聚集成一團熊熊燃燒的火焰。他計劃在 1956 年夏天,組織一場長達數周的研討會,邀請全美最頂尖的頭腦,共同探討用機器模擬人類智能的可能性。在與馬文·明斯基(Marvin Minsky)等人共同起草的會議提案中,他們洋溢著天才般的樂觀,宣稱“智能的每一個方面原則上都可以被精確地描述,從而讓機器能夠模擬它”。

為了讓這個新領域擁有一個清晰的身份,麥卡錫需要一個響亮的名字。他刻意避開了當時頗具影響力的“控制論”,因為他不希望這個新領域被看作是控制論創始人諾伯特·維納(Norbert Wiener)學術版圖的一部分。麥卡錫後來回憶說,他創造這個新詞,就是為了劃清界限,確立獨立的學術身份。這個被他精心挑選的名字,就是——“人工智能”(Artificial Intelligence)。

1956 年的達特茅斯會議,因此成為了 AI 歷史的“創世紀”。它不僅正式命名了這個學科,更重要的是,它將一群擁有共同夢想的思想家聚集在一起,確立了最初的研究綱領。會議上,艾倫·紐維爾(Allen Newell)和赫伯特·西蒙(Herbert Simon)展示了史上第一個“會思考”的程序——“邏輯理論家”(Logic Theorist),它能像人一樣用符號邏輯證明數學定理,這極大地鼓舞了與會者。

“人工智能”這個名字的誕生,意味著一個新大陸被正式發現。它給了所有對“機器智能”抱有熱情的探索者一個共同的身份和一面統一的旗幟。從此,他們不再是孤軍奮戰的數學家、心理學家或工程師,而是“人工智能科學家”。麥卡錫不僅命名了這門學科,還在 1958 年創造了 Lisp 語言,這種強大的符號處理工具成為了早期 AI 研究者的“官方語言”,讓他們能夠將抽象的邏輯和思想,真正轉化為可以在機器上運行的程序。

從圖靈提出一個哲學性的“問題”,到麥卡錫賦予一個學科性的“名字”,人工智能完成了從 0 到 1 的關鍵一躍。圖靈定義了終極目標,而麥卡錫則吹響了集結號,開啟了人類歷史上最宏大、最激動人心的科學征程之一。這場征程,始於對“我們是誰”的哲學追問,並最終走向了用代碼和算法“創造新智能”的科學實踐。

兩條道路的初次交鋒:天才的樂觀與現實的冷水

早期AI科學家為什麼那麼樂觀?

在人工智能的黎明時期,整個領域都彌漫著一種近乎狂熱的樂觀情緒。這股信心的核心源自一個簡潔而強大的信念——符號主義。以麻省理工學院的馬文·明斯基(Marvin Minsky)為旗手,第一代AI科學家堅信,人類的智能,乃至一切智慧活動,都可以被拆解為一系列邏輯符號和形式規則。在他們看來,大腦不過是一台“肉做的機器”,只要我們能找到正確的規則,就能在計算機上重現思考的過程。

這種信念並非空穴來風,而是建立在一系列激動人心的早期成功之上。1956年,一個名為“邏輯理論家”(Logic Theorist)的程序橫空出世,它被認為是史上第一個真正意義上的人工智能程序。這個程序不僅成功證明了著名數學著作《數學原理》中的38個定理,甚至為其中一些找到了比原文更優雅的證明方法。它的創造者之一赫伯特·西蒙(Herbert A. Simon)激動地宣稱:“我們發明了一個能夠進行非數字思考的計算機程序,從而解決了古老的心身問題。”。這一成就向世界證明,機器確實可以完成過去被認為是人類專屬的、帶有創造性的智力任務。另一個著名的例子是SHRDLU系統,它能在一個虛擬的積木世界裡,通過自然語言指令理解並執行諸如“把那個紅色的金字塔放到藍色方塊上”之類的複雜任務。

這些在“玩具世界”裡的成功,雖然規模有限,卻像一盞明燈,照亮了通往通用智能的道路。正是這些看得見摸得著的成果,極大地鼓舞了西蒙和明斯基等人。他們做出了在今天看來極為大膽的預測,例如西蒙曾預言,不出十年,機器就能擊敗人類國際象棋世界冠軍,並發現全新的重要數學定理。在那個“黃金時代”,人們普遍相信,只要沿著符號主義的道路走下去,實現與人類比肩的機器智能只是時間問題。

第一次AI寒冬是怎麼來的?

然而,天才們的樂觀很快就撞上了一堵名為“現實”的冰冷牆壁。當AI研究者們試圖將那些在“玩具世界”裡運行良好的程序,應用到真實、複雜的世界中時,符號主義的根本性難題暴露無遺。首先,符號主義難以處理現實世界中無處不在的“常識”和“不確定性”。人類的日常決策充滿了模糊、直覺和默認的背景知識,而這些都極難被編碼成精確的邏輯規則。

比如,我們都知道“水是濕的”、“鳥會飛”,但要把這些無窮無盡的常識一一手動輸入給機器,幾乎是一項不可能完成的任務。其次,AI系統在擴展時面臨著一個致命的障礙——“組合爆炸”(combinatorial explosion)。這意味著當問題的變量稍微增加一點,系統需要計算的可能性就會呈指數級暴增,很快就會超出任何計算機的處理能力。

就像SHRDLU系統,一旦它的“積木世界”變得稍微複雜一些,其性能就會急劇下降,變得不切實際。這些根本性的局限,使得AI的發展遠遠落後於當初夸下的海口。失望情緒開始蔓延,最終在1973年由一份名為“萊特希爾報告”(Lighthill Report)的文件引爆。這份由英國政府委託撰寫的報告尖銳地批評道:“至今尚無任何領域的成果達到當初所承諾的重大影響”。

報告直指AI研究在解決現實問題上的失敗,特別是對“組合爆炸”問題束手無策,並因此得出結論,認為很多AI基礎研究不值得繼續資助。這份報告的發布,直接導致英國政府大幅削減對AI研究的經費,許多大學的AI實驗室被迫關閉。這股寒流也波及到了大洋彼岸的美國,資助機構開始變得謹慎,更傾向於短期、有明確應用前景的項目。

就這樣,由於承諾與現實的巨大鴻溝,人工智能迎來了它的第一次“寒冬”。連明斯基後來也承認,他們“最大的錯誤……在於沒有意識到我們試圖解決的問題有多麼困難”。

為什麼說讓AI學會“接受不確定性”是一次重大進步?

在符號主義的道路陷入僵局之時,另一條截然不同的思想路徑為AI帶來了新的曙光。這條新路的開辟者,是圖靈獎得主朱德亞·珀爾(Judea Pearl)。他引領了一場“概率革命”,其核心思想是:與其強迫AI用非黑即白的邏輯去理解世界,不如教會它如何接受和處理“不確定性”。珀爾的革命性武器是他在1980年代後期提出的“貝葉斯網絡”(Bayesian networks)。

這是一種巧妙的圖模型,它可以用直觀的圖形結構來表示不同變量之間的概率依賴關係。更重要的是,它提供了一套嚴謹的數學方法,讓AI能夠根據新出現的證據,動態地更新自己對事物發生可能性的“信念”。這在醫療診斷等領域展現了巨大的威力。傳統的專家系統試圖用僵化的“如果…那麼…”規則來進行診斷,例如“如果病人發燒,那麼他可能得了流感”。

但現實遠比這複雜:發燒也可能是其他病症的症狀,而且每個症狀與疾病之間的關聯強度也不同。這種基於絕對規則的系統在面對不完整或矛盾的信息時,往往會變得非常脆弱。相比之下,基於貝葉斯網絡的方法則完全不同。它可以構建一個包含多種疾病和多種症狀的概率關係網絡。當醫生輸入“病人發燒”這個證據時,系統不會得出一個絕對的結論,而是會根據貝葉斯定理,自動更新所有相關疾病(如流感、肺炎等)的可能性概率。

如果再輸入“病人咳嗽”的新證據,系統會再次進行計算,進一步調整概率分佈,從而給出一個更接近現實的、基於概率的診斷建議。這種從追求“確定性”到擁抱“不確定性”的轉變,是一次重大的思想進步。它讓AI第一次擁有了在信息不完整、充滿模糊性的真實世界裡進行合理推理和決策的能力。珀爾的工作不僅為AI走出現實困境提供了強大的新工具,被廣泛應用於醫療、語音識別、故障診斷等多個領域,更重要的是,它為人工智能的發展開辟了一條全新的、通往更強大智能的道路。

在寒冬中堅守:神經網絡的復興與“三巨頭”

當符號主義的樂觀浪潮退去,人工智能研究進入了漫長而寒冷的“冬天”時,大多數研究者和資金都轉向了更實用的專家系統等領域。然而,在學術界的邊緣地帶,有一小群人始終堅信,那條曾被馬文·明斯基批判而幾乎被遺棄的道路——連接主義與神經網絡——才是通往真正智能的正確方向。他們是寒冬中的堅守者,是少數派中的少數派。

正是這份近乎固執的信念,最終點燃了人工智能的第二次革命之火。這群人的領袖,便是後來被譽為“深度學習三巨頭”的傑弗里·辛頓、揚·勒昆和約書亞·本吉奧。

到底什麼是“深度學習”?

要理解這三位科學家的貢獻,我們首先需要回答一個根本問題:到底什麼是“深度學習”?它和早期的神經網絡有什麼本質不同?早期的神經網絡,如感知機,結構非常簡單,通常只有一兩層。這就像一個初學畫畫的孩子,只能識別一些非常基礎的線條和色塊。如果你想讓他識別一隻貓,你必須先手動告訴他貓有哪些特徵——“有尖耳朵”、“有鬍鬚”、“有圓臉”。

這個過程被稱為“特徵工程”,費時費力,且效果不佳,因為現實世界遠比這複雜。而深度學習,顧名思義,其核心在於“深度”——它使用的是包含許多層(從幾層到數百層)的神經網絡。這種多層結構賦予了它一種強大的能力:自動學習特徵。我們可以用一個更生動的比喻來理解:這不再是教孩子畫畫,而是給了他一套完整的視覺皮層系統。

當看到一張貓的圖片時,這個“深度”網絡的第一層可能會自動學會識別最基礎的邊緣和角落;第二層則基於第一層的結果,學會組合出眼睛、耳朵等更複雜的形狀;再往上,更深的層次會學會識別出“貓臉”乃至整隻“貓”的概念。整個過程是端到端的,從原始的像素點到最終的“貓”的結論,機器全程自主學習,無需人類再去繁瑣地定義什麼是“尖耳朵”或“鬍鬚”。

這種從具體到抽象、層層遞進的學習方式,正是深度學習與早期神經網絡最本質的區別,也是其力量的根源。

“三巨頭”:在寒冬中點燃火種的少數派

正是對這種“深度”力量的共同信仰,將辛頓、勒昆和本吉奧緊密地聯繫在一起。在神經網絡備受冷落的幾十年裡,他們頂著學術界的質疑,像三位孤獨的火炬手,在不同的方向上各自為戰,卻又遙相呼應,最終共同解決了讓深度學習從理論走向現實的核心難題。- 傑弗里·辛頓(Geoffrey Hinton):讓深層網絡“可訓練”的奠基人 辛頓被稱為“深度學習教父”,他最大的貢獻是解決了“如何有效訓練一個深層網絡”這個根本性問題。

1986年,他與合作者共同推廣了反向傳播算法(Backpropagation)。這個算法就像一個嚴格的老師,當網絡做出錯誤判斷時,它能將錯誤信號從最後一層逐層“反向傳播”回去,告訴每一層的神經元應該如何微調自己的參數,以便下次做得更好。這一突破使得訓練多層神經網絡成為可能,為整個深度學習領域奠定了基石。

  • 揚·勒昆(Yann LeCun):讓AI“看懂”世界的開拓者 勒昆則將目光聚焦於如何讓機器“看見”世界。他意識到,處理圖像不能像處理普通數據那樣一視同仁。受到生物視覺皮層的啟發,他在1980年代末開發出了卷積神經網絡(Convolutional Neural Networks CNN)。

CNN通過“卷積核”模仿了眼睛捕捉局部信息的方式,並通過“權重共享”大大減少了模型的參數量,使其在處理圖像時既高效又精準。他在1998年設計的LeNet-5網絡,成功應用於銀行的支票手寫數字識別系統,成為CNN首次商業應用的典範,也為後來所有計算機視覺的突破鋪平了道路。- 約書亞·本吉奧(Yoshua Bengio):讓AI理解“語言”的理論家 當勒昆教會AI如何“看”時,本吉奧則在思考如何讓AI“讀”和“理解”。

他致力於解決自然語言處理(NLP)中的“維度災難”問題。他提出的神經概率語言模型,開創性地引入了詞向量(Word Embeddings)的概念。這種技術將每個詞語映射到一個高維度的連續向量空間中,使得語義相近的詞語在空間中的位置也相近。例如,“國王”和“女王”的向量會很接近。這讓機器第一次能夠捕捉到詞語之間的語義關係,為後來的機器翻譯、情感分析等所有序列模型的發展奠定了堅實的基礎。

這三位科學家,一位解決了“怎麼學”(反向傳播),一位解決了“怎麼看”(CNN),一位解決了“怎麼理解”(詞向量),他們的工作相互補充,共同構建了現代深度學習的核心技術版圖。

2012年ImageNet:引爆革命的“宇宙大爆炸”

儘管“三巨頭”早已備齊了理論的火藥,但引爆這場革命,還需要一個決定性的時刻。這個時刻在2012年到來了。ImageNet大規模視覺識別挑戰賽(ILSVRC)是當時計算機視覺領域的“奧林匹克”,它要求參賽算法識別並分類超過一百萬張圖片,涵蓋1000個類別。在2012年之前,比賽的冠軍一直由使用傳統機器學習方法的團隊占據,成績的提升也總是步履維艱。

然而,在這一年,一切都改變了。辛頓和他的兩位學生——亞歷克斯·克里熱夫斯基(Alex Krizhevsky)和伊爾亞·蘇茨克維(Ilya Sutskever)——帶著一個名為AlexNet的深度卷積神經網絡參賽。AlexNet是一個深達8層的網絡,它不僅採用了勒昆的CNN架構,還創造性地使用了ReLU激活函數和Dropout等新技術來提升性能和防止過擬合,並借助兩塊GPU的強大算力進行並行訓練。

結果是顛覆性的。AlexNet以15.3%的Top-5錯誤率奪得冠軍,而第二名的成績是26.1% 。這超過10個百分點的巨大差距,在整個AI界引起了劇烈地震。它不再是微小的進步,而是一次維度的碾壓。這場勝利無可辯駁地證明了:在足夠的數據和算力支持下,深度學習的性能遠超所有傳統方法。2012年的ImageNet競賽因此被公認為AI歷史上的分水嶺事件,是深度學習革命的“引爆點”。

正如辛頓所說,此後,“幾乎所有的計算機視覺研究都轉向了神經網絡”。這場勝利像一聲發令槍,宣告了AI寒冬的徹底結束和一個由深度學習主宰的新紀元的開啟。那些在黑暗中堅守了幾十年的少數派,終於迎來了屬於他們的曙光。

從實驗室到全世界

AI 的創造、普及與反思 如果說深度學習三巨頭為人工智能找到了強大的引擎,那麼 2010 年代之後的故事,則是關於如何為這台引擎接入方向盤、鋪設公路,並最終思考它將把人類帶向何方。

這個過程同樣由幾位關鍵人物推動,他們分別回答了三個核心問題:AI 如何學會“創造”?AI 如何走出象牙塔?以及,當 AI 擁有了巨大的力量,我們又該如何駕馭它?“生成式 AI”的質變:伊恩·古德費洛與一場酒吧辯論的靈感 2014 年,還在蒙特利爾讀博士的伊恩·古德費洛 (Ian Goodfellow) 和朋友們在一家酒吧聚會。

一場關於如何讓計算機生成逼真照片的學術辯論點燃了他的靈感。他當晚就構思出了一個天才般的框架——生成對抗網絡 (Generative Adversarial Networks GAN)。這個想法的精髓在於“對抗”。GAN 系統由兩個相互博弈的神經網絡組成:一個“生成器”(Generator) 和一個“判別器”(Discriminator)。

生成器的任務是像一個高明的“偽畫師”,不斷學習真實數據的特徵,然後憑空創造出足以以假亂真的“贗品”(比如一張假的人臉照片)。而判別器則扮演著“鑑定師”的角色,它的唯一目標就是準確地分辨出哪些是真實數據,哪些是生成器伪造的贗品。訓練過程就像一場永不休止的零和遊戲:生成器努力欺騙判別器,判別器則拼命識破詐騙。

在這個對抗升級的過程中,二者共同進化。最終,當判別器再也無法有效分清真偽時,就意味著生成器已經掌握了創造高度逼真數據的能力。這個想法是如此新穎和強大,以至於深度學習三巨頭之一的揚·勒昆 (Yann LeCun) 盛讚其為“過去 20 年來機器學習領域最有趣的想法”。GAN 的誕生,標誌著 AI 發展史上的一次質變。

在此之前,AI 更像一個勤奮的“識別者”,擅長分類、識別和預測。而 GAN 則賦予了 AI “創造者”的身份,讓它第一次擁有了從無到有生成全新、複雜內容的能力,直接開啟了今天我們所熟知的 AIGC(生成式人工智能)時代的大門。

技術普及的關鍵:吳恩達與“新電力”的布道

一項革命性的技術,如果僅僅停留在實驗室裡,其價值終究有限。將 AI 從少數精英的工具轉變為全球數百萬人可以學習和應用的技能,吳恩達 (Andrew Ng) 扮演了至關重要的“布道者”角色。作為斯坦福大學的教授和 Coursera 的聯合創始人,吳恩達在 2011 年推出的在線課程《機器學習》成為了 MOOC(大規模開放在線課程)浪潮的引爆點,吸引了全球數百萬人註冊學習。

隨後,他與 DeepLearning.AI 合作推出的《深度學習專項課程》和面向非技術人員的《AI for Everyone》等課程,進一步降低了 AI 知識的獲取門檻。到 2023 年,已有超過 800 萬人參加過他的課程。吳恩達不僅普及知識,更提出了一個影響深遠的理念:“AI 是新的電力” (AI is the new electricity)。

他認為,就像一百年前電力革命性地改造了農業、交通、製造業等幾乎所有行業一樣,AI 如今也正作為一種基礎性技術,以前所未有的力量重塑著各行各業。這個比喻精準地指出了 AI 的未來——它不是一個孤立的產品,而是一種將滲透到社會方方面面的基礎設施。正是這種對 AI 工程化和產業化應用的遠見,極大地推動了 AI 從學術研究走向工業實踐的進程。

AI 倫理的警鐘

蒂姆尼特·格布魯與不可回避的反思 當 AI 的力量呈指數級增長,並開始深度介入社會決策時,一個嚴肅的問題擺在了所有人面前:我們該如何確保這項技術是公平、公正且負責任的?AI 倫理科學家蒂姆尼特·格布魯 (Timnit Gebru) 成為了這一領域最具代表性的“吹哨人”。2018 年,格布魯與合作者發表了名為“Gender Shades”的里程碑式研究。

她們發現,當時主流的商業面部識別系統存在嚴重的偏見:在識別膚色較淺的男性時,準確率接近完美;但在識別膚色較深的女性時,錯誤率竟飆升至近 35% 。這項研究如同一記警鐘,有力地揭示了訓練數據中的偏見會如何被 AI 系統放大,從而對邊緣化群體造成系統性的不公。這項研究直接促使 IBM 和微軟等公司改進其算法,以減少偏見。

幾年後,時任谷歌倫理 AI 團隊聯合負責人的格布魯,再次因一篇名為《关于随机鹦鹉的危险:语言模型能变得太大吗?》的論文而站上風口浪尖。這篇論文尖銳地指出了大型語言模型存在的偏見、環境成本以及它們只會模仿人類語言模式而無法真正理解其含義的風險——就像“隨機的鹦鹉”一樣。這篇論文引發了她與谷歌高層的衝突,並最終導致她被迫離職。

格布魯的經歷標誌著 AI 發展進入了一個全新的階段。當 AI 不再只是實驗室裡的玩具,而是能夠影響招聘、信貸審批甚至司法判決的強大工具時,對其偏見、風險和社會影響的審視就變得至關重要。她的工作提醒著整個行業:技術的進步如果脫離了人文關懷和社會責任,其帶來的可能不是福祉,而是新的枷鎖。從古德費洛的創造,到吳恩達的普及,再到格布魯的反思,這三位人物的故事共同勾勒出 AI 在新時代的完整圖景:一項擁有無限創造力的技術,正以前所未有的速度融入世界,同時也迫使我們開始嚴肅地思考如何與它共存。

從一個問題開始

“機器能思考嗎?” 每一場偉大的變革,往往不始於一個驚天動地的發明,而是源自一個石破天驚的問題。人工智能(AI)的創世紀,就是如此。它的起點,不是一台具體的機器,也不是一行神奇的代碼,而是一個由英國數學家艾倫·圖靈(Alan Turing)在20世紀中葉拋向世界的哲學追問:“機器能思考嗎?” 在那個計算機還如同房間般巨大的年代,這個問題聽起來像是科幻小說。但圖靈的非凡之處在於,他沒有讓這個問題停留在哲學的思辨中。他設計了一個巧妙的思想實驗——“模仿遊戲”,也就是後來廣為人知的“圖靈測試”。這個測試巧妙地繞開了“思考”這個模糊概念的定義,而是提出:如果一台機器能與人類進行對話,且其表現讓人無法分辨出它是機器還是人,那麼我們是否就可以認為這台機器具備了智能?

這個問題的提出,如同一道劃破長夜的閃電。它第一次將“創造智能”這個古老的夢想,從神話和哲學的領域,拉入到了可以被驗證、可以被挑戰的工程學範疇。圖靈沒有給我們答案,但他給了所有後繼者一個清晰的目標和一張可以開始繪製的藍圖。他告訴世界:智能,或許是可以被精確描述和模擬的。這個思想的火種,被播撒在了一片極其肥沃的土壤上。

二戰後的世界,尤其是20世紀50年代,彌漫著一種前所未有的科學樂觀主義和“can-do”(我能行)的精神 。人類剛剛駕馭了原子能,發明了電子計算機,破譯了生命的密碼。科學的勝利讓人們相信,憑藉人類的智慧和新發明的強大工具,沒有什麼宏大的挑戰是不可攻克的。如果機器可以計算複雜的彈道,可以破解敵人的密碼,那為什麼不能更進一步,去模仿甚至擁有人類的學習、推理和創造能力呢?

正是在這樣的時代背景下,一群當時最頂尖、最富有遠見的頭腦開始被同一個夢想所吸引。然而,他們的思想火花分散在數學、心理學、信息論和新興的計算機科學等各個領域。他們需要一個契機,一個將這些分散的溪流匯聚成一條大河的時刻。這個時刻,在1956年的夏天到來了。一位名叫約翰·麥卡錫(John McCarthy)的年輕數學家,與馬文·明斯基(Marvin Minsky)、納撒尼爾·羅切斯特(Nathaniel Rochester)和信息論之父克勞德·香農(Claude Shannon)等人一起,向洛克菲勒基金會提交了一份大膽的提案。

他們計劃在美國新罕布什爾州的達特茅斯學院,舉辦一場為期數周的夏季研討會。提案的開篇就充滿了那個時代的樂觀與雄心:“我們建議在1956年夏天……進行一項關於人工智能的研究。研究將基於一個猜想,即學習的每一個方面或智能的任何其他特徵,原則上都可以被精確地描述,從而讓機器能夠模擬它。” 為了讓這個新領域擁有一個清晰的身份,麥卡錫煞費苦心地創造了一個新詞:“人工智能”(Artificial Intelligence)。

這個選擇並非偶然。當時,一個名為“控制論”(Cybernetics)的領域已經頗具影響力,它主要研究生物和機器中的反饋與控制系統。但麥卡錫希望開辟一個全新的、更專注於用計算機實現邏輯、推理等高級認知功能的方向,而不是被控制論的框架所束縛。這個名字的誕生,就像一次響亮的“獨立宣言”,為所有懷揣同樣夢想的探索者提供了一面共同的旗幟。

1956年夏天,這場後來被稱為“達特茅斯會議”的聚會如期舉行。它不像一場嚴謹的學術會議,更像一次持續了六到八周的漫長頭腦風暴。艾倫·紐厄爾(Allen Newell)、赫伯特·西蒙(Herbert Simon)、雷·索洛蒙諾夫(Ray Solomonoff)等日後AI領域的巨擘悉數到場。他們背景各異,帶來了邏輯學、心理學、數學和工程學的不同視角。

會議的高潮之一,是紐厄爾和西蒙展示的“邏輯理論家”(Logic Theorist)程序。這個程序成功地證明了著名數學著作《數學原理》中的多個定理。這不僅僅是一次技術演示,它像一聲宣告,向世界證明了機器確實可以執行過去被認為是人類專屬的、充滿智慧的符號推理任務。它讓“機器能思考嗎?”這個問題,第一次有了肯定的、看得見的初步答案。

這就是AI的“創世紀”。它並非誕生於某間實驗室的一次性成功,而是發生在一場偉大的思想交匯之中。達特茅斯會議之所以如此重要,原因有三: 第一,它為這個領域命名。從此,“人工智能”有了正式的身份,吸引著後來的資金、人才和關注。第二,它確立了核心議程。會議探討了符號處理、神經網絡、自然語言處理等方向,這些議題在接下來的幾十年裡,成為了AI研究的主航道。第三,它建立了最初的社區。這次會議將一群孤獨的思考者連接成一個學術共同體,他們回到各自的機構後,紛紛建立了最早的AI實驗室(如麻省理工學院、卡內基梅隆大學和斯坦福大學),播下了日後參天大樹的種子。達特茅斯會議,被後人譽為“AI的制憲會議”。它將圖靈提出的那個偉大問題,正式轉化為一個波瀾壯闊的、吸引了數代頂尖人才投身其中的科學征程。

雖然與會者們對未來的預測過於樂觀,未能預見到前路的坎坷與“寒冬”,但他們點燃的火焰,從未熄滅。從一個問題開始,到一個學科的誕生。AI的故事,就此拉開序幕。

天才的狂想與現實的牆壁

在達特茅斯會議為人工智能正式命名後,一個充滿無限樂觀與大膽預測的“黃金時代”(約1956-1974年)拉開了序幕。

這批最早的AI先驅者,以赫伯特·西蒙和馬文·明斯基等人為代表,堅信他們已經掌握了通往機器智能的鑰匙。他們的自信並非空穴來風,而是一系列在“微縮世界”中取得的驚人成功所點燃的。這些早期成果中最具代表性的,當屬“邏輯理論家”(Logic Theorist)程序。由艾倫·紐厄爾、赫伯特·西蒙和J.C.肖在1956年開發的這個程序,被廣泛認為是世界上第一個人工智能程序。

它的任務是證明數學家懷特海和羅素在其巨著《數學原理》中提出的數學定理。結果令人震驚:“邏輯理論家”不僅成功證明了書中前52個定理中的38個,甚至為其中一個定理找到了比原著更簡潔、更優雅的證明方法。這一成就極大地鼓舞了研究者,因為它清晰地表明,機器不僅能計算,還能進行過去被認為是人類專屬的、複雜的邏輯推理活動。

緊接著,這個團隊在1959年又推出了“通用問題求解器”(General Problem Solver GPS)。GPS的革命性在於,它試圖模擬人類解決問題時的通用思維方式。它將特定領域的知識(如規則)與通用的求解策略分離開來,採用一種名為“手段-目的分析”的策略,不斷設立子目標來逼近最終答案。GPS成功解決了漢諾塔、幾何證明等一系列經典的邏輯謎題,讓人們看到了製造一個能跨領域解決通用問題的“思考機器”的希望。

如果說GPS展示了機器的“思考”能力,那麼麻省理工學院的SHRDLU系統則讓機器第一次擁有了與物理世界互動的“理解”能力。在特里·威諾格拉德於1970年創造的這個虛擬“積木世界”裡,用戶可以用日常英語向系統發號施令,比如“撿起那個大的紅色積木”。SHRDLU能夠解析指令,理解上下文(比如當你問“哪個金字塔?”時,它會主動請求澄清),規劃並執行一系列動作(如抓取、移動、堆疊),甚至還能回答關於這個世界狀態的問題。SHRDLU的成功,完美地將語言理解、推理規劃和動作執行融為一體,讓人們仿佛看到了科幻電影中與人類自由對話、協同工作的智能機器人雛形。這些在封閉、規則明確的“玩具世界”裡取得的輝煌勝利,催生了巨大的樂觀情緒。

西蒙在1965年大膽預測:“二十年內,機器將能完成人能做到的一切工作。”明斯基也附和道:“在一代人的時間內……創造‘人工智能’的問題將基本得到解決。”然而,當這些天才的狂想試圖從理想化的實驗室走向紛繁複雜的現實世界時,他們很快就撞上了一堵堅硬而冰冷的牆壁。這堵牆壁由兩個根本性難題構成。首先是“組合爆炸”(Combinatorial Explosion)。

在簡單的積木世界裡,可能性是有限的。但當問題規模稍一擴大,比如從下跳棋變成下圍棋,或者從規劃幾個積木的移動變成規劃城市交通,需要計算的可能性就會呈指數級增長,瞬間就能耗尽當時乃至今天最強大的計算機的算力。早期AI在“玩具問題”上的優雅,在現實的複雜性面前變得不堪一擊。第二個難題則更為根本——“常識與情境的缺失”。

人類世界充滿了大量不言自明的常識和模糊的上下文。比如,我們知道“水是濕的”、“繩子可以拉不能推”、“如果一個人淋了雨,他可能會感冒”。這些知識如此基礎,以至於我們甚至意識不到它們的存在。但對於一個只懂邏輯和規則的AI系統來說,這個世界是完全陌生的。它無法理解這些隱含的背景知識,導致其推理能力在真實場景中顯得極其脆弱和荒謬。

SHRDLU可以理解“撿起積木”,但它無法理解“撿起一個承諾”是什麼意思。這種“符號接地”的困境,即符號無法與真實世界的意義相關聯,成為了符號主義AI難以逾越的鴻溝。過高的期望與殘酷的現實形成了巨大的落差,失望情緒開始蔓延,最終由兩個標誌性事件引爆了人工智能的第一次“寒冬”。第一個事件是1973年英國政府發布的《萊特希爾報告》(Lighthill Report)。

這份由應用數學家詹姆斯·萊特希爾爵士撰寫的報告,對當時的AI研究進行了毫不留情的批判。報告尖銳地指出,AI在自動化和語言處理等核心領域“至今沒有任何領域取得了曾被承諾的重大影響”。它直指AI研究的兩大軟肋:在解決現實世界問題時遭遇“組合爆炸”,以及完全無法處理“常識”。這份極具影響力的報告直接導致英國政府大幅削減對大學AI研究的資助,英國的AI研究幾乎陷入停滯。

第二個沉重打擊來自美國,由AI領域的領軍人物馬文·明斯基自己送出。1969年,明斯基與西摩爾·帕爾特合著了《感知機》(Perceptrons)一書。書中,他們通過嚴謹的數學證明,指出了當時與符號主義並行的另一條技術路線——連接主義(即神經網絡的前身)——的根本局限。他們證明了單層的神經網絡(即“感知機”)是一種線性模型,無法解決一些基本問題,比如最簡單的“異或”(XOR)問題。

這個結論本身是正確的,但它被外界解讀為對整個神經網絡路線的“死刑判決”。這本書的巨大影響力,導致針對連接主義研究的資金幾乎完全中斷,讓這條本可能與符號主義互補的道路提前進入了長達十餘年的沉寂。就這樣,曾經的狂熱迅速冷卻。過高的期望、難以突破的理論瓶頸,以及隨之而來的資金撤出,共同將人工智能推入了第一次漫長的寒冬。

天才們的狂想撞上了現實的牆壁,整個領域從喧囂的頂峰跌入沉寂的谷底,等待著下一次在潛行中的復甦。

潛行與復甦

在不確定中尋找出路 20世紀80年代末,人工智能的“黃金時代”迎來了刺骨的寒風。曾經被寄予厚望的專家系統市場轟然崩潰,LISP機器產業隨之衰退,政府與企業的投資熱情也急劇降溫。AI研究再次步入低谷,這便是歷史上的第二次“AI寒冬”。

然而,與第一次寒冬幾乎萬馬齊喑的局面不同,這一次,AI的發展並未完全停滯,而是像一條冰封的河流,表面沉寂,冰下卻有兩股暗流在悄然湧動。一條是努力在特定領域證明自身價值的“顯學”,另一條則是默默積蓄力量、等待春天的“潛流”。第一條路線,是符號主義AI在逆境中的求生探索。專家系統雖然因其知識庫構建成本高昂、難以處理不確定性等問題而最終衰退,但它留下的遺產是寶貴的:它證明了AI有能力在特定場景下解決實際問題,為AI的商業化應用點亮了第一盞燈。

更重要的是,在反思專家系統為何失敗的過程中,一位思想家為AI的發展指出了一個全新的方向。他就是朱德亞·珀爾(Judea Pearl)。珀爾意識到,真實世界充滿了不確定性,非黑即白的邏輯規則遠不足以描述世界的複雜性。他將概率論和因果推斷引入AI,教會機器如何用“可能性”來思考,如何在不完整的信息中做出合理的決策。

這不僅是對符號主義的重要補充,更讓AI從一個理想化的邏輯世界,向充滿未知與變化的現實世界邁出了關鍵一步。與此同時,另一條更隱秘、更具革命性的路線正在學術界的邊緣地帶“潛行”。這就是以神經網絡為代表的連接主義研究。這條路線的探索者們,是最真正的“深潛者”。他們的武器庫中,增添了一件強大的理論兵器。1986年,傑弗里·辛頓(Geoffrey Hinton)與同事重新推廣了反向傳播算法,並系統性地證明了其有效性。

這個算法巧妙地解決了多層神經網絡的訓練難題,讓機器能夠通過“反思”錯誤來逐層調整內部參數,從而學習到更複雜的模式。辛頓後來回憶,他們當時樂觀地認為這個算法“會解決一切”。然而,理論的曙光並未立即驅散現實的寒冬。進入90年代,神經網絡研究很快撞上了三堵高牆:算力不足、數據稀缺,以及來自同行的學術質疑。當時的計算機性能孱弱,根本無法支撐大規模網絡的訓練。

同時,像支持向量機(SVM)這樣的統計學習方法,在很多任務上表現得比當時的神經網絡更出色、更高效,這使得大量研究資金和人才流向了其他領域。神經網絡再次被視為不切實際的屠龍之技,研究陷入了資金困難、備受冷落的窘境。正是在這樣艱難的環境下,一些研究者選擇了堅守。揚·勒昆(Yann LeCun)就是其中最傑出的代表。

1988年,他加入了AT&T貝爾實驗室,頂著主流學術界的壓力,將全部精力投入到一種特殊的神經網絡——卷積神經網絡(CNN)的研發中。他堅信,這種模仿生物視覺皮層的網絡結構,是讓機器“看懂”世界的鑰匙。勒昆的目標非常明確:讓機器識別手寫的銀行支票。經過多年迭代,他領導團隊在1998年推出了經典的LeNet-5模型。

這個網絡被成功部署在商業系統中,到21世紀初,它每天處理的支票數量高達約2000萬張,占據了當時美國支票流通總量的10%左右。這是一個里程碑式的成功。它不僅是神經網絡技術在寒冬中取得的罕見的商業勝利,更像是一顆被埋入凍土的種子,用事實證明了這條“潛流”所蘊含的巨大能量。它告訴世界:神經網絡不是空想,它能解決真實世界的問題,並且潛力無限。

就這樣,在整個90年代到21世紀初,AI的兩條路線並行發展著。一條路線以概率和因果為工具,讓AI在商業世界中艱難地“活下來”,並學會了更成熟地與不確定性共存;另一條路線則在學術的角落裡“潛行”,在少數人的堅守下,為未來的革命悄悄磨礪著最鋒利的武器。這兩股力量,一股在明,一股在暗,共同為即將到來的大爆發埋下了伏筆。

而此時,一股來自硬件領域的“東風”也已悄然起勢——以GPU為代表的並行計算硬件,其強大的矩陣運算能力與神經網絡的計算需求天然契合。當這股硬件的東風,終於吹到算力、數據和算法這片沃土之上時,一場顛覆世界的技術革命即將拉開序幕。

從“看懂世界”到“創造世界”

2012年9月30日,一個名為ImageNet的大規模視覺識別挑戰賽(ILSVRC)迎來了歷史性的轉折點。

一個由傑弗里·辛頓教授和他的兩位學生——亞歷克斯·克里熱夫斯基(Alex Krizhevsky)與伊爾亞·蘇茨克維(Ilya Sutskever)——組成的團隊,提交了一個名為AlexNet的深度神經網絡模型。它的表現震驚了整個計算機視覺領域:其圖像識別的錯誤率僅為15.3%,比第二名整整低了10.8個百分點。

這不僅僅是一次比賽的勝利,更是一聲發令槍。AlexNet用無可辯駁的成績證明,借助深層網絡、海量數據和GPU的強大算力,機器真的可以學會“看懂”這個世界。從此,深度學習的革命被徹底引爆,AI的發展進入了一個全新的紀元。如果說AlexNet讓AI擁有了一雙前所未有的“眼睛”,那麼僅僅兩年後,一位年輕的研究者就賦予了AI天馬行空的“想象力”。

2014年,當時還是博士生的伊恩·古德費洛(Ian Goodfellow)在一個酒吧裡與朋友討論學術問題時,靈光一閃,提出了一個天才般的構想——生成對抗網絡(Generative Adversarial Networks GAN)。GAN的原理就像一場“矛”與“盾”的永恆競賽。它內部包含兩個相互博弈的神經網絡:一個“生成器”(Generator)和一個“判別器”(Discriminator)。

生成器的任務是創造出以假亂真的數據(比如圖片),努力騙過判別器;而判別器的任務則是火眼金睛,盡力分辨出哪些是真實數據,哪些是生成器伪造的贗品。在這場持續的對抗和進化中,生成器為了贏得比賽,其“造假”技藝會變得越來越高超,最終能夠創造出人類都難以分辨的全新內容。從高清人臉到藝術畫作,再到醫學影像,GAN讓AI第一次真正地從一個“識別者”和“分析者”,轉變為一個“創造者”。

AI不再僅僅是看懂世界,它開始有能力創造一個全新的、數字化的“世界”。正當AI在視覺創造領域高歌猛進時,另一場更為深刻的結構性變革正在悄然醞釀。2017年,來自Google的研究團隊發表了一篇題為《Attention Is All You Need》(注意力就是你所需要的一切)的劃時代論文。這篇論文拋棄了過去處理序列數據(如語言)時普遍依賴的循環神經網絡(RNN)結構,提出了一個全新的架構——Transformer。

Transformer的核心是一種名為“自注意力機制”(Self-Attention)的設計,它不僅能更好地捕捉文本中的長距離依賴關係,更關鍵的是,它實現了高效的並行計算,極大地提升了模型的訓練速度和擴展潛力。Transformer架構的誕生,如同為AI建造了一條通往摩天大樓的堅實地基。它為後續一系列大型語言模型(LLM)的爆發鋪平了道路。

從2018年OpenAI發布的第一個GPT模型開始,這條技術路線迅速迭代。模型參數量和數據規模呈指數級增長,AI的能力也隨之發生質變,從簡單的文本生成,進化到能夠進行流暢對話、編寫代碼、甚至展現出“少樣本學習”等驚人能力的GPT-3。AI的創造力,從圖像延伸到了人類最核心的智能領域——語言。

力量的擴散與反思

從工程化到倫理約束技術的突破若想改變世界,離不开從實驗室走向產業的“最後一公里”。

在這個過程中,吳恩達(Andrew Ng)等人扮演了關鍵的“布道者”角色。他們致力於推動AI的工程化和大眾化教育,將複雜的深度學習技術轉化為可規模化應用的工具和課程,讓成千上萬的工程師和學習者能夠掌握並應用AI,極大地加速了AI力量向社會各領域的擴散。然而,當一種力量變得足夠強大時,它帶來的就不僅是機遇,還有風險。

2019年,OpenAI在發布其新模型GPT-2時,採取了前所未有的謹慎態度。由於擔心其強大的文本生成能力被用於製造虛假新聞、垃圾郵件或網絡霸凌等惡意用途,他們最初選擇只發布一個小型版本,並扣留了完整的模型。這一舉動引發了科技界關於“開放研究”與“負責任披露”的激烈辯論。最終,在觀察到“沒有強烈證據表明被濫用”後,OpenAI才於同年11月公開發布了完整的1.5B參數模型。GPT-2的發布爭議只是冰山一角。隨著生成式AI能力的普及,Deepfake(深度偽造)技術開始成為一個嚴峻的社會問題。利用AI換臉或合成語音,可以輕易製造出政治人物的虛假視頻或音頻,用以傳播虛假信息、破壞公眾信任,甚至干預選舉進程。此外,研究人員很快發現,這些在海量互聯網數據上訓練出來的模型,也像鏡子一樣忠實地反映了人類社會存在的偏見。

例如,分析顯示GPT-2在描述職業時,會不自覺地將女性與更刻板的職業聯繫起來。面對這些挑戰,一種新的、批判性的聲音開始在AI領域變得響亮。以蒂姆尼特·格布魯(Timnit Gebru)為代表的AI倫理研究者們開始大聲疾呼:在追求更強模型的同時,我們必須嚴肅審視技術的社會影響、算法偏見和潛在風險。他們推動的研究方向,從如何檢測和減輕模型的偏見,到如何建立負責任的AI治理框架,都標誌著AI的發展進入了一個需要被社會嚴肅對待和加以約束的新階段。

從2012年AlexNet讓AI“看懂”世界,到GAN和Transformer讓AI“創造”世界,再到如今我們必須思考如何“約束”這個日益強大的AI。這短短十餘年的飛躍,不僅是技術能力的跨越,更是AI與人類社會關係的一次深刻重塑。AI不再僅僅是工程師書齋裡的工具,它已經成為一股塑造我們現實、影響我們未來的強大力量。

寫在最後:下個“圖靈”會問出什麼問題?

回望人工智能七十餘年的征程,我們看到的並非某個天才靈光一閃的“發明”,而是一場跨越數代人的思想接力賽。這場漫長的賽跑,由艾倫·圖靈在起點處發出了第一聲槍響,他沒有創造AI,卻用一個簡單而深刻的問題——“機器能思考嗎?”——定義了整個賽道的終點。接力棒首先交到了約翰·麥卡錫手中,他在1956年的達特茅斯會議上,為這個新興領域正式“命名”为人工智能,賦予了先行者們共同的身份與旗幟。

隨後,以馬文·明斯基為代表的符號主義者們,滿懷信心地衝上了第一程,他們相信智能可以用邏輯和規則來搭建,並取得了輝煌的早期成就。然而,現實世界的複雜性很快讓他們撞上了牆壁,AI隨之迎來了第一次寒冬。在漫長的沉寂中,傑弗里·辛頓、揚·勒昆和約書亞·本吉奧這“三巨頭”卻在無人關注的角落裡,默默守護著連接主義的火種,堅信模仿大腦的神經網絡才是正確的路徑。

他們的堅守,最終等來了算力與數據的東風。當伊恩·古德費洛的生成對抗網絡(GAN)橫空出世,AI不再僅僅是識別者,更成為了創造者,開啟了波瀾壯闊的生成式時代。而就在技術高歌猛進之際,蒂姆尼特·格布魯等人的警示,則代表了賽程進入了一個全新的階段——我們必須開始審視這股強大力量的倫理與社會責任。從歷史的脈絡中,我們能更清晰地看到未來的輪廓。

例如,早期符號主義與連接主義的路線之爭,並未隨著深度學習的勝利而終結。如今,它們正以“神經符號AI”的形式走向融合,讓大模型在強大的感知能力之外,擁有更強的邏輯推理能力與可解釋性。同樣,AI倫理的凸顯也並非偶然,它是技術力量達到臨界點後,社會發展的必然要求。當AI開始影響就業、塑造公共輿論甚至參與歷史敘事時,討論其公平、透明與社會責任,就成了我們必須完成的課題。

那麼,了解這段由無數思想碰撞、路線鬥爭和個人堅持構成的歷史,對我們普通人究竟意味著什麼?答案是:它幫助我們建立一個認知框架,祛除對AI的神秘感與焦慮感。當我們明白AI並非憑空出現的“黑科技”,而是源於圖靈的一個問題、明斯基的一次碰壁、辛頓數十年的堅持時,我們就能更從容地看待它的能力與局限,更理性地思考它在自己工作與生活中的位置,而不是被動地被浪潮裹挾。

歷史的接力棒此刻正握在我們這一代人手中。圖靈的問題定義了AI的“能

Copyright © 2026 Doclingo. All Rights Reserved.
產品
文檔翻譯
更多工具
API
企業版
資源
方案
App
關於
說明中心
服務條款
隱私政策
版本更新
部落格
聯繫信息
郵箱:support@doclingo.ai
繁體中文
Copyright © 2026 Doclingo. All Rights Reserved.