简体中文
企业版

图灵发明计算机的那刻,是AI的奇点吗

doclingo2025年12月30日

从一个思想实验,到一个新世界

你有没有想过,我们每天都在使用的AI,比如手机里的语音助手、推荐算法,甚至是最近爆火的ChatGPT,它们到底是从哪里来的?很多人会觉得,AI就像是某个天才在实验室里灵光一闪,“发明”出来的。但真相远比这更精彩。AI不是一个孤立的发明,它更像一场跨越了近一个世纪的“思想接力赛”。它的起点,甚至不是一行代码,而是一个深刻的哲学问题:“机器能思考吗?” 这个问题,就像一颗投入平静湖面的石子,激起了一代代顶尖头脑的涟漪。从那时起,哲学家、数学家、工程师、心理学家……无数先驱投身其中,有人定义了它的名字,有人开辟了它的道路,有人在寒冬中坚守,也有人在今天引爆了它的能量。这篇文章,我们将换一个视角,通过10位最具代表性的人物,将AI从0到1的关键转折点串联起来。你会看到:

  • 一个伟大的梦想是如何被“命名”和“定义”的。
  • “符号”与“连接”两条技术路线如何交锋与融合。
  • 三位“深度学习教父”如何在寒冬中坚守,最终迎来了整个领域的复兴。

让“智能”从哲学,走进科学

任何伟大的科技革命,其源头往往不是一项具体的发明,而是一个石破天惊的问题。人工智能(AI)的起点,尤其如此。它的故事并非始于一台轰鸣的机器或一行神奇的代码,而是源自一位天才数学家在纸上提出的一个思想实验。这个人和他的问题,共同将“智能”这个盘桓于哲学殿堂数千年的概念,第一次拉入了现代科学的竞技场。他就是艾伦·图灵(Alan Turing)。

1950年,计算机科学的黎明刚刚到来,当时的机器笨重、缓慢,只能执行最基础的运算。然而,图灵的思绪早已穿越了时代的局限。他在其划时代的论文《计算机器与智能》中,抛出了一个看似简单却又无比深刻的问题:“机器能思考吗?” 图灵敏锐地意识到,直接讨论“思考”的定义会陷入无休止的哲学泥潭。于是,他巧妙地将其转化成一个可以被验证的游戏——“模仿游戏”(The Imitation Game),也就是后来举世闻名的“图灵测试”。

游戏规则是:一位提问者,通过文字与两个匿名的对象交流,其中一个是人,另一个是机器。如果在足够长的时间里,提问者无法分辨出哪个是机器,那么我们就可以说,这台机器通过了测试,表现出了与人无异的智能行为。这便是 AI 的起点如此独特的原因:它并非一个旨在解决特定任务的“发明”,而是一个旨在回答根本性问题的“挑战”。

图灵测试的伟大之处,在于它为“智能”这个模糊的概念提供了一个可操作、可评判的标准。它不再纠结于机器内部是否有灵魂或意识,而是聚焦于其外在行为表现。这就像是说,我们不必打开一个黑箱去探究其内部构造,只需通过观察它的输出,就能判断其能力。这种务实的思想,将一个纯粹的哲学思辨,变成了一个可以被工程师和科学家们着手挑战的工程目标。

图灵播下了一颗思想的种子,但要让它生根发芽,还需要一片肥沃的土壤和一位热情的园丁。这个人很快就出现了,他叫约翰·麦卡锡(John McCarthy)。时间来到 1955 年,图灵已经离世,但他提出的问题却激励着大西洋彼岸的一群年轻学者。当时,关于“思考机器”的研究分散在各个领域,名字也五花八门,比如“控制论”(Cybernetics)、“自动机理论”(Automata Theory)等等。

年轻的达特茅斯学院数学助理教授麦卡锡觉得,这些零散的火花需要被聚集成一团熊熊燃烧的火焰。他计划在 1956 年夏天,组织一场长达数周的研讨会,邀请全美最顶尖的头脑,共同探讨用机器模拟人类智能的可能性。在与马文·明斯基(Marvin Minsky)等人共同起草的会议提案中,他们洋溢着天才般的乐观,宣称“智能的每一个方面原则上都可以被精确地描述,从而让机器能够模拟它”。

为了让这个新领域拥有一个清晰的身份,麦卡锡需要一个响亮的名字。他刻意避开了当时颇具影响力的“控制论”,因为他不希望这个新领域被看作是控制论创始人诺伯特·维纳(Norbert Wiener)学术版图的一部分。麦卡锡后来回忆说,他创造这个新词,就是为了划清界限,确立独立的学术身份。这个被他精心挑选的名字,就是——“人工智能”(Artificial Intelligence)。

1956 年的达特茅斯会议,因此成为了 AI 历史的“创世纪”。它不仅正式命名了这个学科,更重要的是,它将一群拥有共同梦想的思想家聚集在一起,确立了最初的研究纲领。会议上,艾伦·纽维尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)展示了史上第一个“会思考”的程序——“逻辑理论家”(Logic Theorist),它能像人一样用符号逻辑证明数学定理,这极大地鼓舞了与会者。

“人工智能”这个名字的诞生,意味着一个新大陆被正式发现。它给了所有对“机器智能”抱有热情的探索者一个共同的身份和一面统一的旗帜。从此,他们不再是孤军奋战的数学家、心理学家或工程师,而是“人工智能科学家”。麦卡锡不仅命名了这门学科,还在 1958 年创造了 Lisp 语言,这种强大的符号处理工具成为了早期 AI 研究者的“官方语言”,让他们能够将抽象的逻辑和思想,真正转化为可以在机器上运行的程序。

从图灵提出一个哲学性的“问题”,到麦卡锡赋予一个学科性的“名字”,人工智能完成了从 0 到 1 的关键一跃。图灵定义了终极目标,而麦卡锡则吹响了集结号,开启了人类历史上最宏大、最激动人心的科学征程之一。这场征程,始于对“我们是谁”的哲学追问,并最终走向了用代码和算法“创造新智能”的科学实践。

两条道路的初次交锋:天才的乐观与现实的冷水

早期AI科学家为什么那么乐观?

在人工智能的黎明时期,整个领域都弥漫着一种近乎狂热的乐观情绪。这股信心的核心源自一个简洁而强大的信念——符号主义。以麻省理工学院的马文·明斯基(Marvin Minsky)为旗手,第一代AI科学家坚信,人类的智能,乃至一切智慧活动,都可以被拆解为一系列逻辑符号和形式规则。在他们看来,大脑不过是一台“肉做的机器”,只要我们能找到正确的规则,就能在计算机上重现思考的过程。

这种信念并非空穴来风,而是建立在一系列激动人心的早期成功之上。1956年,一个名为“逻辑理论家”(Logic Theorist)的程序横空出世,它被认为是史上第一个真正意义上的人工智能程序。这个程序不仅成功证明了著名数学著作《数学原理》中的38个定理,甚至为其中一些找到了比原文更优雅的证明方法。它的创造者之一赫伯特·西蒙(Herbert A. Simon)激动地宣称:“我们发明了一个能够进行非数字思考的计算机程序,从而解决了古老的心身问题。”。这一成就向世界证明,机器确实可以完成过去被认为是人类专属的、带有创造性的智力任务。另一个著名的例子是SHRDLU系统,它能在一个虚拟的积木世界里,通过自然语言指令理解并执行诸如“把那个红色的金字塔放到蓝色方块上”之类的复杂任务。

这些在“玩具世界”里的成功,虽然规模有限,却像一盏明灯,照亮了通往通用智能的道路。正是这些看得见摸得着的成果,极大地鼓舞了西蒙和明斯基等人。他们做出了在今天看来极为大胆的预测,例如西蒙曾预言,不出十年,机器就能击败人类国际象棋世界冠军,并发现全新的重要数学定理。在那个“黄金时代”,人们普遍相信,只要沿着符号主义的道路走下去,实现与人类比肩的机器智能只是时间问题。

第一次AI寒冬是怎么来的?

然而,天才们的乐观很快就撞上了一堵名为“现实”的冰冷墙壁。当AI研究者们试图将那些在“玩具世界”里运行良好的程序,应用到真实、复杂的世界中时,符号主义的根本性难题暴露无遗。首先,符号主义难以处理现实世界中无处不在的“常识”和“不确定性”。人类的日常决策充满了模糊、直觉和默认的背景知识,而这些都极难被编码成精确的逻辑规则。

比如,我们都知道“水是湿的”、“鸟会飞”,但要把这些无穷无尽的常识一一手动输入给机器,几乎是一项不可能完成的任务。其次,AI系统在扩展时面临着一个致命的障碍——“组合爆炸”(combinatorial explosion)。这意味着当问题的变量稍微增加一点,系统需要计算的可能性就会呈指数级暴增,很快就会超出任何计算机的处理能力。

就像SHRDLU系统,一旦它的“积木世界”变得稍微复杂一些,其性能就会急剧下降,变得不切实际。这些根本性的局限,使得AI的发展远远落后于当初夸下的海口。失望情绪开始蔓延,最终在1973年由一份名为“莱特希尔报告”(Lighthill Report)的文件引爆。这份由英国政府委托撰写的报告尖锐地批评道:“至今尚无任何领域的成果达到当初所承诺的重大影响”。

报告直指AI研究在解决现实问题上的失败,特别是对“组合爆炸”问题束手无策,并因此得出结论,认为很多AI基础研究不值得继续资助。这份报告的发布,直接导致英国政府大幅削减对AI研究的经费,许多大学的AI实验室被迫关闭。这股寒流也波及到了大洋彼岸的美国,资助机构开始变得谨慎,更倾向于短期、有明确应用前景的项目。

就这样,由于承诺与现实的巨大鸿沟,人工智能迎来了它的第一次“寒冬”。连明斯基后来也承认,他们“最大的错误……在于没有意识到我们试图解决的问题有多么困难”。

为什么说让AI学会“接受不确定性”是一次重大进步?

在符号主义的道路陷入僵局之时,另一条截然不同的思想路径为AI带来了新的曙光。这条新路的开辟者,是图灵奖得主朱德亚·珀尔(Judea Pearl)。他引领了一场“概率革命”,其核心思想是:与其强迫AI用非黑即白的逻辑去理解世界,不如教会它如何接受和处理“不确定性”。珀尔的革命性武器是他在1980年代后期提出的“贝叶斯网络”(Bayesian networks)。

这是一种巧妙的图模型,它可以用直观的图形结构来表示不同变量之间的概率依赖关系。更重要的是,它提供了一套严谨的数学方法,让AI能够根据新出现的证据,动态地更新自己对事物发生可能性的“信念”。这在医疗诊断等领域展现了巨大的威力。传统的专家系统试图用僵化的“如果…那么…”规则来进行诊断,例如“如果病人发烧,那么他可能得了流感”。

但现实远比这复杂:发烧也可能是其他病症的症状,而且每个症状与疾病之间的关联强度也不同。这种基于绝对规则的系统在面对不完整或矛盾的信息时,往往会变得非常脆弱。相比之下,基于贝叶斯网络的方法则完全不同。它可以构建一个包含多种疾病和多种症状的概率关系网络。当医生输入“病人发烧”这个证据时,系统不会得出一个绝对的结论,而是会根据贝叶斯定理,自动更新所有相关疾病(如流感、肺炎等)的可能性概率。

如果再输入“病人咳嗽”的新证据,系统会再次进行计算,进一步调整概率分布,从而给出一个更接近现实的、基于概率的诊断建议。这种从追求“确定性”到拥抱“不确定性”的转变,是一次重大的思想进步。它让AI第一次拥有了在信息不完整、充满模糊性的真实世界里进行合理推理和决策的能力。珀尔的工作不仅为AI走出现实困境提供了强大的新工具,被广泛应用于医疗、语音识别、故障诊断等多个领域,更重要的是,它为人工智能的发展开辟了一条全新的、通往更强大智能的道路。

在寒冬中坚守:神经网络的复兴与“三巨头”

当符号主义的乐观浪潮退去,人工智能研究进入了漫长而寒冷的“冬天”时,大多数研究者和资金都转向了更实用的专家系统等领域。然而,在学术界的边缘地带,有一小群人始终坚信,那条曾被马文·明斯基批判而几乎被遗弃的道路——连接主义与神经网络——才是通往真正智能的正确方向。他们是寒冬中的坚守者,是少数派中的少数派。

正是这份近乎固执的信念,最终点燃了人工智能的第二次革命之火。这群人的领袖,便是后来被誉为“深度学习三巨头”的杰弗里·辛顿、扬·勒昆和约书亚·本吉奥。

到底什么是“深度学习”?

要理解这三位科学家的贡献,我们首先需要回答一个根本问题:到底什么是“深度学习”?它和早期的神经网络有什么本质不同?早期的神经网络,如感知机,结构非常简单,通常只有一两层。这就像一个初学画画的孩子,只能识别一些非常基础的线条和色块。如果你想让他识别一只猫,你必须先手动告诉他猫有哪些特征——“有尖耳朵”、“有胡须”、“有圆脸”。

这个过程被称为“特征工程”,费时费力,且效果不佳,因为现实世界远比这复杂。而深度学习,顾名思义,其核心在于“深度”——它使用的是包含许多层(从几层到数百层)的神经网络。这种多层结构赋予了它一种强大的能力:自动学习特征。我们可以用一个更生动的比喻来理解:这不再是教孩子画画,而是给了他一套完整的视觉皮层系统。

当看到一张猫的图片时,这个“深度”网络的第一层可能会自动学会识别最基础的边缘和角落;第二层则基于第一层的结果,学会组合出眼睛、耳朵等更复杂的形状;再往上,更深的层次会学会识别出“猫脸”乃至整只“猫”的概念。整个过程是端到端的,从原始的像素点到最终的“猫”的结论,机器全程自主学习,无需人类再去繁琐地定义什么是“尖耳朵”或“胡须”。

这种从具体到抽象、层层递进的学习方式,正是深度学习与早期神经网络最本质的区别,也是其力量的根源。

“三巨头”:在寒冬中点燃火种的少数派

正是对这种“深度”力量的共同信仰,将辛顿、勒昆和本吉奥紧密地联系在一起。在神经网络备受冷落的几十年里,他们顶着学术界的质疑,像三位孤独的火炬手,在不同的方向上各自为战,却又遥相呼应,最终共同解决了让深度学习从理论走向现实的核心难题。- 杰弗里·辛顿(Geoffrey Hinton):让深层网络“可训练”的奠基人 辛顿被称为“深度学习教父”,他最大的贡献是解决了“如何有效训练一个深层网络”这个根本性问题。

1986年,他与合作者共同推广了反向传播算法(Backpropagation)。这个算法就像一个严格的老师,当网络做出错误判断时,它能将错误信号从最后一层逐层“反向传播”回去,告诉每一层的神经元应该如何微调自己的参数,以便下次做得更好。这一突破使得训练多层神经网络成为可能,为整个深度学习领域奠定了基石。

  • 扬·勒昆(Yann LeCun):让AI“看懂”世界的开拓者 勒昆则将目光聚焦于如何让机器“看见”世界。他意识到,处理图像不能像处理普通数据那样一视同仁。受到生物视觉皮层的启发,他在1980年代末开发出了卷积神经网络(Convolutional Neural Networks CNN)。

CNN通过“卷积核”模仿了眼睛捕捉局部信息的方式,并通过“权重共享”大大减少了模型的参数量,使其在处理图像时既高效又精准。他在1998年设计的LeNet-5网络,成功应用于银行的支票手写数字识别系统,成为CNN首次商业应用的典范,也为后来所有计算机视觉的突破铺平了道路。- 约书亚·本吉奥(Yoshua Bengio):让AI理解“语言”的理论家 当勒昆教会AI如何“看”时,本吉奥则在思考如何让AI“读”和“理解”。

他致力于解决自然语言处理(NLP)中的“维度灾难”问题。他提出的神经概率语言模型,开创性地引入了词向量(Word Embeddings)的概念。这种技术将每个词语映射到一个高维度的连续向量空间中,使得语义相近的词语在空间中的位置也相近。例如,“国王”和“女王”的向量会很接近。这让机器第一次能够捕捉到词语之间的语义关系,为后来的机器翻译、情感分析等所有序列模型的发展奠定了坚实的基础。

这三位科学家,一位解决了“怎么学”(反向传播),一位解决了“怎么看”(CNN),一位解决了“怎么理解”(词向量),他们的工作相互补充,共同构建了现代深度学习的核心技术版图。

2012年ImageNet:引爆革命的“宇宙大爆炸”

尽管“三巨头”早已备齐了理论的火药,但引爆这场革命,还需要一个决定性的时刻。这个时刻在2012年到来了。ImageNet大规模视觉识别挑战赛(ILSVRC)是当时计算机视觉领域的“奥林匹克”,它要求参赛算法识别并分类超过一百万张图片,涵盖1000个类别。在2012年之前,比赛的冠军一直由使用传统机器学习方法的团队占据,成绩的提升也总是步履维艰。

然而,在这一年,一切都改变了。辛顿和他的两位学生——亚历克斯·克里热夫斯基(Alex Krizhevsky)和伊尔亚·苏茨克维(Ilya Sutskever)——带着一个名为AlexNet的深度卷积神经网络参赛。AlexNet是一个深达8层的网络,它不仅采用了勒昆的CNN架构,还创造性地使用了ReLU激活函数和Dropout等新技术来提升性能和防止过拟合,并借助两块GPU的强大算力进行并行训练。

结果是颠覆性的。AlexNet以15.3%的Top-5错误率夺得冠军,而第二名的成绩是26.1%。这超过10个百分点的巨大差距,在整个AI界引起了剧烈地震。它不再是微小的进步,而是一次维度的碾压。这场胜利无可辩驳地证明了:在足够的数据和算力支持下,深度学习的性能远超所有传统方法。2012年的ImageNet竞赛因此被公认为AI历史上的分水岭事件,是深度学习革命的“引爆点”。

正如辛顿所说,此后,“几乎所有的计算机视觉研究都转向了神经网络”。这场胜利像一声发令枪,宣告了AI寒冬的彻底结束和一个由深度学习主宰的新纪元的开启。那些在黑暗中坚守了几十年的少数派,终于迎来了属于他们的曙光。

从实验室到全世界

AI 的创造、普及与反思 如果说深度学习三巨头为人工智能找到了强大的引擎,那么 2010 年代之后的故事,则是关于如何为这台引擎接入方向盘、铺设公路,并最终思考它将把人类带向何方。

这个过程同样由几位关键人物推动,他们分别回答了三个核心问题:AI 如何学会“创造”?AI 如何走出象牙塔?以及,当 AI 拥有了巨大的力量,我们又该如何驾驭它?“生成式 AI”的质变:伊恩·古德费洛与一场酒吧辩论的灵感 2014 年,还在蒙特利尔读博士的伊恩·古德费洛 (Ian Goodfellow) 和朋友们在一家酒吧聚会。

一场关于如何让计算机生成逼真照片的学术辩论点燃了他的灵感。他当晚就构思出了一个天才般的框架——生成对抗网络 (Generative Adversarial Networks GAN)。这个想法的精髓在于“对抗”。GAN 系统由两个相互博弈的神经网络组成:一个“生成器”(Generator) 和一个“判别器”(Discriminator)。

生成器的任务是像一个高明的“伪画师”,不断学习真实数据的特征,然后凭空创造出足以以假乱真的“赝品”(比如一张假的人脸照片)。而判别器则扮演着“鉴定师”的角色,它的唯一目标就是精准地分辨出哪些是真实数据,哪些是生成器伪造的赝品。训练过程就像一场永不休止的零和游戏:生成器努力欺骗判别器,判别器则拼命识破骗局。

在这个对抗升级的过程中,二者共同进化。最终,当判别器再也无法有效分清真伪时,就意味着生成器已经掌握了创造高度逼真数据的能力。这个想法是如此新颖和强大,以至于深度学习三巨头之一的扬·勒昆 (Yann LeCun) 盛赞其为“过去 20 年来机器学习领域最有趣的想法”。GAN 的诞生,标志着 AI 发展史上的一次质变。

在此之前,AI 更像一个勤奋的“识别者”,擅长分类、识别和预测。而 GAN 则赋予了 AI “创造者”的身份,让它第一次拥有了从无到有生成全新、复杂内容的能力,直接开启了今天我们所熟知的 AIGC(生成式人工智能)时代的大门。

技术普及的关键:吴恩达与“新电力”的布道

一项革命性的技术,如果仅仅停留在实验室里,其价值终究有限。将 AI 从少数精英的工具转变为全球数百万人可以学习和应用的技能,吴恩达 (Andrew Ng) 扮演了至关重要的“布道者”角色。作为斯坦福大学的教授和 Coursera 的联合创始人,吴恩达在 2011 年推出的在线课程《机器学习》成为了 MOOC(大规模开放在线课程)浪潮的引爆点,吸引了全球数百万人注册学习。

随后,他与 DeepLearning.AI 合作推出的《深度学习专项课程》和面向非技术人员的《AI for Everyone》等课程,进一步降低了 AI 知识的获取门槛。到 2023 年,已有超过 800 万人参加过他的课程。吴恩达不仅普及知识,更提出了一个影响深远的理念:“AI 是新的电力” (AI is the new electricity)。

他认为,就像一百年前电力革命性地改造了农业、交通、制造业等几乎所有行业一样,AI 如今也正作为一种基础性技术,以前所未有的力量重塑着各行各业。这个比喻精准地指出了 AI 的未来——它不是一个孤立的产品,而是一种将渗透到社会方方面面的基础设施。正是这种对 AI 工程化和产业化应用的远见,极大地推动了 AI 从学术研究走向工业实践的进程。

AI 伦理的警钟

蒂姆尼特·格布鲁与不可回避的反思 当 AI 的力量呈指数级增长,并开始深度介入社会决策时,一个严肃的问题摆在了所有人面前:我们该如何确保这项技术是公平、公正且负责任的?AI 伦理科学家蒂姆尼特·格布鲁 (Timnit Gebru) 成为了这一领域最具代表性的“吹哨人”。2018 年,格布鲁与合作者发表了名为“Gender Shades”的里程碑式研究。

她们发现,当时主流的商业面部识别系统存在严重的偏见:在识别肤色较浅的男性时,准确率接近完美;但在识别肤色较深的女性时,错误率竟飙升至近 35%。这项研究如同一记警钟,有力地揭示了训练数据中的偏见会如何被 AI 系统放大,从而对边缘化群体造成系统性的不公。这项研究直接促使 IBM 和微软等公司改进其算法,以减少偏见。

几年后,时任谷歌伦理 AI 团队联合负责人的格布鲁,再次因一篇名为《关于随机鹦鹉的危险:语言模型能变得太大吗?》的论文而站上风口浪尖。这篇论文尖锐地指出了大型语言模型存在的偏见、环境成本以及它们只会模仿人类语言模式而无法真正理解其含义的风险——就像“随机的鹦鹉”一样。这篇论文引发了她与谷歌高层的冲突,并最终导致她被迫离职。

格布鲁的经历标志着 AI 发展进入了一个全新的阶段。当 AI 不再只是实验室里的玩具,而是能够影响招聘、信贷审批甚至司法判决的强大工具时,对其偏见、风险和社会影响的审视就变得至关重要。她的工作提醒着整个行业:技术的进步如果脱离了人文关怀和社会责任,其带来的可能不是福祉,而是新的枷锁。从古德费洛的创造,到吴恩达的普及,再到格布鲁的反思,这三位人物的故事共同勾勒出 AI 在新时代的完整图景:一项拥有无限创造力的技术,正以前所未有的速度融入世界,同时也迫使我们开始严肃地思考如何与它共存。

从一个问题开始

“机器能思考吗?” 每一场伟大的变革,往往不始于一个惊天动地的发明,而是源自一个石破天惊的问题。人工智能(AI)的创世纪,就是如此。它的起点,不是一台具体的机器,也不是一行神奇的代码,而是一个由英国数学家艾伦·图灵(Alan Turing)在20世纪中叶抛向世界的哲学追问:“机器能思考吗?” 在那个计算机还如同房间般巨大的年代,这个问题听起来像是科幻小说。但图灵的非凡之处在于,他没有让这个问题停留在哲学的思辨中。他设计了一个巧妙的思想实验——“模仿游戏”,也就是后来广为人知的“图灵测试”。这个测试巧妙地绕开了“思考”这个模糊概念的定义,而是提出:如果一台机器能与人类进行对话,且其表现让人无法分辨出它是机器还是人,那么我们是否就可以认为这台机器具备了智能?

这个问题的提出,如同一道划破长夜的闪电。它第一次将“创造智能”这个古老的梦想,从神话和哲学的领域,拉入到了一个可以被验证、可以被挑战的工程学范畴。图灵没有给我们答案,但他给了所有后继者一个清晰的目标和一张可以开始绘制的蓝图。他告诉世界:智能,或许是可以被精确描述和模拟的。这个思想的火种,被播撒在了一片极其肥沃的土壤上。

二战后的世界,尤其是20世纪50年代,弥漫着一种前所未有的科学乐观主义和“can-do”(我能行)的精神 。人类刚刚驾驭了原子能,发明了电子计算机,破译了生命的密码。科学的胜利让人们相信,凭借人类的智慧和新发明的强大工具,没有什么宏大的挑战是不可攻克的。如果机器可以计算复杂的弹道,可以破解敌人的密码,那为什么不能更进一步,去模仿甚至拥有人类的学习、推理和创造能力呢?

正是在这样的时代背景下,一群当时最顶尖、最富有远见的头脑开始被同一个梦想所吸引。然而,他们的思想火花分散在数学、心理学、信息论和新兴的计算机科学等各个领域。他们需要一个契机,一个将这些分散的溪流汇聚成一条大河的时刻。这个时刻,在1956年的夏天到来了。一位名叫约翰·麦卡锡(John McCarthy)的年轻数学家,与马文·明斯基(Marvin Minsky)、纳撒尼尔·罗切斯特(Nathaniel Rochester)和信息论之父克劳德·香农(Claude Shannon)等人一起,向洛克菲勒基金会提交了一份大胆的提案。

他们计划在美国新罕布什尔州的达特茅斯学院,举办一场为期数周的夏季研讨会。提案的开篇就充满了那个时代的乐观与雄心:“我们建议在1956年夏天……进行一项关于人工智能的研究。研究将基于一个猜想,即学习的每一个方面或智能的任何其他特征,原则上都可以被精确地描述,从而让机器能够模拟它。” 为了让这个新领域拥有一个清晰的身份,麦卡锡煞费苦心地创造了一个新词:“人工智能”(Artificial Intelligence)。

这个选择并非偶然。当时,一个名为“控制论”(Cybernetics)的领域已经颇具影响力,它主要研究生物和机器中的反馈与控制系统。但麦卡锡希望开辟一个全新的、更专注于用计算机实现逻辑、推理等高级认知功能的方向,而不是被控制论的框架所束缚 。这个名字的诞生,就像一次响亮的“独立宣言”,为所有怀揣同样梦想的探索者提供了一面共同的旗帜。

1956年夏天,这场后来被称为“达特茅斯会议”的聚会如期举行。它不像一场严谨的学术会议,更像一次持续了六到八周的漫长头脑风暴。艾伦·纽厄尔(Allen Newell)、赫伯特·西蒙(Herbert Simon)、雷·索洛蒙诺夫(Ray Solomonoff)等日后AI领域的巨擘悉数到场。他们背景各异,带来了逻辑学、心理学、数学和工程学的不同视角。

会议的高潮之一,是纽厄尔和西蒙展示的“逻辑理论家”(Logic Theorist)程序。这个程序成功地证明了著名数学著作《数学原理》中的多个定理。这不仅仅是一次技术演示,它像一声宣告,向世界证明了机器确实可以执行过去被认为是人类专属的、充满智慧的符号推理任务。它让“机器能思考吗?”这个问题,第一次有了肯定的、看得见的初步答案。

这就是AI的“创世纪”。它并非诞生于某间实验室的一次性成功,而是发生在一场伟大的思想交汇之中。达特茅斯会议之所以如此重要,原因有三: 第一,它为这个领域命名。从此,“人工智能”有了一个正式的身份,吸引着后来的资金、人才和关注。第二,它确立了核心议程。会议探讨了符号处理、神经网络、自然语言处理等方向,这些议题在接下来的几十年里,成为了AI研究的主航道。第三,它建立了最初的社区。这次会议将一群孤独的思考者连接成一个学术共同体,他们回到各自的机构后,纷纷建立了最早的AI实验室(如麻省理工学院、卡内基梅隆大学和斯坦福大学),播下了日后参天大树的种子。达特茅斯会议,被后人誉为“AI的制宪会议”。它将图灵提出的那个伟大问题,正式转化为一个波澜壮阔的、吸引了数代顶尖人才投身其中的科学征程。

虽然与会者们对未来的预测过于乐观,未能预见到前路的坎坷与“寒冬”,但他们点燃的火焰,从未熄灭。从一个问题开始,到一个学科的诞生。AI的故事,就此拉开序幕。

天才的狂想与现实的墙壁

在达特茅斯会议为人工智能正式命名后,一个充满无限乐观与大胆预测的“黄金时代”(约1956-1974年)拉开了序幕。

这批最早的AI先驱者,以赫伯特·西蒙和马文·明斯基等人为代表,坚信他们已经掌握了通往机器智能的钥匙。他们的自信并非空穴来风,而是一系列在“微缩世界”中取得的惊人成功所点燃的。这些早期成果中最具代表性的,当属“逻辑理论家”(Logic Theorist)程序。由艾伦·纽厄尔、赫伯特·西蒙和J.C.肖在1956年开发的这个程序,被广泛认为是世界上第一个人工智能程序。

它的任务是证明数学家怀特海和罗素在其巨著《数学原理》中提出的数学定理。结果令人震惊:“逻辑理论家”不仅成功证明了书中前52个定理中的38个,甚至为其中一个定理找到了比原著更简洁、更优雅的证明方法。这一成就极大地鼓舞了研究者,因为它清晰地表明,机器不仅能计算,还能进行过去被认为是人类专属的、复杂的逻辑推理活动。

紧接着,这个团队在1959年又推出了“通用问题求解器”(General Problem Solver GPS)。GPS的革命性在于,它试图模拟人类解决问题时的通用思维方式。它将特定领域的知识(如规则)与通用的求解策略分离开来,采用一种名为“手段-目的分析”的策略,不断设立子目标来逼近最终答案。GPS成功解决了汉诺塔、几何证明等一系列经典的逻辑谜题,让人们看到了制造一个能跨领域解决通用问题的“思考机器”的希望。

如果说GPS展示了机器的“思考”能力,那么麻省理工学院的SHRDLU系统则让机器第一次拥有了与物理世界互动的“理解”能力。在特里·威诺格拉德于1970年创造的这个虚拟“积木世界”里,用户可以用日常英语向系统发号施令,比如“捡起那个大的红色积木”。SHRDLU能够解析指令,理解上下文(比如当你问“哪个金字塔?

”时,它会主动请求澄清),规划并执行一系列动作(如抓取、移动、堆叠),甚至还能回答关于这个世界状态的问题。SHRDLU的成功,完美地将语言理解、推理规划和动作执行融为一体,让人们仿佛看到了科幻电影中与人类自由对话、协同工作的智能机器人雏形。这些在封闭、规则明确的“玩具世界”里取得的辉煌胜利,催生了巨大的乐观情绪。

西蒙在1965年大胆预测:“二十年内,机器将能完成人能做到的一切工作。”明斯基也附和道:“在一代人的时间内……创造‘人工智能’的问题将基本得到解决。”然而,当这些天才的狂想试图从理想化的实验室走向纷繁复杂的现实世界时,他们很快就撞上了一堵坚硬而冰冷的墙壁。这堵墙壁由两个根本性难题构成。首先是“组合爆炸”(Combinatorial Explosion)。

在简单的积木世界里,可能性是有限的。但当问题规模稍一扩大,比如从下跳棋变成下围棋,或者从规划几个积木的移动变成规划城市交通,需要计算的可能性就会呈指数级增长,瞬间就能耗尽当时乃至今天最强大的计算机的算力。早期AI在“玩具问题”上的优雅,在现实的复杂性面前变得不堪一击。第二个难题则更为根本——“常识与情境的缺失”。

人类世界充满了大量不言自明的常识和模糊的上下文。比如,我们知道“水是湿的”、“绳子可以拉不能推”、“如果一个人淋了雨,他可能会感冒”。这些知识如此基础,以至于我们甚至意识不到它们的存在。但对于一个只懂逻辑和规则的AI系统来说,这个世界是完全陌生的。它无法理解这些隐含的背景知识,导致其推理能力在真实场景中显得极其脆弱和荒谬。

SHRDLU可以理解“捡起积木”,但它无法理解“捡起一个承诺”是什么意思。这种“符号接地”的困境,即符号无法与真实世界的意义相关联,成为了符号主义AI难以逾越的鸿沟。过高的期望与残酷的现实形成了巨大的落差,失望情绪开始蔓延,最终由两个标志性事件引爆了人工智能的第一次“寒冬”。第一个事件是1973年英国政府发布的《莱特希尔报告》(Lighthill Report)。

这份由应用数学家詹姆斯·莱特希尔爵士撰写的报告,对当时的AI研究进行了毫不留情的批判。报告尖锐地指出,AI在自动化和语言处理等核心领域“至今没有任何领域取得了曾被承诺的重大影响”。它直指AI研究的两大软肋:在解决真实世界问题时遭遇“组合爆炸”,以及完全无法处理“常识”。这份极具影响力的报告直接导致英国政府大幅削减对大学AI研究的资助,英国的AI研究几乎陷入停滞。

第二个沉重打击来自美国,由AI领域的领军人物马文·明斯基自己送出。1969年,明斯基与西摩尔·帕尔特合著了《感知机》(Perceptrons)一书。书中,他们通过严谨的数学证明,指出了当时与符号主义并行的另一条技术路线——连接主义(即神经网络的前身)——的根本局限。他们证明了单层的神经网络(即“感知机”)是一种线性模型,无法解决一些基本问题,比如最简单的“异或”(XOR)问题。

这个结论本身是正确的,但它被外界解读为对整个神经网络路线的“死刑判决”。这本书的巨大影响力,导致针对连接主义研究的资金几乎完全中断,让这条本可能与符号主义互补的道路提前进入了长达十余年的沉寂。就这样,曾经的狂热迅速冷却。过高的期望、难以突破的理论瓶颈,以及随之而来的资金撤出,共同将人工智能推入了第一次漫长的寒冬。

天才们的狂想撞上了现实的墙壁,整个领域从喧嚣的顶峰跌入沉寂的谷底,等待着下一次在潜行中的复苏。

潜行与复苏

在不确定中寻找出路 20世纪80年代末,人工智能的“黄金时代”迎来了刺骨的寒风。曾经被寄予厚望的专家系统市场轰然崩溃,LISP机器产业随之衰退,政府与企业的投资热情也急剧降温。AI研究再次步入低谷,这便是历史上的第二次“AI寒冬”。

然而,与第一次寒冬几乎万马齐喑的局面不同,这一次,AI的发展并未完全停滞,而是像一条冰封的河流,表面沉寂,冰下却有两股暗流在悄然涌动。一条是努力在特定领域证明自身价值的“显学”,另一条则是默默积蓄力量、等待春天的“潜流”。第一条路线,是符号主义AI在逆境中的求生探索。专家系统虽然因其知识库构建成本高昂、难以处理不确定性等问题而最终衰退,但它留下的遗产是宝贵的:它证明了AI有能力在特定场景下解决实际问题,为AI的商业化应用点亮了第一盏灯。

更重要的是,在反思专家系统为何失败的过程中,一位思想家为AI的发展指出了一个全新的方向。他就是朱德亚·珀尔(Judea Pearl)。珀尔意识到,真实世界充满了不确定性,非黑即白的逻辑规则远不足以描述世界的复杂性。他将概率论和因果推断引入AI,教会机器如何用“可能性”来思考,如何在不完整的信息中做出合理的决策。

这不仅是对符号主义的重要补充,更让AI从一个理想化的逻辑世界,向充满未知与变化的现实世界迈出了关键一步。与此同时,另一条更隐秘、更具革命性的路线正在学术界的边缘地带“潜行”。这就是以神经网络为代表的连接主义研究。这条路线的探索者们,是真正的“深潜者”。他们的武器库中,增添了一件强大的理论兵器。1986年,杰弗里·辛顿(Geoffrey Hinton)与同事重新推广了反向传播算法,并系统性地证明了其有效性。

这个算法巧妙地解决了多层神经网络的训练难题,让机器能够通过“反思”错误来逐层调整内部参数,从而学习到更复杂的模式。辛顿后来回忆,他们当时乐观地认为这个算法“会解决一切”。然而,理论的曙光并未立即驱散现实的寒冬。进入90年代,神经网络研究很快撞上了三堵高墙:算力不足、数据稀缺,以及来自同行的学术质疑。当时的计算机性能孱弱,根本无法支撑大规模网络的训练。

同时,像支持向量机(SVM)这样的统计学习方法,在很多任务上表现得比当时的神经网络更出色、更高效,这使得大量研究资金和人才流向了其他领域。神经网络再次被视为不切实际的屠龙之技,研究陷入了资金困难、备受冷落的窘境。正是在这样艰难的环境下,一些研究者选择了坚守。扬·勒昆(Yann LeCun)就是其中最杰出的代表。

1988年,他加入了AT&T贝尔实验室,顶着主流学术界的压力,将全部精力投入到一种特殊的神经网络——卷积神经网络(CNN)的研发中。他坚信,这种模仿生物视觉皮层的网络结构,是让机器“看懂”世界的钥匙。勒昆的目标非常明确:让机器识别手写的银行支票。经过多年迭代,他领导团队在1998年推出了经典的LeNet-5模型。

这个网络被成功部署在商业系统中,到21世纪初,它每天处理的支票数量高达约2000万张,占据了当时美国支票流通总量的10%左右。这是一个里程碑式的成功。它不仅是神经网络技术在寒冬中取得的罕见的商业胜利,更像是一颗被埋入冻土的种子,用事实证明了这条“潜流”所蕴含的巨大能量。它告诉世界:神经网络不是空想,它能解决真实世界的问题,并且潜力无限。

就这样,在整个90年代到21世纪初,AI的两条路线并行发展着。一条路线以概率和因果为工具,让AI在商业世界中艰难地“活下来”,并学会了更成熟地与不确定性共存;另一条路线则在学术的角落里“潜行”,在少数人的坚守下,为未来的革命悄悄磨砺着最锋利的武器。这两股力量,一股在明,一股在暗,共同为即将到来的大爆发埋下了伏笔。

而此时,一股来自硬件领域的“东风”也已悄然起势——以GPU为代表的并行计算硬件,其强大的矩阵运算能力与神经网络的计算需求天然契合。当这股硬件的东风,终于吹到算力、数据和算法这片沃土之上时,一场颠覆世界的技术革命即将拉开序幕。

从“看懂世界”到“创造世界”

2012年9月30日,一个名为ImageNet的大规模视觉识别挑战赛(ILSVRC)迎来了历史性的转折点。

一个由杰弗里·辛顿教授和他的两位学生——亚历克斯·克里热夫斯基(Alex Krizhevsky)与伊尔亚·苏茨克维(Ilya Sutskever)——组成的团队,提交了一个名为AlexNet的深度神经网络模型。它的表现震惊了整个计算机视觉领域:其图像识别的错误率仅为15.3%,比第二名整整低了10.8个百分点。

这不仅仅是一次比赛的胜利,更是一声发令枪。AlexNet用无可辩驳的成绩证明,借助深层网络、海量数据和GPU的强大算力,机器真的可以学会“看懂”这个世界。从此,深度学习的革命被彻底引爆,AI的发展进入了一个全新的纪元。如果说AlexNet让AI拥有了一双前所未有的“眼睛”,那么仅仅两年后,一位年轻的研究者就赋予了AI天马行空的“想象力”。

2014年,当时还是博士生的伊恩·古德费洛(Ian Goodfellow)在一个酒吧里与朋友讨论学术问题时,灵光一闪,提出了一个天才般的构想——生成对抗网络(Generative Adversarial Networks GAN)。GAN的原理就像一场“矛”与“盾”的永恒竞赛。它内部包含两个相互博弈的神经网络:一个“生成器”(Generator)和一个“判别器”(Discriminator)。

生成器的任务是创造出以假乱真的数据(比如图片),努力骗过判别器;而判别器的任务则是火眼金睛,尽力分辨出哪些是真实数据,哪些是生成器伪造的赝品。在这场持续的对抗和进化中,生成器为了赢得比赛,其“造假”技艺会变得越来越高超,最终能够创造出人类都难以分辨的全新内容。从高清人脸到艺术画作,再到医学影像,GAN让AI第一次真正地从一个“识别者”和“分析者”,转变为一个“创造者”。

AI不再仅仅是看懂世界,它开始有能力创造一个全新的、数字化的“世界”。正当AI在视觉创造领域高歌猛进时,另一场更为深刻的结构性变革正在悄然酝酿。2017年,来自Google的研究团队发表了一篇题为《Attention Is All You Need》(注意力就是你所需要的一切)的划时代论文。这篇论文抛弃了过去处理序列数据(如语言)时普遍依赖的循环神经网络(RNN)结构,提出了一个全新的架构——Transformer。

Transformer的核心是一种名为“自注意力机制”(Self-Attention)的设计,它不仅能更好地捕捉文本中的长距离依赖关系,更关键的是,它实现了高效的并行计算,极大地提升了模型的训练速度和扩展潜力。Transformer架构的诞生,如同为AI建造了一条通往摩天大楼的坚实地基。它为后续一系列大型语言模型(LLM)的爆发铺平了道路。

从2018年OpenAI发布的第一个GPT模型开始,这条技术路线迅速迭代。模型参数量和数据规模呈指数级增长,AI的能力也随之发生质变,从简单的文本生成,进化到能够进行流畅对话、编写代码、甚至展现出“少样本学习”等惊人能力的GPT-3。AI的创造力,从图像延伸到了人类最核心的智能领域——语言。

力量的扩散与反思

从工程化到伦理约束技术的突破若想改变世界,离不开从实验室走向产业的“最后一公里”。

在这个过程中,吴恩达(Andrew Ng)等人扮演了关键的“布道者”角色。他们致力于推动AI的工程化和大众化教育,将复杂的深度学习技术转化为可规模化应用的工具和课程,让成千上万的工程师和学习者能够掌握并应用AI,极大地加速了AI力量向社会各领域的扩散。然而,当一种力量变得足够强大时,它带来的就不仅是机遇,还有风险。

2019年,OpenAI在发布其新模型GPT-2时,采取了前所未有的谨慎态度。由于担心其强大的文本生成能力被用于制造虚假新闻、垃圾邮件或网络霸凌等恶意用途,他们最初选择只发布一个小型版本,并扣留了完整的模型。这一举动引发了科技界关于“开放研究”与“负责任披露”的激烈辩论。最终,在观察到“没有强烈证据表明被滥用”后,OpenAI才于同年11月公开发布了完整的1.5B参数模型。GPT-2的发布争议只是冰山一角。随着生成式AI能力的普及,Deepfake(深度伪造)技术开始成为一个严峻的社会问题。利用AI换脸或合成语音,可以轻易制造出政治人物的虚假视频或音频,用以传播虚假信息、破坏公众信任,甚至干预选举进程。此外,研究人员很快发现,这些在海量互联网数据上训练出来的模型,也像镜子一样忠实地反映了人类社会存在的偏见。

例如,分析显示GPT-2在描述职业时,会不自觉地将女性与更刻板的职业联系起来。面对这些挑战,一种新的、批判性的声音开始在AI领域变得响亮。以蒂姆尼特·格布鲁(Timnit Gebru)为代表的AI伦理研究者们开始大声疾呼:在追求更强模型的同时,我们必须严肃审视技术的社会影响、算法偏见和潜在风险。他们推动的研究方向,从如何检测和减轻模型的偏见,到如何建立负责任的AI治理框架,都标志着AI的发展进入了一个需要被社会严肃对待和加以约束的新阶段。

从2012年AlexNet让AI“看懂”世界,到GAN和Transformer让AI“创造”世界,再到如今我们必须思考如何“约束”这个日益强大的AI。这短短十余年的飞跃,不仅是技术能力的跨越,更是AI与人类社会关系的一次深刻重塑。AI不再仅仅是工程师书斋里的工具,它已经成为一股塑造我们现实、影响我们未来的强大力量。

写在最后:下一个“图灵”会问出什么问题?

回望人工智能七十余年的征程,我们看到的并非某个天才灵光一闪的“发明”,而是一场跨越数代人的思想接力赛。这场漫长的赛跑,由艾伦·图灵在起点处发出了第一声枪响,他没有创造AI,却用一个简单而深刻的问题——“机器能思考吗?”——定义了整个赛道的终点。接力棒首先交到了约翰·麦卡锡手中,他在1956年的达特茅斯会议上,为这个新兴领域正式“命名”为人工智能,赋予了先行者们共同的身份与旗帜。

随后,以马文·明斯基为代表的符号主义者们,满怀信心地冲上了第一程,他们相信智能可以用逻辑和规则来搭建,并取得了辉煌的早期成就。然而,现实世界的复杂性很快让他们撞上了墙壁,AI随之迎来了第一次寒冬。在漫长的沉寂中,杰弗里·辛顿、扬·勒昆和约书亚·本吉奥这“三巨头”却在无人关注的角落里,默默守护着连接主义的火种,坚信模仿大脑的神经网络才是正确的路径。

他们的坚守,最终等来了算力与数据的东风。当伊恩·古德费洛的生成对抗网络(GAN)横空出世,AI不再仅仅是识别者,更成为了创造者,开启了波澜壮阔的生成式时代。而就在技术高歌猛进之际,蒂姆尼特·格布鲁等人的警示,则代表了赛程进入了一个全新的阶段——我们必须开始审视这股强大力量的伦理与社会责任。从历史的脉络中,我们能更清晰地看到未来的轮廓。

例如,早期符号主义与连接主义的路线之争,并未随着深度学习的胜利而终结。如今,它们正以“神经符号AI”的形式走向融合,让大模型在强大的感知能力之外,拥有更强的逻辑推理能力与可解释性。同样,AI伦理的凸显也并非偶然,它是技术力量达到临界点后,社会发展的必然要求。当AI开始影响就业、塑造公共舆论甚至参与历史叙事时,讨论其公平、透明与社会责任,就成了我们必须完成的课题。

那么,了解这段由无数思想碰撞、路线斗争和个人坚持构成的历史,对我们普通人究竟意味着什么?答案是:它帮助我们建立一个认知框架,祛除对AI的神秘感与焦虑感。当我们明白AI并非凭空出现的“黑科技”,而是源于图灵的一个问题、明斯基的一次碰壁、辛顿数十年的坚持时,我们就能更从容地看待它的能力与局限,更理性地思考它在自己工作与生活中的位置,而不是被动地被浪潮裹挟。

历史的接力棒此刻正握在我们这一代人手中。图灵的问题定义了AI的“能不能”,而今天,我们面临的问题或许是“应不应该”和“如何共存”。那么,下一个“图灵”将会问出什么样的新问题?是关于意识的本质,是关于机器的权利,还是关于人类在智能爆炸后的新角色?这个问题,没有标准答案。它悬置于未来,等待着每一个正在见证、参与和被这场变革影响的我们,共同去思考和回答。

Copyright © 2026 Doclingo. All Rights Reserved.
产品
文档翻译
更多工具
API
企业版
资源
会员
App
关于
帮助中心
服务条款
隐私政策
版本更新
博客
联系信息
邮箱:support@doclingo.ai
简体中文
Copyright © 2026 Doclingo. All Rights Reserved.