(一)深度学习之前的人工智能

深度学习之前的人工智能:从逻辑推理到统计学习的探索之路

在深度学习席卷全球、大模型成为AI代名词的今天,我们很容易忽略一个事实:人工智能的历史远比神经网络的复兴要悠久得多。事实上,在2012年深度学习真正崛起之前,AI领域已经历了数十年的探索、高潮与低谷,形成了丰富而多元的技术体系。这段“前深度学习时代”的发展历程,不仅奠定了现代AI的理论基础,也深刻影响了后续技术演进的方向。

起源:符号主义与逻辑推理(1950s–1970s)

人工智能的正式诞生通常追溯到1956年的达特茅斯会议。彼时,研究者们普遍相信:智能的本质在于符号操作和逻辑推理。这一思想被称为“符号主义”(Symbolism)或“基于规则的方法”。

早期代表性成果包括:

  • 逻辑理论家(Logic Theorist, 1956):由纽厄尔、肖和西蒙开发,能自动证明数学定理,被视为首个AI程序。
  • 通用问题求解器(GPS, 1957):尝试通过目标分解和手段-目的分析解决各类问题。
  • 专家系统雏形:如DENDRAL(1965),用于化学结构分析,通过人工编码的规则模拟专家决策。

这些系统在特定领域表现优异,但严重依赖人工知识构建,缺乏泛化能力,且难以处理不确定性或模糊信息。

第一次AI寒冬与反思(1970s)

由于早期过度乐观的承诺未能兑现,加上计算资源有限、知识获取瓶颈(即“知识工程”难题),AI在1970年代遭遇第一次“寒冬”——政府资助锐减,公众兴趣消退。人们开始质疑:仅靠符号推理是否足以实现真正的智能?

复苏:知识工程与专家系统的黄金时代(1980s)

1980年代,随着商业需求增长,AI迎来短暂复兴,核心是专家系统(Expert Systems)。这类系统将人类专家的知识编码为“如果-那么”规则库,并结合推理引擎进行决策。代表性系统包括:

  • MYCIN:用于诊断细菌感染并推荐抗生素;
  • XCON:DEC公司用于配置计算机硬件,每年节省数千万美元。

专家系统在医疗、金融、工业等领域取得实用成功,但其局限性也日益凸显:知识获取困难、维护成本高、无法学习新知识。一旦超出预设规则范围,系统便束手无策。

转向:连接主义与早期神经网络(1980s–1990s)

与此同时,另一条技术路线悄然兴起——连接主义(Connectionism),主张智能源于大量简单单元的互联与学习。1943年麦卡洛克和皮茨提出首个神经元数学模型,1958年罗森布拉特发明感知机(Perceptron),但因无法解决非线性问题(如异或)而遭冷遇。

转机出现在1986年:鲁梅尔哈特等人重新发现并推广反向传播算法(Backpropagation),使多层神经网络能够有效训练。尽管受限于算力和数据,这一时期仍涌现出如LeNet(1989)等早期卷积网络雏形,为日后图像识别埋下伏笔。

主流范式:统计学习与机器学习兴起(1990s–2000s)

进入1990年代,AI研究重心逐渐从“硬编码知识”转向“从数据中学习”。随着互联网兴起,大规模数据集成为可能,统计学习方法成为主流。这一时期的关键技术包括:

  • 支持向量机(SVM):在小样本下表现优异,广泛用于分类任务;
  • 隐马尔可夫模型(HMM):主导语音识别与序列建模;
  • 贝叶斯网络:用于不确定性推理与因果建模;
  • 决策树与随机森林:可解释性强,适用于结构化数据;
  • n-gram语言模型:支撑早期机器翻译与语音识别系统。

这些方法虽不如今日深度学习强大,但在当时已能解决大量实际问题。例如,IBM的Candide系统(1990s)利用统计方法实现英法机器翻译;Google早期的搜索排序也依赖传统机器学习模型。

小结:承前启后的奠基时代

深度学习并非凭空出现,而是站在前人数十年积累的肩膀上。符号主义教会我们形式化推理的重要性;专家系统揭示了知识表示的价值;统计学习则证明了数据驱动方法的可行性;而早期神经网络则保留了“端到端学习”的火种。

正是这些看似“过时”的技术,共同构成了AI发展的完整图谱。它们或许不再站在舞台中央,但其思想内核——如可解释性、不确定性处理、知识融合——依然是当前AI研究的重要课题。理解这段历史,不仅有助于我们更全面地认识人工智能的本质,也为未来突破提供了宝贵启示:真正的智能,或许正藏在多种范式的融合之中。