← Back to Home/AI Generated Result
🤖DeepSeek-V3

人工智能

人工智能(AI)是计算机科学的一个分支,致力于开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统。它涵盖机器学习、深度学习、自然语言处理等多个领域,旨在使机器能够感知环境、学习知识、进行推理并执行复杂任务,正深刻改变着社会生产与生活方式。
11
Total Events
公元前 300 - 1997年
Time Span
chip科技
#机器学习#深度学习#自然语言处理#未来科技#自动化#算法
Generated at: 2026-02-24

约公元前300年

古希腊哲学家亚里士多德在其著作《工具论》中,系统阐述了形式逻辑,特别是三段论推理。这为后世基于规则的符号化推理系统奠定了理论基础,被认为是早期“思维法则”的探索。亚里士多德试图将人类思维过程形式化,用一套符号和规则来模拟推理。这一思想对中世纪经院哲学和后来的莱布尼茨、布尔等人产生了深远影响。有观点认为,亚里士多德的工作是人工智能思想在哲学层面的最早萌芽之一,因为它涉及用机械规则来复制人类智能的某个方面。不过,当时的技术条件完全无法实现任何计算装置,这只是一种纯粹的理论构想。

17世纪

这一时期,多位哲学家和数学家为形式化思维和计算奠定了基石。17世纪,法国哲学家兼数学家勒内·笛卡尔提出了身心二元论,并认为动物是“自动机”,这引发了对生命和思维能否被机械化的思考。德国哲学家兼数学家戈特弗里德·威廉·莱布尼茨进一步发展了形式逻辑,梦想创造一种“通用符号”和“推理演算”,通过计算来解决所有争论,这被视作“符号人工智能”的遥远先声。19世纪,英国数学家乔治·布尔创立了布尔代数,用代数方法研究逻辑问题,为数字电路和计算机逻辑设计提供了数学基础。同时,英国数学家兼发明家查尔斯·巴贝奇设计了分析机(尽管未能建成),其助手爱达·洛夫莱斯为其编写了算法,并指出机器只能执行指令,不能“原创”,这触及了AI关于“创造力”的核心辩论。这些思想共同构成了人工智能诞生前在逻辑、计算和自动化思维方面的理论准备。

1943年

美国神经科学家沃伦·麦卡洛克和逻辑学家沃尔特·皮茨发表了论文《神经活动中内在思想的逻辑演算》。他们提出了一种简化的大脑神经元数学模型,即“M-P神经元模型”。该模型将神经元抽象为一个阈值逻辑单元:接收多个输入信号,加权求和后,若超过某个阈值则产生输出(“兴奋”),否则不输出(“抑制”)。这篇论文首次展示了神经网络可以进行逻辑运算,从而将神经生物学与形式逻辑联系起来,为后来的人工神经网络研究奠定了理论基础。据资料显示,这篇论文影响深远,启发了包括约翰·冯·诺依曼、诺伯特·维纳在内的众多科学家,被认为是连接主义人工智能路径的开端。然而,该模型过于简化,忽略了生物神经元的许多复杂特性。

1950年

英国数学家、逻辑学家艾伦·图灵在哲学期刊《心灵》上发表了划时代的论文《计算机器与智能》。他在文中提出了著名的“图灵测试”:如果一台机器能够通过文本对话,让人类评判者无法区分其与真人的区别,那么就可以认为这台机器具有智能。图灵还预见了对机器智能的诸多反对意见(如“数学异议”、“意识异议”等)并逐一进行了反驳。他讨论了学习机的可能性,并预测到20世纪末,计算机有30%的概率能通过5分钟的图灵测试。这篇论文没有涉及具体实现,而是从哲学和概念上定义了“机器智能”这一领域,为人工智能学科确立了目标和检验标准,被公认为人工智能领域的奠基性文献。

1956年

在美国达特茅斯学院,约翰·麦卡锡(会议发起人)、马文·明斯基、克劳德·香农、纳撒尼尔·罗切斯特等学者组织了一场为期约两个月的夏季研讨会。会议提议书中首次使用了“人工智能”(Artificial Intelligence)这一术语。与会者乐观地认为,智能的每一个方面都可以被精确描述,从而制造出机器来模拟它。会议讨论了自动计算机、编程语言、神经网络、计算规模理论、自我改进、抽象和随机性等主题。虽然会议本身并未产生突破性技术成果,但它正式确立了“人工智能”作为一个独立的研究领域,聚集了该领域的核心先驱,并设定了早期研究议程。因此,1956年达特茅斯会议被广泛认为是人工智能诞生的标志性事件。

20世纪50年代末至60年代中期

人工智能诞生后的第一个十年充满了乐观与初步成果,被称为“黄金时代”。研究者们在多个方向取得进展:艾伦·纽厄尔、赫伯特·西蒙和克利夫·肖开发了“逻辑理论家”程序,能够自动证明《数学原理》中的定理,被认为是第一个AI程序。随后他们又开发了更具通用性的“通用问题求解器”。约翰·麦卡锡在1958年发明了LISP编程语言,成为此后数十年AI研究的主流语言。马文·明斯基在《步骤走向人工智能》的报告中综述了早期成果。亚瑟·塞缪尔开发了跳棋程序,并通过自我对弈提升水平,演示了机器学习。这些早期成功,加上政府和机构(如美国国防高级研究计划局DARPA)的资金支持,使研究者们普遍乐观,明斯基甚至在1967年预言“一代人之内,创造人工智能的问题将得到实质性解决”。

20世纪70年代

由于早期过于乐观的预期未能实现,人工智能遭遇了第一个“寒冬”。研究者发现,许多看似简单的任务(如视觉、自然语言理解、常识推理)对机器而言极其困难。詹姆斯·莱特希尔爵士受英国政府委托撰写的报告(1973年)严厉批评了AI未能实现其宏伟目标,导致英国大幅削减AI研究经费。同时,感知机(一种简单神经网络)被马文·明斯基和西摩·帕佩特在《感知机》一书中证明其存在根本性局限(如无法处理“异或”问题),这严重打击了神经网络研究。美国DARPA也因对连续语音识别项目的失望而削减资助。这些因素共同导致AI研究资金萎缩、进展缓慢,领域进入低潮期。这一阶段表明,AI问题的复杂性远超最初的想象。

20世纪80年代

人工智能研究在商业模式和专家系统推动下迎来复兴。爱德华·费根鲍姆等人倡导的“知识工程”成为主流,其核心是“专家系统”——通过将人类专家的知识和经验规则编码到计算机中,在特定领域(如医疗诊断、化学分析、地质勘探)提供专业水平的建议。例如,斯坦福大学的MYCIN系统能诊断血液感染疾病,R1/XCON系统能为DEC公司配置计算机订单。日本通产省发起“第五代计算机”项目,旨在开发能进行逻辑推理的智能计算机。商业公司(如Symbolics, Lisp Machine Inc.)专门生产运行LISP的AI工作站。风险投资涌入,产业初步形成。然而,专家系统维护困难、知识获取瓶颈(“知识获取瓶颈”)以及无法处理常识问题,为下一次低谷埋下伏笔。

1986年

大卫·鲁梅尔哈特、杰弗里·辛顿和罗纳德·威廉姆斯发表了论文《通过误差反向传播学习内部表示》,重新普及并改进了反向传播算法。该算法能够有效地训练多层神经网络(后来被称为“深度学习”),解决了单层感知机的部分局限。反向传播通过计算网络输出与目标之间的误差,并将误差逐层反向传播以调整网络中的连接权重,使得训练深层网络成为可能。这一突破,加上并行分布式处理(PDP)研究小组的推动,引发了神经网络研究的第二次浪潮。尽管此时计算机算力和数据规模仍有限,但反向传播为20年后深度学习的爆发奠定了关键算法基础。有观点认为,这一工作标志着连接主义路径在经历寒冬后开始复苏。

20世纪80年代末至90年代初

专家系统的局限性日益凸显,维护成本高昂且难以扩展,未能兑现商业承诺。同时,台式个人计算机(如IBM PC)性能提升且价格低廉,冲击了昂贵的专用LISP机器市场。日本“第五代计算机”项目最终未能实现其雄心勃勃的目标。这些因素导致AI产业泡沫破裂,商业投资急剧减少,政府资助转向,人工智能研究进入第二次“寒冬”。这次寒冬促使研究者反思,并探索更务实、与特定应用结合的研究路径。例如,基于概率论和统计学的机器学习方法开始受到更多关注,这为AI从基于规则的符号主义向基于数据的机器学习范式转变埋下了伏笔。

1997年

IBM开发的“深蓝”超级计算机在一场六局比赛中,以3.5:2.5的比分击败了当时的世界国际象棋冠军加里·卡斯帕罗夫。深蓝是专为国际象棋设计的系统,采用大规模并行计算,每秒可评估2亿个棋局位置,并结合了精心调校的评估函数和开局库。这场比赛在全球范围内被广泛报道,被视为人工智能里程碑式的事件,展示了计算机在复杂智力游戏中超越人类顶尖水平的能力。它引发了关于机器智能的广泛公众讨论。然而,学界普遍认为深蓝主要依靠强大的暴力计算和人类编程的象棋知识,而非通用的学习或理解能力。有观点认为,这一胜利标志着“蛮力计算”在特定领域的成功,但并未解决AI的核心智能问题。

Comments

No comments yet, be the first to comment!