大模型
1943年
Warren McCulloch和Walter Pitts提出第一个神经元数学模型,奠定了人工神经网络的基础。
1950年
Alan Turing提出图灵测试,定义了机器智能的标准。
1956年
达特茅斯会议召开,由John McCarthy等学者发起,人工智能(AI)领域正式诞生。
1957年
Frank Rosenblatt发明感知器(Perceptron),这是第一个可训练的神经网络模型。
1969年
Marvin Minsky和Seymour Papert出版《Perceptrons》一书,批评感知器的局限性,导致神经网络研究进入低谷期。
1986年
David Rumelhart、Geoffrey Hinton和Ronald Williams重新发现并推广反向传播算法,使多层神经网络训练成为可能。
1997年
IBM的Deep Blue击败国际象棋世界冠军Garry Kasparov,展示了基于规则AI的强大能力。
2012年
AlexNet在ImageNet图像识别竞赛中获胜,由Alex Krizhevsky等开发,引发深度学习革命。
2014年
Ian Goodfellow提出生成对抗网络(GANs),推动了生成式AI的发展。
2015年12月
OpenAI成立,由Elon Musk、Sam Altman等创立,旨在开发安全的人工通用智能(AGI)。
2016年03月
DeepMind的AlphaGo击败围棋世界冠军Lee Sedol,展示了深度强化学习的突破。
2017年06月
Ashish Vaswani等发布Transformer架构论文《Attention Is All You Need》,为现代大模型提供了核心框架。
2018年06月
OpenAI发布GPT-1(Generative Pre-trained Transformer),首个基于Transformer的大规模语言模型,参数规模1.17亿。
2018年10月
Google发布BERT(Bidirectional Encoder Representations from Transformers),引入了双向训练机制,提升了语言理解能力。
2019年02月
OpenAI发布GPT-2,参数规模15亿,因潜在滥用风险而限制初始发布。
2019年11月
Google发布T5(Text-to-Text Transfer Transformer),统一了多种NLP任务框架。
2020年05月
OpenAI发布GPT-3,参数规模1750亿,展示了大模型的few-shot学习能力,引发广泛关注。
2020年06月
Microsoft发布Turing-NLG,参数规模170亿,成为当时最大的开源语言模型。
2021年01月
OpenAI发布DALL·E,基于GPT-3的图像生成模型,扩展了多模态AI应用。
2021年06月
OpenAI发布Codex,驱动GitHub Copilot,实现代码自动生成。
2021年08月
DeepMind发布Gopher,参数规模2800亿,探索大模型规模扩展的极限。
2022年03月
Google发布PaLM(Pathways Language Model),参数规模5400亿,在多任务性能上取得突破。
2022年11月
OpenAI发布ChatGPT,基于GPT-3.5,通过对话界面普及大模型,用户数迅速破亿。
2023年03月
OpenAI发布GPT-4,支持多模态输入,性能显著提升,被集成到Microsoft产品中。
2023年04月
Meta发布LLaMA(Large Language Model Meta AI),开源大模型促进社区发展。
2023年05月
Google发布PaLM 2,优化了效率和安全性,驱动Bard聊天机器人。
2023年06月
Anthropic发布Claude 2,强调安全对齐,成为ChatGPT的竞争者。
2023年07月
中国发布多个大模型如Baichuan、通义千问,推动全球AI竞赛。
2023年09月
OpenAI推出多模态GPT-4V(Vision),支持图像理解,拓展应用场景。
2023年10月
全球监管机构如欧盟讨论AI法案,应对大模型的社会伦理挑战。
2023年11月
xAI(由Elon Musk创立)发布Grok,集成到X平台,增强实时信息处理。
2023年12月
大模型在医疗、教育等领域广泛应用,如GPT-4驱动诊断工具,标志AI进入日常社会。