当前位置: 首页 > news >正文

【每天学点AI】五个阶段带你了解人工智能大模型发展史!

图片

20世纪50年代

NLP的早期研究主要基于规则的方法,依赖于语言学专家手工编写的规则和词典。这些规则通常是关于语法、语义和句法结构的人工规则。

图片

例如一个简单的陈述句通常遵循“主语 + 谓语 + 宾语”的结构,每一个陈述句都以这种规则做标记。

那时候的NLP就像个刚学步的小孩,靠的是一堆人工的规则,就像小时候学说话,需要一个字一个字地学,学完单词学语法。

图片

20世纪70年代

随着时间的推移,20世纪70年代随着计算能力的提升和数据的积累,NLP开始转向基于统计学的方法。这些方法依赖于大量的文本数据,通过统计模型来捕捉语言模式,而非手工制定规则。统计方法开始重视词语的共现关系,并通过概率推断来实现语言处理任务。

图片

NLP开始用大数据来学习语言的规律,就像你长大了,通过听周围人说话来学习新词汇和表达,但是对于你来说每个单词都是独立的,相互没有关系。

图片

2013年

2013年,基于嵌入embedding的NLP方法被发明,通过将词语、短语、句子等语言元素映射到高维的连续向量空间中,这些向量捕捉了词语之间的语义关系,使得模型能够更好地理解和处理语言。

就像用表情符号来表达情感一样,表情是人类语言的抽象,这些向量能捕捉词语的意思和关系。

图片

同年Encoder-decoder的模型结构被发明,为后续的序列到序列(Seq2Seq)模型奠定了基础,至此命运的齿轮开始转动。

图片

2017年

2017年,"Attention is all you need"论文的发表标志着Transformer模型的诞生,它在上一个阶段词嵌入的基础上,基于自注意力机制的模型,它彻底改变了NLP领域的模型设计和训练方式。

图片

Transformer模型通过多头注意力机制和位置编码,有效地处理了序列数据,提高了模型的并行处理能力和性能。它用自注意力机制让模型能同时关注句子中的所有词,就像你在聊天时,能同时关注群里每个人的发言。

图片

随后,基于Transformer架构的BERT和GPT等模型相继出现,它们通过预训练和微调的方式,在多种NLP任务上取得了突破性的性能。

图片

2022年

之后的故事大家都很熟悉了,2022年chatgpt横空出世,大模型的涌现一发不可收拾。你知道他们为什么叫大模型吗?是因为这些模型的参数量已经达到了百亿甚至千亿级别

图片

AI体系化学习路线

图片

学习资料免费领

【后台私信】AI全体系学习路线超详版+100余讲AI视频课程 +AI实验平台体验权限

全体系课程详情介绍

图片

人工智能体系课程:AI全栈工程师实战课

https://www.yyzlab.com.cn/package/info/1749620286278397953?code=66


http://www.mrgr.cn/news/35805.html

相关文章:

  • 吴恩达深度学习笔记(12)14
  • 通过vmware虚拟机安装和调试编译好的 ReactOS
  • 机器学习: LightGBM模型(优化版)——高效且强大的树形模型
  • C语言的内存函数
  • kafka消费数据太慢了,给优化下
  • Unity音频导入设置
  • PLC控制系统应用的抗干扰问题
  • 可变剪接分析一步到位,这个 R 包够猛!
  • 表观项目文章速递,平均IF=9.7
  • 【tbNick专享】虚拟机域控、成员服务器、降级等管理
  • oracle 分表代码示例
  • Jetpack02-LiveData 数据驱动UI更新(类似EventBus)
  • 《AI设计类工具系列之三——Magic Design》
  • 7大网络安全机构真实测评:零基础转行网安这么选就对了~
  • 【记录】在返回值类型为BigDecimal情况下末尾小数位为0的会省略不显示
  • 邦芒干货:职场上快速适应工作新环境的十大举措
  • 表单多个输入框校验
  • 外网SpringBoot项目迁移到内网无法加载maven依赖
  • 逆概率加权(R和Python案例)
  • implementation ‘com.lxj:xpopup:2.2.1‘失败
  • 【Linux】驱动的基本架构和编译
  • TON生态系统开发指南:从零开始构建你的Web3应用
  • 手撕Transformer之Embedding Layer
  • 基于pdf.js实现对pdf预览、批注功能、 保存下载pdf,适配H5,平板 踩坑记录
  • 【鸿蒙】HarmonyOS NEXT开发快速入门教程之ArkTS语法装饰器(上)
  • ntpdate同步配置文件调整详解