当前位置: 首页 > news >正文

高效微调理解(prompt-tuning,p-tuning v1,p-tuning v2,lora)

高效微调(prompt-tuning,p-tuning v1,p-tuning v2,lora)

1.prompt-tuning:

例子理解;保持原本模型参数不变,通过训练提示词的参数调整prompt,使其与下游任务匹配。
例子:

在这里插入图片描述

2.p-tuning:

与prompt-tuning不同的是, prompt 不再是固定的文本,而是通过可学习的向量来表示
例子:
在这里插入图片描述

3.p-tuning v2:

与p-tuning不同的是v2在每一层(encoder / decoder)都加入[learned prefix]。

4.lora:

Lora方法指的是在大型语言模型上对指定参数增加额外的低秩矩阵,也就是在原始PLM旁边增加一个旁路,做一个降维再升维的操作。并在模型训练过程中,固定PLM的参数,只训练降维矩阵A与升维矩阵B。而模型的输入输出维度不变,输出时将BA与PLM的参数叠加。用随机高斯分布初始化A,用0矩阵初始化B。
结构图:
在这里插入图片描述


http://www.mrgr.cn/news/45546.html

相关文章:

  • Hierarchical Cross-Modal Agent for Robotics Vision-and-Language Navigation
  • LSTM变种模型
  • 【RTCP】报文学习笔记
  • BP8523D 固定5V输出SOP7开关电源驱动芯片
  • 《贪吃蛇小游戏 1.0》源码
  • 【基础算法总结】字符串篇
  • 广州wms智能仓储管理系统 盈致WMS系统服务商
  • UE5运行时动态加载场景角色动画任意搭配-角色及动画(一)
  • 使用WebSocket和服务器建立双向通信-封装-demo
  • VL53L0X 测距传感器使用记录
  • 数字教学知识库:教师备课的好帮手
  • Java接口解读+场景分析
  • 指针——指针数组、数组指针
  • HTML图形
  • 【旋转数组】二分法专题
  • opencv学习:图像拼接及完整代码实现
  • PigGo的安装配置
  • HDMI 版 ARMxy 工控机:车间数据可视化的强大引擎
  • 线程中的异常处理
  • express,接口 token 验证