当前位置: 首页 > news >正文

使用LoRA 对千问70B模型进行微调

要使用 LoRA 对已经下载的模型进行微调,可以通过 PEFT(Parameter-Efficient Fine-Tuning)库来实现。以下是具体的步骤。

1. 安装必要的库

确保你已经安装了 transformerspeft(用于 LoRA 微调)库:

pip install transformers peft

2. 加载模型和配置 LoRA 微调

下面的代码将展示如何加载已经下载的模型,并在 LoRA 配置下进行微调。

from transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model
from datasets import load_dataset# 加载模型和分词器
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-72B-Chat", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-72B-Chat", trust_remote_code=True)# 配置 LoRA 微调
lora_config = LoraConfig(r=8,                # LoRA 矩阵的秩(可以调整以适应显存)lora_alpha=16,      # LoRA 层的缩放因子target_modules=["q_proj", "v_proj"],  # LoRA 目标层,可以根据模型结构调整lora_dropout=0.1,   # Dropout 概率,防止过拟合bias="none"         # 设置为 "none" 不引入额外的偏置项
)# 将模型转换为 LoRA 微调模型
model = get_peft_model(model, lora_config)# 打印模型层,确认 LoRA 层是否成功添加
model.print_trainable_parameters()

3. 准备数据集

可以选择开源数据集或自定义数据集。这里以 wikitext 数据集为例:

# 加载示例数据集
dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")# 定义数据预处理函数
def preprocess_function(examples):return tokenizer(examples["text"], padding="max_length", truncation=True, max_length=512)# 预处理数据集
tokenized_dataset = dataset.map(preprocess_function, batched=True)

4. 配置训练参数

设置微调的训练参数,如 batch size、学习率、epoch 等。

training_args = TrainingArguments(output_dir="./lora_finetuned_qwen",  # 输出路径per_device_train_batch_size=1,       # 每个 GPU 上的 batch sizegradient_accumulation_steps=8,       # 梯度累积步数num_train_epochs=3,                  # 训练轮次learning_rate=2e-4,                  # 学习率fp16=True,                           # 启用混合精度logging_steps=10,                    # 日志打印间隔save_steps=100,                      # 模型保存间隔save_total_limit=2,                  # 最多保存模型数量
)

5. 开始训练

使用 Trainer 进行微调。

trainer = Trainer(model=model,args=training_args,train_dataset=tokenized_dataset,
)# 开始训练
trainer.train()

6. 保存微调后的模型

训练完成后,将微调后的模型保存到指定的文件夹中。

model.save_pretrained("./lora_finetuned_qwen")
tokenizer.save_pretrained("./lora_finetuned_qwen")

7. 加载和推理

微调完成后,可以加载微调后的模型并进行推理。

from transformers import AutoModelForCausalLM, AutoTokenizer# 加载微调后的模型
model = AutoModelForCausalLM.from_pretrained("./lora_finetuned_qwen")
tokenizer = AutoTokenizer.from_pretrained("./lora_finetuned_qwen")# 进行推理
input_text = "Your prompt here"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

总结

这个流程中,LoRA 微调的关键是通过 PEFT 库对模型的特定层(如 q_projv_proj)进行部分参数化微调,以降低显存消耗。


http://www.mrgr.cn/news/68021.html

相关文章:

  • 【课程总结】day34:多模态大模型之ViT模型、CLIP模型论文阅读理解
  • sqlserver使用bak文件恢复数据库
  • 21-Terms 不正确的案例
  • Mysql基础 01 数据与sql
  • Python自动化运维项目管理实践:从需求分析到项目交付
  • C++重启/秋招已保底备战春招
  • R7:糖尿病预测模型优化探索
  • MinGW-w64_10.0.0 + GCC12_x86_64-12.2.0-release-posix-seh-msvcrt-rt_v10-rev2.zip
  • 怎么快速区分金媒10.3和10.4旗舰版小程序,如果只看数字你就out了表面被忽悠教新手几招!
  • lua入门教程:随机数
  • MOE(Mixture of Experts,混合专家)
  • TESSY学习笔记—project view界面的架构
  • Webserver(4.9)本地套接字的通信
  • adb shell常用命令
  • [复健计划][紫书]Chapter 7 暴力求解法
  • 今日 AI 简报|微软推出通用多智能体系统,支持语音克隆的开源TTS模型,Android 自动化评估等
  • 关于 RK3588多屏显示的时候第二屏幕出现无法矫正的x坐标偏移 的解决方法
  • 哈夫曼编码的实现
  • Android CCodec Codec2 (二十)C2Buffer与Codec2Buffer
  • Linux网络命令:用于查看和修改路由表的重要工具ip route 详解
  • esp32记录一次错误
  • 基于SpringBoot的社区讯息服务小程序【附源码】
  • jdk1.7和jdk1.8有什么区别?
  • 基于Multisim8路抢答器电路仿真电路(含仿真和报告)
  • 关于 Qt+Osg中使用背景图HUD受到后绘制几何图形顶点颜色影响 的解决方法
  • Java8新特性/java