书生第四期实训营基础岛——L1G5000 XTuner 微调个人小助手认知
基础任务
任务要求
使用 XTuner 微调 InternLM2-Chat-7B 实现自己的小助手认知,如下图所示(图中的尖米需替换成自己的昵称),记录复现过程并截图。
任务实现
生成数据集
修改config
修改internlm2_5_chat_7b_qlora_alpaca_e3
中的内容
修改内容如下:
# Model
pretrained_model_name_or_path = '/root/finetune/models/internlm2_5-7b-chat'
use_varlen_attn = False# Data
alpaca_en_path = '/root/finetune/data/assistant_Tuner_change.jsonl'evaluation_inputs = ['请介绍一下你自己', 'Please introduce yourself'
]
alpaca_en = dict(type=process_hf_dataset,dataset=dict(type=load_dataset, path='json', data_files=dict(train=alpaca_en_path)),tokenizer=tokenizer,max_length=max_length,dataset_map_fn=None,template_map_fn=dict(type=template_map_fn_factory, template=prompt_template),remove_unused_columns=True,shuffle_before_pack=True,pack_to_max_length=pack_to_max_length,use_varlen_attn=use_varlen_attn)
微调模型
微调模型命令如下:
xtuner train ./config/internlm2_5_chat_7b_qlora_alpaca_e3_copy.py --deepspeed deepspeed_zero2 --work-dir ./work_dirs/assistTuner
模型权重转换
将pth格式转换为hf格式
hf格式结构如下:
模型合并
merged目录结构如下:
模型对话
加载模型
进阶任务
任务要求
将自我认知的模型上传到 HuggingFace/Modelscope/魔乐平台,并将应用部署到 HuggingFace/Modelscope/魔乐平台
说明
因为Huggingface一直连不上,所以使用Modelscope进行模型上传
模型上传结果如下: