LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略
LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略
导读:2024年9月19日,阿里云Qwen团队发布0.5B、1.5B、3B、7B、14B、32B和72B参数规模的7款开源模型,语料词汇量为18T个tokens(Qwen2系列仅有7T)。Qwen2.5支持高达128K 的上下文长度,并能生成高达8K的文本。支持多种推理框架,例如 transformers、Ollama、llama.cpp、vLLM、SGLang等。支持多种训练框架,例如 Axolotl、Llama-Factory、unsloth、Swift等,方便用户进行微调。
>> 性能表现:显著提升了指令遵循、长文本生成(超过8K tokens)、结构化数据理解(例如表格)以及结构化输出生成(尤其是JSON)的能力。对各种系统提示的鲁棒性更强,增强了角色扮演的实现和聊天机器人的条件设置。Qwen2.5支持29种语言。
- 在MMLU、BBH、ARC-C、TruthfulQA、Winogrande、HellaSwag等通用任务中表现出色,超越了同类模型。
- 在数学任务(GPQA、Theoremqa、MATH、GSM8K)中表现突出,尤其是在MATH中,Qwen2.5-72B-Instruct得分从Qwen2-7B/72B-Instruct的52.9/69.0上升到了75.5/83.1。
- 在代码任务(HumanEval、HumanEval+、MBPP、MBPP+、MultiPL-E)中表现优异,尤其是在LiveCodeBench中,Qwen2.5-72B-Instruct得分达到了55.5,优于Qwen2-72B-Instruct的32.2。
- 在多语言任务(Multi-Exam、Multi-Understanding、Multi-Mathematics、Multi-Translation)中表现出色,尤其是在Multi-Understanding中,Qwen2.5-72B得分达到了89.6,展现出强大的多语言理解能力。
- 更符合人类偏好:Qwen2.5生成的内容更加贴近人类的偏好,在Arena-Hard和MT-Bench等评估指标上都有显著提升。
>> 数据构成:Qwen2.5在最新的超大规模数据集上进行预训练,预训练数据集规模从 7T tokens 扩展到了 18T tokens。
>> 数据预处理流程及其策略:经过大规模数据集的预训练,数据预处理策略包括批量推理、流式推理等。
>> 模型结构:Qwen2.5是密集型、仅解码器结构,提供基础版和指令版。Qwen2.5系列模型均为decoder-only的稠密模型。>> 优化策略:提供SFT(监督微调)和RLHF(人类反馈强化学习)的训练指导。支持量化实践(如GPTQ、AWQ)以生成高质量的量化文件。提到了Qwen2.5-Coder、Qwen2-math等技术,暗示了模型在代码生成和数学推理能力上的提升。
目录
相关文章
LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略
MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略
LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略
Qwen2.5的简介
0、新闻
1、项目内容
2、性能
Qwen2.5的安装和使用方法
1、安装
2、使用方法
T1、Hugging Face Transformers
T2、ModelScope
3、推理
3.1、本地运行
Ollama
llama.cpp
MLX-LM
LMStudio
OpenVINO
3.2、Web UI
文本生成 Web 用户界面
llamafile
4、部署
vLLM
SGLang
5、工具使用
6、微调
Qwen2.5的案例应用
相关文章
LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略
LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略_qwen2 硬件要求-CSDN博客
MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略
MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略_qwen2-vl 怎么用-CSDN博客
LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略
LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略-CSDN博客
Qwen2.5的简介
2024年9月19日,Qwen2.5 是由阿里云 Qwen 团队开发的大型语言模型系列。自 Qwen2 发布以来的过去三个月里,众多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这期间,我们专注于创建更加智能和知识丰富的语言模型。今天,我们很兴奋地向大家介绍 Qwen 家族的最新成员:Qwen2.5。
>> 密集、易用、仅解码器的语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 多种尺寸,以及基础版和指令版变体。
>> 预训练于我们最新的大规模数据集,包含多达 18T 令牌。
>> 在遵循指令、生成长文本(超过 8K 令牌)、理解结构化数据(如表格)以及生成结构化输出尤其是 JSON 方面有显著改进。
>> 对系统提示的多样性更具韧性,增强了角色扮演实现及聊天机器人的条件设置。
>> 上下文长度支持高达 128K 令牌,并可生成高达 8K 令牌。
>> 支持超过 29 种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
GitHub地址:GitHub - QwenLM/Qwen2.5: Qwen2.5 is the large language model series developed by Qwen team, Alibaba Cloud.
0、新闻
2024年9月19日:我们发布了 Qwen2.5 系列。这次额外增加了 3 种模型尺寸:3B、14B 和 32B,提供更多可能性。请查看我们的博客获取更多信息!
2024年6月6日:我们发布了 Qwen2 系列。请查看我们的博客!
2024年3月28日:我们发布了 Qwen 的首个 MoE 模型:Qwen1.5-MoE-A2.7B!目前仅 HF transformers 和 vLLM 支持该模型。我们很快会增加 llama.cpp、mlx-lm 等的支持。请查看我们的博客获取更多信息!
2024年2月5日:我们发布了 Qwen1.5 系列。
1、项目内容
>> 推理:使用 transformers 进行推理的指南,包括批量推理、流式处理等;
>> 本地运行:在 CPU 和 GPU 上使用 llama.cpp 和 Ollama 等框架本地运行 LLM 的说明;
>> 部署:使用 vLLM、TGI 等框架进行大规模推理的部署演示;
>> 量化:使用 GPTQ、AWQ 量化 LLM 的实践,以及如何制作高质量量化 GGUF 文件的指南;
>> 训练:后训练说明,包括使用 Axolotl、LLaMA-Factory 等框架的 SFT 和 RLHF(待完成)。
>> 框架:与 RAG、Agent 等应用程序框架一起使用的 Qwen 方法。
2、性能
详细的评估结果报告在此 �� 博客中。
对于 GPU 内存需求及相应的吞吐量,请参见这里的结果(将针对 Qwen2.5 更新)。
Qwen2.5的安装和使用方法
1、安装
2、使用方法
T1、Hugging Face Transformers
建议使用最新版本的 transformers(至少 4.37.0)。这里展示了一个代码片段,展示如何使用 transformers 与聊天模型交互:
对于量化模型,我们建议您使用对应的 GPTQ 和 AWQ 版本,即 Qwen2.5-7B-Instruct-GPTQ-Int8 和 Qwen2.5-7B-Instruct-AWQ。
T2、ModelScope
我们强烈建议用户特别是中国大陆的用户使用 ModelScope。snapshot_download 可以帮助您解决下载检查点的问题。
3、推理
3.1、本地运行
Ollama
安装 ollama 后,您可以使用以下命令启动 ollama 服务:
ollama serve
# 使用 ollama 时需要保持此服务运行
要拉取模型检查点并运行模型,请使用 ollama run 命令。您可以通过添加后缀到 qwen2.5 来指定模型大小,例如 :0.5b, :1.5b, :7b, 或 :72b:
您还可以通过其兼容 OpenAI 的 API 访问 ollama 服务。请注意,您需要 (1) 在使用 API 时保持 ollama serve 运行,(2) 在使用此 API 之前执行 ollama run qwen2.5:7b 以确保模型检查点已准备好。
更多详情,请访问 ollama.ai。
llama.cpp
下载我们提供的 GGUF 文件或自己创建,然后可以使用最新版本的 llama.cpp 通过一行命令直接使用它们:
MLX-LM
如果您在 Apple Silicon 上运行,我们也提供了与 mlx-lm 兼容的检查点。在 HuggingFace Hub 上寻找以 MLX 结尾的模型,比如 Qwen2.5-7B-Instruct-MLX。
LMStudio
Qwen2.5 已经被 lmstudio.ai 支持。您可以直接使用 LMStudio 与我们的 GGUF 文件。
OpenVINO
Qwen2.5 已经被 OpenVINO 工具包支持。您可以安装并使用 Intel CPU、集成显卡或独立显卡运行这个聊天机器人示例。
3.2、Web UI
文本生成 Web 用户界面
您可以直接使用 text-generation-webui 创建 Web UI 演示。如果您使用 GGUF,请记得安装支持 Qwen2.5 的最新 llama.cpp wheel。
llamafile
克隆 llamafile,运行源安装,然后按照此处的指南使用 GGUF 文件创建您自己的 llamafile。您能够运行一条命令,比如 ./qwen.llamafile,来创建一个演示。
4、部署
Qwen2.5 得到了多个推理框架的支持。这里我们演示了 vLLM 和 SGLang 的使用。
vLLM
我们建议您使用最新版本的 vLLM 构建兼容 OpenAI 的 API 服务,包括工具使用支持。使用聊天模型启动服务器,例如 Qwen2.5-7B-Instruct:
SGLang
警告
SGLang 当前提供的兼容 OpenAI 的 API 尚不支持工具使用或函数调用。
请从源代码安装 SGLang。类似于 vLLM,您需要启动一个服务器并使用兼容 OpenAI 的 API 服务。首先启动服务器:
5、工具使用
对于工具使用能力,我们建议查看 Qwen-Agent,它为这些 API 提供了一个封装,以支持工具使用或函数调用。也可以使用 Hugging Face transformers、Ollama 和 vLLM 与 Qwen2.5 进行工具使用。请跟随我们的文档中的指南了解如何启用支持。
6、微调
我们建议您使用训练框架,包括 Axolotl、Llama-Factory、unsloth、Swift 等,利用 SFT、DPO、PPO 等方法微调您的模型。
Qwen2.5的案例应用
持续更新中……