一起学习大语言模型-常用命令及模型介绍
文章目录
- 如何下载模型
- 常用模型介绍
- 查看已下载的本地模型
- 查看当前正在运行的模型
- 更多的命令和环境变量查看
如何下载模型
通过ollama pull
命令来下载需要的模型, 如:
ollama pull qwen2.5
ollama pull deepseek-r1
ollama pull deepseek-r1:671b
常用模型介绍
模型名 | 大小 | 模型介绍 | 应用场景 |
---|---|---|---|
codellama | 7b-70b | 代码生成与讨论模型,支持多语言代码任务 | 软件开发、代码解释、编程辅助 |
deepseek-coder | 1.3b-33b | 基于 2 万亿代码和自然语言训练的编码模型,性能接近 GPT4-Turbo | 代码开发、算法实现、漏洞修复 |
gemma3 | 1b-27b | 单 GPU 运行的高性能模型,支持视觉任务 | 图像识别、视觉问答、多模态交互 |
llama2 | 7b-70b | Meta 开源基础模型,支持多任务通用场景 | 对话系统、文本生成、知识问答 |
llama3 | 8b-70b | Meta 最新开源模型,性能接近 405B 版本 | 复杂推理、长文本处理、专业领域任务 |
llava | 7b-34b | 多模态模型(视觉 + 语言),支持图像理解与对话 | 视觉问答、图文生成、跨模态交互 |
mistral | 7b | Mistral AI 发布的高效模型,更新至 0.3 版 | 代码生成、数学推理、多语言支持 |
phi4 | 14b | 微软开源的 14B 参数模型,性能领先 | 复杂推理、长文本理解、多语言任务 |
qwen2.5 | 0.5b-72b | 阿里巴巴训练的多语言模型,支持 128K 上下文窗口 | 多语言对话、长文本处理、跨领域任务 |
stable-code | 3b | 轻量级代码模型,性能媲美 7B 模型 | 代码补全、算法开发、低资源环境下的编码任务 |
vicuna | 7b-33b | 基于 Llama 的对话模型,支持 2K-16K 上下文窗口 | 日常对话、客服系统、简单问答 |
wizardlm | 7b-8x22b | 微软优化的多语言模型,擅长复杂对话和推理 | 专业领域问答、多语言支持、复杂逻辑处理 |
根据官方文档建议,运行模型需要的内存大小如下:
7b的模型需要至少8GB内存
13b的模型需要至少16GB内存
33b的模型需要至少32GB内存
一般我们本机学习开发的时候可以尝试使用这几种模型就基本够了, llama3.2:3b, qwen2.5:7b, llama3.2-vision:11b
查看已下载的本地模型
通过命令ollama list
查看本地已下载的模型
查看当前正在运行的模型
通过命令ollama ps
查看当前正在运行的模型
更多的命令和环境变量查看
通过ollama -h
查看支持的更多命令
通过ollama serve -h
查看支持的环境变量配置