当前位置: 首页 > news >正文

一起学习大语言模型-常用命令及模型介绍

文章目录

  • 如何下载模型
  • 常用模型介绍
  • 查看已下载的本地模型
  • 查看当前正在运行的模型
  • 更多的命令和环境变量查看

如何下载模型

通过ollama pull命令来下载需要的模型, 如:

ollama pull qwen2.5
ollama pull deepseek-r1
ollama pull deepseek-r1:671b

常用模型介绍

模型名大小模型介绍应用场景
codellama7b-70b代码生成与讨论模型,支持多语言代码任务软件开发、代码解释、编程辅助
deepseek-coder1.3b-33b基于 2 万亿代码和自然语言训练的编码模型,性能接近 GPT4-Turbo代码开发、算法实现、漏洞修复
gemma31b-27b单 GPU 运行的高性能模型,支持视觉任务图像识别、视觉问答、多模态交互
llama27b-70bMeta 开源基础模型,支持多任务通用场景对话系统、文本生成、知识问答
llama38b-70bMeta 最新开源模型,性能接近 405B 版本复杂推理、长文本处理、专业领域任务
llava7b-34b多模态模型(视觉 + 语言),支持图像理解与对话视觉问答、图文生成、跨模态交互
mistral7bMistral AI 发布的高效模型,更新至 0.3 版代码生成、数学推理、多语言支持
phi414b微软开源的 14B 参数模型,性能领先复杂推理、长文本理解、多语言任务
qwen2.50.5b-72b阿里巴巴训练的多语言模型,支持 128K 上下文窗口多语言对话、长文本处理、跨领域任务
stable-code3b轻量级代码模型,性能媲美 7B 模型代码补全、算法开发、低资源环境下的编码任务
vicuna7b-33b基于 Llama 的对话模型,支持 2K-16K 上下文窗口日常对话、客服系统、简单问答
wizardlm7b-8x22b微软优化的多语言模型,擅长复杂对话和推理专业领域问答、多语言支持、复杂逻辑处理

根据官方文档建议,运行模型需要的内存大小如下:

7b的模型需要至少8GB内存

13b的模型需要至少16GB内存

33b的模型需要至少32GB内存

一般我们本机学习开发的时候可以尝试使用这几种模型就基本够了, llama3.2:3b, qwen2.5:7b, llama3.2-vision:11b

查看已下载的本地模型

通过命令ollama list查看本地已下载的模型

查看当前正在运行的模型

通过命令ollama ps 查看当前正在运行的模型

更多的命令和环境变量查看

通过ollama -h查看支持的更多命令

通过ollama serve -h查看支持的环境变量配置


http://www.mrgr.cn/news/96771.html

相关文章:

  • 2023第十四届蓝桥杯大赛软件赛省赛C/C++ 大学 B 组(真题题解)(C++/Java题解)
  • 41、当你在 index.html 中引用了一个公共文件(比如 common.js),修改这个文件后,用户访问页面时仍然看到旧内容,因为浏览器缓存了旧版本
  • Kafka 4.0入门到熟练
  • 41.C++哈希6(哈希切割/分片/位图/布隆过滤器与海量数据处理场景)
  • ML 聚类算法 dbscan|| OPTICS
  • 【C++】vector常用方法总结
  • Springboot学习笔记3.28
  • JVM——模型分析、回收机制
  • 七. JAVA类和对象(二)
  • 消息中间件对比与选型指南:Kafka、ActiveMQ、RabbitMQ与RocketMQ
  • 前端界面在线excel编辑器 。node编写post接口获取文件流,使用传参替换表格内容展示、前后端一把梭。
  • LLM应用层推荐 -- 基于文档的问答tools Web UI 框架 开源向量库 -- 推荐、对比
  • 003-JMeter发起请求详解
  • Vue中将pdf文件转为图片
  • GitPython库快速应用入门
  • 【超详细】一文解决更新小米澎湃2.0后LSPose失效问题
  • 使用 Less 实现 PC 和移动端样式适配
  • pytorch模型的进阶训练和性能优化
  • uniapp -- 列表垂直方向拖拽drag组件
  • 【橘子大模型】关于PromptTemplate