Ollama:本地运行大模型【含UI界面】
文章目录
- Ollama 简介
- 安装 ollama
- Windows 安装
- Docker 安装
- 其它平台安装
- 支持的模型
- 模型清单
- 模型参数与运行内存
- 快速启动 llama 模型
- llama 模型介绍
- 运行 llama3.1 模型
- 通过 HTTP API 访问
- ollama 命令
- 语法
- 常用示例
- 特别示例
- 自定义模型
- 创建 Modelfile
- 创建模型并运行
- 集成 Web 页面
- Open WebUI 简介
- Open WebUI Docker 安装
- 参考
Ollama 简介
🚀 官网:https://ollama.com/
👉 github:https://github.com/ollama/ollama 最新版本:v0.3.9 发布于 2024/09/01
✅ 简介:一个先进的 AI 工具,运行用户在本地电脑上设置和运行大语言模型。
- 本地运行大语言模型,支持多种大语言模型
- 支持使用 Modelfile 自定义大模型【类似于 Dockerfile】
- 提供 HTTP API 支持【类似于命令行的功能】
- 多平台兼容性:Windows、Linux、macOS、Docker
- 支持 AMD、NVIDIA 显卡
安装 ollama
ollama 支持在 Windows (preview)、Linux、macOS、Docker