ubuntu部署ollama+deepseek+open-webui
ubuntu部署ollama+deepseek+open-webui
全文-ubuntu部署ollama+deepseek+open-webui
大纲
- Ollama部署
- 安装Ollama:使用命令
apt install curl
和curl -fsSL https://ollama.com/install.sh | sh ollama-v
- 网络访问配置:设置环境变量
OLLAMA_HOST=0.0.0.0:11434
,并刷新和重启服务 - 修改模型默认存储目录:设置环境变量
OLLAMA_MODELS=/xxx/models
,并刷新和重启服务
- 安装Ollama:使用命令
- Deepseek模型部署
- 在线安装:使用命令
ollama pull deepseek-r1:1.5b
- 离线导入:从Ollama官网下载Deepseek-r1,模型描述文件目录为
/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library
,模型目录为/usr/share/ollama/.ollama/models/blobs
- 模型运行测试:使用命令
ollama list
查看已安装模型,使用ollama run deepseek-r1:1.5b
进行控制台交互 - Ollama API调用方式:使用Curl命令调用API,例如
curl http://<ip>:11434/api/chat
- 在线安装:使用命令
- Open-WebUI部署
- 依赖环境:包含Python3.11、数据库等
- Docker部署:运行官方推荐的Docker命令,例如
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always <镜像名>
- 网络设置失败处理:在低版本操作系统和内核中,网络模式改为
--network host
- 配置Ollama模型连接:在Open-WebUI中设置Ollama的URL连接,配置完成后选择模型进行对话
原文地址:https://blog.csdn.net/weixin_42112831/article/details/146991395
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mrgr.cn/news/97273.html 如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mrgr.cn/news/97273.html 如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!