当前位置: 首页 > news >正文

ubuntu部署ollama+deepseek+open-webui

ubuntu部署ollama+deepseek+open-webui

全文-ubuntu部署ollama+deepseek+open-webui

大纲

  1. Ollama部署
    • 安装Ollama:使用命令apt install curlcurl -fsSL https://ollama.com/install.sh | sh ollama-v
    • 网络访问配置:设置环境变量OLLAMA_HOST=0.0.0.0:11434,并刷新和重启服务
    • 修改模型默认存储目录:设置环境变量OLLAMA_MODELS=/xxx/models,并刷新和重启服务
  2. Deepseek模型部署
    • 在线安装:使用命令ollama pull deepseek-r1:1.5b
    • 离线导入:从Ollama官网下载Deepseek-r1,模型描述文件目录为/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library,模型目录为/usr/share/ollama/.ollama/models/blobs
    • 模型运行测试:使用命令ollama list查看已安装模型,使用ollama run deepseek-r1:1.5b进行控制台交互
    • Ollama API调用方式:使用Curl命令调用API,例如curl http://<ip>:11434/api/chat
  3. Open-WebUI部署
    • 依赖环境:包含Python3.11、数据库等
    • Docker部署:运行官方推荐的Docker命令,例如docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always <镜像名>
    • 网络设置失败处理:在低版本操作系统和内核中,网络模式改为--network host
    • 配置Ollama模型连接:在Open-WebUI中设置Ollama的URL连接,配置完成后选择模型进行对话
原文地址:https://blog.csdn.net/weixin_42112831/article/details/146991395
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mrgr.cn/news/97273.html

相关文章:

  • (五)智能体与工具协同——打造智能对话的超级助手
  • (四)数据检索与增强生成——让对话系统更智能、更高效
  • (三)链式工作流构建——打造智能对话的强大引擎
  • Nginx介绍及使用
  • Java 类型转换和泛型原理(JVM 层面)
  • 19.go日志包log
  • MessageQueue --- RabbitMQ WorkQueue and Prefetch
  • (二)RestAPI 毛子(Tags——子实体/异常处理/验证/Search/Sort功能)
  • ROS Master多设备连接
  • 【计算机网络】Linux配置SNAT策略
  • Kubernetes 集群搭建(一):k8s 从环境准备到 Calico 网络插件部署(1.16版本)
  • T113s3远程部署Qt应用(dropbear)
  • 通过枚举、AOP、注解、反射填充公共字段
  • 在线记事本——支持Markdown
  • JavaScript基础--01-JS简介
  • 数据蒸馏:Dataset Distillation by Matching Training Trajectories 论文翻译和理解
  • 【Python基础】循环语句(2215字)
  • DDPM 做了什么
  • Go语言-初学者日记(七):用 Go 写一个 RESTful API 服务!
  • JavaScript基础--09-流程控制语句:选择结构(if和switch)