当前位置: 首页 > news >正文

Ubuntu+deepseek+Dify本地部署

1.deepseek本地部署

在Ollama官网下载

需要魔法下载

curl -fsSL https://ollama.com/install.sh | sh

在官网找到需要下载的deepseek模型版本

 复制命令到终端

ollama run deepseek-r1:7b

停止ollama服务

sudo systemctl stop ollama # sudo systemctl stop ollama.service

开启ollama服务

 sudo systemctl start ollama.service

查看ollama服务状态

sudo systemctl start ollama.service

2.Dify本地部署

安装好docker

git clone https://github.com/langgenius/dify.git
cd dify
cd docker
cp .env.example .env
#########
#在.env文件的最后添加
#启用自定义模型
CUSTOM_MODEL_ENABLED=true
#指定Ollama的API地址(根据部署环境调整IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434OLLAMA_API_BASE_URL=host.docker.internal:11434
########
docker compose up -d

此处若报错

+] Running 9/9✘ sandbox Error       Cannot connect to the Docker daemon at unix:///var...                3.8s ✘ api Error           Cannot connect to the Docker daemon at unix:///var/run...            3.8s ✘ worker Error        Cannot connect to the Docker daemon at unix:///var/...               3.8s ✘ weaviate Error      Cannot connect to the Docker daemon at unix:///va...                 3.8s ✘ web Error           Cannot connect to the Docker daemon at unix:///var/run...            3.8s ✘ db Error            Cannot connect to the Docker daemon at unix:///var/run/...           3.8s ✘ ssrf_proxy Error    Get "https://registry-1.docker.io/v2/": proxyco...                   3.8s ✘ redis Error         Get "https://registry-1.docker.io/v2/": proxyconnect...              3.8s ✘ plugin_daemon Error Cannot connect to the Docker daemon at unix:...                      3.8s 
Error response from daemon: Get "https://registry-1.docker.io/v2/": proxyconnect tcp: dial tcp 11.0.250.2:10023: connect: connection refused

配置代理下载

systemctl edit docker.service
[Service]
Environment="HTTP_PROXY=http://ip:port/"
Environment="HTTPS_PROXY=http://ip:port/"
Environment="NO_PROXY=localhost,127.0.0.0/8"

访问http://localhost/install 如果服务器没有界面可在另外浏览器访问http://服务器IP/install

登陆后进入界面点击右上角设置

点击模型供应商下滑找到Ollama

点击添加模型

服务器终端输入ollama list找到添加的模型名称拷贝输入

基础URL填入可能报错

2f0>: Failed to establish a new connection: [Errno 111] Connection refused'))

解决办法

systemctl edit ollama.service

对于每个环境变量,在 [Service] 部分下添加一行 Environment

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
systemctl daemon-reload
systemctl restart ollama

添加模型以及基础的URL之后,在右上角的系统设置中添加基本模型,找不到就刷新页面重试

点击创建空白应用

输入应用名称并点击创建

在界面中进行对话

打造本地的RAG

选择bge-m3 或者 nomic-embed-text模型

在终端执行命令

ollama pull bge-m3 #ollama pull nomic-embed-text

下载完毕后在模型供应商中添加嵌入模型

保存后出现在系统模型设置里面添加模型,若没有出现刷新页面即可

点击知识库

点击创建知识库

上传文档后点击下一步,默认设置不用改,点击保存并处理即可

出现一下界面创建完成

点击工作室和聊天助手

点击上下文添加按钮添加文档

在对话框提问即可

参考链接

https://zhuanlan.zhihu.com/p/22000177368


http://www.mrgr.cn/news/92444.html

相关文章:

  • Python在实际工作中的运用-通用格式CSV文件自动转换XLSX
  • 基于Kerberos认证对接华为云Elasticsearch
  • JVM 简单内存结构及例子
  • k8s中pod的调度策略之pod的亲和性调度与反亲和性调度 一文搞懂 k8s中创建的pod如何调度?
  • 蓝桥杯练习代码
  • 【最大通过数——二分】
  • 机试刷题_NC17 最长回文子串【python】
  • 细说STM32F407单片机RS485收发通信实例及调试方法
  • 模拟算法.
  • Mellanox的LAG全称是什么?网卡的创建机制如何?(Link Aggregation Group 链路聚合组)
  • 在nodejs中使用ElasticSearch(三)通过ES语义检索,实现RAG
  • 本地部署阿里的万象2.1文生视频(Wan2.1-T2V-1.3B)模型
  • 仿真环境下实现场景切换、定位物体和导航行走
  • 指标异动拆解:数据分析师的实战指南
  • Windows 图形显示驱动开发-WDDM 3.2-自动显示切换(七)
  • 如何搭建起成熟的团队知识文档管理系统
  • 15.5 基于 RetrievalQA 的销售话术增强系统实战:构建智能销售大脑
  • AI知识架构之神经网络
  • 销售成交九步思维魔方
  • C语言文件操作深度解析:从基础到实践