当前位置: 首页 > news >正文

[已解决]dify设置本地模型deepseek报错[Error 111]

原因:
在这里插入图片描述
总之,要将ollama默认的Tcp端口11434,暴露到网络中。

官方解决方案:https://docs.dify.ai/zh-hans/learn-more/use-cases/private-ai-ollama-deepseek-dify

如果你看不到,可以参考下面的内容。我用官方的指南也没能解决我的问题,最终是依靠deepseek解决的。

1.确保ollama服务启动并正常

在这里插入图片描述

2. 暴露TCP端口11434

在这里插入图片描述

3. 设置Dify中ollama模型的信息

我并没有按照下图去做。
在这里插入图片描述
而是,直接在Dify设置中,按照如下设置。关键是url:http://host.docker.internal:11434
在这里插入图片描述

4. 重启ollama

打开一个Powershell去重启,用cmd似乎无法运行命令。

$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve

在这里插入图片描述
当然,将OLLAMA_HOST直接设置在环境变量中,也可以。

总结

在这个过程中,重启了几次ollama,但没重启过Dify。最终结果:
置顶会多一个Ollama模型,也就是我们设置的deepseek-r1:32b模型。
在这里插入图片描述
然后就可以看到模型了:
设置本地模型成功
接下来就需要去验证,本地模型好不好用。

如果效果差强人意,我们还可以直连deepseek R1模型,毕竟有免费额度可用一段时间,价格也不算贵,DeepSeek属实是把价格打下来了。几块钱可以用挺久的。
目前价格:
右侧列是R1


http://www.mrgr.cn/news/92417.html

相关文章:

  • 自动驾驶之BEVDet
  • Redis分布式缓存面试题
  • 鸿蒙OS特点对测试的影响
  • Vulhub靶机 Apache APISIX Dashboard RCE(CVE-2021-45232)(渗透测试详解)
  • 每日一题——字母异位词分组
  • 最好的Git实践指南(Windows/Linux双系统详解)
  • Javase 笔记(自用)
  • uniapp h5支付宝支付
  • C++学习之C概述、数据类型、进制转换与数据存储
  • 性能测试项目实战
  • MFC笔记:本专栏课件
  • WIn32 笔记:本专栏课件
  • Rust 驱动的 Python 工具革命:Ruff 和 uv 与传统工具的对比分
  • deepseek 学习资料整理
  • 从零开始用react + tailwindcs + express + mongodb实现一个聊天程序(三) 实现注册 登录接口
  • python面向对象
  • linux--多进程开发(5)--进程
  • ROFORMER: ENHANCED TRANSFORMER WITH ROTARY POSITION EMBEDDING
  • github 推送的常见问题以及解决
  • IP----访问服务器流程