[已解决]dify设置本地模型deepseek报错[Error 111]
原因:
总之,要将ollama默认的Tcp端口11434,暴露到网络中。
官方解决方案:https://docs.dify.ai/zh-hans/learn-more/use-cases/private-ai-ollama-deepseek-dify
如果你看不到,可以参考下面的内容。我用官方的指南也没能解决我的问题,最终是依靠deepseek解决的。
1.确保ollama服务启动并正常
2. 暴露TCP端口11434
3. 设置Dify中ollama模型的信息
我并没有按照下图去做。
而是,直接在Dify设置中,按照如下设置。关键是url:http://host.docker.internal:11434
4. 重启ollama
打开一个Powershell去重启,用cmd似乎无法运行命令。
$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve
当然,将OLLAMA_HOST直接设置在环境变量中,也可以。
总结
在这个过程中,重启了几次ollama,但没重启过Dify。最终结果:
置顶会多一个Ollama模型,也就是我们设置的deepseek-r1:32b模型。
然后就可以看到模型了:
接下来就需要去验证,本地模型好不好用。
如果效果差强人意,我们还可以直连deepseek R1模型,毕竟有免费额度可用一段时间,价格也不算贵,DeepSeek属实是把价格打下来了。几块钱可以用挺久的。
目前价格: