当前位置: 首页 > news >正文

[大模型]本地离线运行openwebui+ollama容器化部署

本地离线运行Openweb-ui ollama容器化部署

  • 说明
  • 安装
    • internet操作
    • 内网操作
  • 问题
    • 线程启动错误
    • 最终命令
  • 总结

说明

最近公司有一个在内网部署一个离线大模型的需求,网络是离线状态,服务器有A100GPU,一开始是想折腾开源chatGML4大模型,因为使用过gml3,所以想着部署gml4应该不难。于是把模型和程序下载好,把模型导入到内网…发现不能使用网页版运行,只能使用客户端运行,用自带网页需要依赖gradio组件,该组件又需要联网…好吧,如果您知道怎么离线运行,请视我无知…于是查询,更换了一种更便捷的方案部署。Open-webui+ollama的方案,Open-webui是网页界面服务,ollama是大模型运行框架,支持多种大模型,只需要选择切换就能切换不同模型运行了。开整!

安装

internet操作

这里使用docker镜像容器的方式安装,简化部署和运行。
1.拉取镜像,这里虽然可以分别拉取Open-webui和ollama镜像,但是我仍然推荐你拉取一个镜像就好了。

docker pull ghcr.io/open-webui/open-webui:ollama

拉取完这个镜像,run起来就算部署完了。这个镜像是包含两个组件,并且是openwebui官网提供说明的下载地址。可能会有点慢,但是实测是可以拉取下来的。
2.run起镜像来。

docker run -d -p 3000:8080 --gpus=all -v /raid/Test/ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart

http://www.mrgr.cn/news/83304.html

相关文章:

  • Spring——自动装配
  • asp.net core webapi 并发请求时 怎么保证实时获取的用户信息是此次请求的?
  • 为AI聊天工具添加一个知识系统 之26 资源存储库和资源管理器
  • Java 模板变量替换——字符串替换器(思路Mybatis的GenericTokenParser)
  • GESP202312 四级【小杨的字典】题解(AC)
  • iOS 本地新项目上传git仓库,并使用sourceTree管理
  • 全解:Redis RDB持久化和AOF持久化
  • C#里使用libxl里演示输出日期和读取日期数据的例子
  • 30天开发操作系统 第 12 天 -- 定时器 v1.0
  • 【k8s】scc权限 restricted、anyuid、privileged
  • ARIMA模型 (AutoRegressive Integrated Moving Average) 算法详解与PyTorch实现
  • 欧拉公式和傅里叶变换
  • [java基础-集合篇]LinkedList源码粗析
  • PySide6 Qt for Python Qt Quick参考网址
  • 浅尝Appium自动化框架
  • CAPL概述与环境搭建
  • python学opencv|读取图像(二十九)使用cv2.getRotationMatrix2D()函数旋转缩放图像
  • 鸿蒙UI(ArkUI-方舟UI框架)
  • 【MySQL】数据库可视化工具,MySQL命令
  • ue5 按下ctrl,角色蹲下/解除蹲下。添加角色蹲伏动画。动画蓝图和状态机,状态,状态别名
  • kubernetes第六天
  • 01-51单片机LED与独立按键
  • 理解Unity脚本编译过程:程序集
  • .NET framework、Core和Standard都是什么?
  • python学习笔记—16—数据容器之元组
  • 微信小程序——创建滑动颜色条