当前位置: 首页 > news >正文

跟着AI 学AI开发二,本地部署自己的Chat GPT

这里要安装的是Open Web UI ,用一张架构图说明AI 前端与后端的关系。

之前的Python 的方法已经做过多次介绍,这里不做赘述。 

顺序:1,Ollama。 2,Docker。 3,Open WebUI。

  1. Ollama 安装下载地址:Ollama,

直接安装即可,安全成功之后别忘了安装大语言模型。

2. 安装Docker

安装地址: https://www.docker.com/,

在打开的页面里直接单击: Download Docker Desktop 即可安装。

附注:由于有人问Docker,这里做点延申,

Docker 是一个开源的平台,用于开发、交付和运行应用程序。它通过使用**容器(Container)**技术,使应用程序可以在任何环境中一致地运行,无论是在开发者的笔记本电脑上,还是在生产服务器上。容器是一种轻量级、可移植的虚拟化形式,能够将应用程序和它的所有依赖项打包在一起,从而确保运行环境的独立性和一致性。

Docker 的核心概念

  1. 镜像(Image):

    • Docker 镜像是一个轻量级、独立的、可执行的软件包,其中包含运行应用程序所需的所有内容(代码、运行时、库、环境变量等)。
    • 类似于一个模板,用于创建 Docker 容器。
  2. 容器(Container):

    • 容器是镜像的一个运行实例,是一个隔离的环境,确保应用程序的运行不会受到外界的干扰。
    • 容器可以轻松启动、停止、删除,并且运行非常高效。
  3. Docker 引擎(Docker Engine):

    • Docker 的核心组件,用于构建、运行和管理容器。
  4. Docker Hub:

    • 一个官方的在线仓库,存储和共享 Docker 镜像。
    • 开发者可以从 Docker Hub 下载现成的镜像,也可以上传自己的镜像。

Docker 的主要优势

  1. 跨平台一致性:

    • "一次构建,到处运行"。Docker 容器在任何支持 Docker 的系统上都能以相同的方式运行。
  2. 轻量级:

    • Docker 容器使用共享的主机操作系统,比传统虚拟机更加高效,占用资源更少。
  3. 快速部署:

    • 使用镜像启动容器的速度非常快,几乎是即时的。
  4. 隔离性:

    • 每个容器是独立的,拥有自己的文件系统、网络和运行时环境,互相隔离,避免冲突。
  5. 高效的资源利用:

    • 多个容器可以共享主机操作系统资源,减少硬件开销。

Docker 的工作流程

  1. 开发阶段:开发者通过编写 Dockerfile 来定义应用程序的构建过程。
  2. 构建镜像:使用 Docker 命令构建镜像,例如:docker build -t myapp .
  3. 运行容器:从镜像启动容器,例如:docker run -d myapp
  4. 分发镜像:将镜像上传到 Docker Hub 或其他镜像仓库,供团队或生产环境使用。

Docker 的典型应用场景

  1. 开发环境标准化:

    • 为团队创建一致的开发和测试环境。
  2. 微服务架构:

    • 每个微服务运行在自己的容器中,简化部署和扩展。
  3. 持续集成与持续交付(CI/CD):

    • 通过容器化,确保代码从开发到生产环境的流畅过渡。
  4. 快速实验:

    • 试验新技术或框架,而不会影响主机系统。
  • 安装步骤与方法:

Dockers,安装后的效果是:在命令行执行 Docker,

它的 url 是 localhost:3000,

开始使用:当发生选择模型,未找到结果时,要加载它的大语言模型,例如在命令行录入 ollama run lama3。。。。就会有模型共提供选择。

  • 确认 ollama 安装成功

  • 安装Open web UI 

打开: https://github.com/open-webui/open-webui 后下面有安装说明,这里要仔细看。

运行代码和结果: 

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  • To run Open WebUI with Nvidia GPU support,

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

以上三个步骤完成之后:测试效果如下:


http://www.mrgr.cn/news/80668.html

相关文章:

  • 如何在Windows与Linux(Ubuntu/CentOS)之间配置SSH免密登录
  • Audiocraft智能音频和音乐生成工具部署及使用
  • HCIA-Access V2.5_4_1_1路由协议基础_IP路由表
  • 旅游创业,千益畅行,开启新的旅游模式!
  • 编辑器kindeditor
  • URL的概念与格式
  • 解决新安装CentOS 7系统mirrorlist.centos.org can‘t resolve问题
  • NLP-Huggingface基本使用方法
  • 网络攻与防
  • Javascript面试手撕常见题目(回顾一)
  • linux centos 7 安装 mongodb7
  • vue字母划分选择城市组件(国内国际)
  • docker(wsl)命令 帮助文档
  • 英飞源嵌入式面试题及参考答案
  • 蓝桥杯算法训练 黑色星期五
  • 人工智能在VR展览中扮演什么角色?
  • ios 混合开发应用白屏问题
  • configure错误:“C compiler cannot create executables“
  • java error(2)保存时间带时分秒,回显时分秒变成00:00:00
  • 高并发 - 2.线程池
  • 大模型系列4--开源大模型本地部署到微调(WIP)
  • ubuntu系统版本安装docker容器
  • Kubeadm+Containerd部署k8s(v1.28.2)集群(非高可用版)
  • windows11 24H2 CSOL 闪退问题解决办法
  • Java通过反射破坏单例模式
  • Compose IO