当前位置: 首页 > news >正文

windows平台本地部署DeepSeek大模型+Open WebUI网页界面(可以离线使用)

环境准备:

确定部署方案请参考:DeepSeek-R1系列(1.5b/7b/8b/32b/70b/761b)大模型部署需要什么硬件条件-CSDN博客

根据本人电脑配置:windows11 + i9-13900HX+RTX4060+DDR5 5600 32G内存

确定部署方案:DeepSeek-R1:7b + Ollama + Open WebUI

1. 安装 Ollama

        Ollama 是一个开源工具,旨在简化大型语言模型(LLM)的本地部署和运行。

Ollama下载地址:Download Ollama on Windows

        在这里我选择下载windows平台软件,然后双击安装即可。安装完成后,在开始菜单->windows工具中打开 Windows PowerShell ,输入ollama 显示如下,


http://www.mrgr.cn/news/90131.html

相关文章:

  • git submodule使用
  • 【RabbitMQ】RabbitMQ的下载安装及使用
  • 【Vue】在Vue3中使用Echarts的示例 两种方法
  • 律所录音证据归集工具:基于PyQt6与多线程的自动化音频管理解决方案
  • 【DeepSeek】DeepSeek概述 | 本地部署deepseek
  • c语言——网络编程【多路文件IO实现 poll、epoll模型总结】内附代码
  • 大语言模型RAG,transformer和mamba
  • 使用LLaMA Factory踩坑记录
  • SQL自学,mysql从入门到精通 --- 第 7 天,表的联合
  • 机器学习 - 线性回归(最大后验估计)
  • WEB小项目——鼠标划入丝滑显示下划线
  • Wpf美化按钮,输入框,下拉框,dataGrid
  • SpringBoot3 + Jedis5 + Redis集群 如何通过scan方法分页获取所有keys
  • zy.21
  • DeepSeek从入门到精通:全面掌握AI大模型的核心能力
  • GPU — 8 卡 GPU 服务器与 NVLink/NVSwitch 互联技术
  • 攻防世界32 very_easy_sql【SSRF/SQL时间盲注】
  • 【MQ】Spring3 中 RabbitMQ 的使用与常见场景
  • 【MQ】RabbitMQ 高可用延时功能的探究
  • 0 Rust与Qt集成实践指南(CXX-Qt)