当前位置: 首页 > news >正文

【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)

在这里插入图片描述

【作者主页】Francek Chen
【专栏介绍】 ⌈ ⌈ 人工智能与大模型应用 ⌋ ⌋ 人工智能(AI)通过算法模拟人类智能,利用机器学习、深度学习等技术驱动医疗、金融等领域的智能化。大模型是千亿参数的深度神经网络(如ChatGPT),经海量数据训练后能完成文本生成、图像创作等复杂任务,显著提升效率,但面临算力消耗、数据偏见等挑战。当前正加速与教育、科研融合,未来需平衡技术创新与伦理风险,推动可持续发展。

文章目录

    • 前言
    • 一、为什么需要本地部署大模型
    • 二、DeepSeek R1简介
      • DeepSeek-R1 Models
      • DeepSeek-R1-Distill Models
    • 三、在本地计算机部署DeepSeek R1
      • (一)安装Ollama
      • (二)下载DeepSeek R1
      • (三)运行DeepSeek R1
      • (四)安装Python
      • (五)安装Microsoft Visual C++ Build Tools
      • (六)使用Open WebUI增强交互体验
      • (七)每次使用大模型的步骤
      • (八)取消Ollama的开机自动启动
    • 小结


前言

Homepage

2025年1月,中国春节期间,DeepSeek爆火,称为全球最炙手可热的大模型。DeepSeek一路 “狂飙”,在美国科技界和美股市场掀起惊涛骇浪,1月27日,美国三大股指开盘即暴跌,英伟达、微软、谷歌母公司Alphabet、Meta等美国主要科技股均遭遇股市地震,其中英伟达跌近17%,单日市值蒸发约6000亿美元,创美股最高纪录。

在这里,我们以DeepSeek为例,详细阐述如何在个人本地计算机上部署这一引人注目的大模型。整个过程虽然充满挑战,但借助豆包大模型的强大支持,我们成功克服了每一个遇到的难题,确保了安装流程的顺利进行。值得一提的是,我所使用的设备是一台搭载Windows10操作系统的笔记本电脑,这证明了即便是在日常使用的普通硬件环境下,部署大模型同样成为可能。实际上,对于想要部署DeepSeek R1最小版本的读者来说,硬件要求并不苛刻。仅需确保电脑拥有8GB的内存和至少30GB的可用磁盘空间,便能轻松满足安装需求。这一门槛的设定,大大降低了技术门槛,使得更多对AI技术充满好奇和热情的用户能够参与其中,亲身体验大模型的魅力。

我们特别想强调的是,部署DeepSeek R1大模型的过程并不需要读者具备深厚的计算机基础知识,也无需掌握复杂的编程技能。只要您熟悉Windows操作系统的基本操作,按照本文提供的详细步骤,按部就班地执行每一步操作,就能顺利完成整个部署流程。这不仅极大地拓宽了技术的受众范围,也让AI技术的普及和应用变得更加触手可及。

通过这样一次简单而富有成效的尝试,我们深刻体会到,技术的力量在于其普及性和易用性。DeepSeek R1大模型的本地化部署,正是这一理念的生动体现。它让我们看到,即便是在日常生活中,AI技术也能以更加亲切和便捷的方式融入我们的世界,为我们的生活和工作带来前所未有的便利和惊喜。

一、为什么需要本地部署大模型

在当今这个数字化时代,DeepSeek、文心一言、豆包、Kimi等在线大模型以其卓越的功能性和广泛的应用场景,确实为我们的日常生活和工作带来了极大的便利。这些云端部署的AI巨擘,凭借强大的数据处理能力和先进的算法设计,能够轻松应对各种复杂任务,满足用户多样化的需求。然而,在享受云端服务带来的便捷之时,我们也不应忽视个人数据隐私保护的重要性。正是在这一背景下,本地部署大模型的优势逐渐凸显出来。

相较于直接使用在线大模型,本地部署大模型在多个方面展现出了其独特的魅力:

  1. 数据隐私与安全性方面,本地部署模型确保了所有数据的运算和存储均在本地完成,无需上传至云端。这一特性从根本上避免了数据在传输和云端存储过程中可能遭遇的隐私泄露风险。同时,用户能够完全掌控数据的使用和存储,确保数据不被未经授权的第三方访问或滥用。此外,本地部署模型还支持访问权限控制等隐私保护机制,进一步增强了数据的安全性。
  2. 定制化与灵活性方面,本地部署模型赋予了用户极大的自由度。用户可以根据自己的实际需求对模型进行自定义知识库训练,从而显著提升模型在特定领域的性能。此外,用户还可以根据业务需求灵活调整模型的参数和功能,以满足不同场景下的个性化需求。值得一提的是,许多开源模型都允许用户进行无限制的微调或集成到自己的项目中,这为本地部署提供了更多的可能性。
  3. 离线与高效使用方面,本地部署模型的优势同样显著。一旦模型部署在本地设备上,用户就无需依赖网络连接即可随时随地进行访问和使用。这对于经常旅行或处于网络不稳定环境中的用户来说无疑是一个巨大的福音。此外,本地部署模型还避免了在线模型可能因服务器繁忙而导致的服务中断问题,从而提升了用户的使用体验。
  4. 成本与资源优化方面,本地部署模型也展现出了其经济性和高效性。从长期来看,本地部署模型的成本通常比使用云服务更为经济,尤其对于高频调用场景而言更是如此。同时,本地部署模型对硬件资源的要求相对较低,可以在较少的GPU或高级CPU集群上高效运行。这不仅降低了硬件成本,还提高了资源的利用效率。
  5. 最后,在避免使用限制方面,本地部署模型同样具有显著优势。由于模型部署在本地设备上,用户无需担心未来可能出现的商业化限制或费用上涨等问题。这意味着用户可以永久免费地使用这些模型,而不受任何外部因素的影响。

综上所述,本地部署大模型在数据隐私保护、定制化需求满足、离线高效使用、成本与资源优化以及避免使用限制等方面均展现出了其独特的优势。因此,在享受云端服务带来的便捷之时,我们也应充分考虑个人数据隐私保护的重要性,并根据实际需求选择适合的模型部署方式。

二、DeepSeek R1简介

在探讨大模型技术的演进历程时,我们不得不提及一个关键事实:大模型的训练是一个资源密集型的庞大工程。这不仅体现在时间成本上,更在于它需要巨额的资金投入,比如构建价值上亿元的计算机集群,专为大模型的训练提供强大的算力支持。这样的投入规模,对于个人而言,无疑是难以承受的。然而,一旦大模型训练完成,其部署阶段的计算资源需求便会大幅下降,尽管仍然不可忽视。在过去,市场上的大模型产品往往被视为“贵族”的象征,它们占据着技术的高地,对硬件配置有着近乎苛刻的要求。大量的GPU、高端的计算机硬件,这些都是运行这些高端大模型不可或缺的要素。对于普通个人计算机而言,运行大模型几乎是一项不可能完成的任务。但这一切,在DeepSeek R1大模型的发布后,发生了翻天覆地的变化。

2025年1月20日,杭州深度求索公司推出了其自主研发的DeepSeek R1大模型,这是一款基于深度学习的推荐系统模型,专为处理推荐任务而生,如商品推荐、内容推荐等。DeepSeek R1的发布,标志着大模型产品正式步入了“平民”时代。它以其简洁高效的模型架构,摒弃了不必要的复杂结构和冗余计算,在确保模型性能的同时,大大降低了对计算资源的需求。这意味着,即使是普通的个人计算机,甚至是手机等便携式设备,也能够轻松运行DeepSeek R1大模型。

DeepSeek R1之所以能够实现这一壮举,离不开其先进的量化压缩技术。这项技术通过对模型参数进行压缩存储和计算,显著减少了模型所需的存储空间和计算量,使得模型在本地计算机上的运行变得更为流畅。此外,DeepSeek R1还展现出了对硬件资源的极大友好性,它能够根据不同用户的计算机硬件配置,智能地选择合适的模型版本。无论是入门级设备、进阶设备还是高性能设备,都能找到适合自己的DeepSeek R1版本。

值得一提的是,DeepSeek R1对低配置电脑的支持尤为出色。即使是没有独立显卡的低配置电脑,只要拥有足够的空余硬盘空间(如部署6710亿参数的大模型需要至少1TB的空余空间),也能顺利完成DeepSeek R1的部署。这一特性无疑为更多用户打开了使用大模型的大门,使得大模型技术更加普及和亲民。除了硬件友好性外,DeepSeek R1还满足了用户对数据隐私和定制需求的关注。本地部署的方式确保了所有数据运算都在本地进行,避免了数据传输和存储在云端可能带来的隐私泄露风险。同时,用户还可以根据自己的需求对DeepSeek R1进行自定义知识库训练,进一步提升模型在特定领域的性能。这种灵活性和定制性使得DeepSeek R1更加贴合用户的实际需求,为用户提供了更加个性化的服务体验。

综上所述,DeepSeek R1大模型的发布不仅标志着大模型产品进入了“平民”时代,更以其简洁高效的模型架构、先进的量化压缩技术、对硬件资源的友好性以及满足用户数据隐私和定制需求的能力成为了市场上的一颗璀璨明珠。随着DeepSeek R1的广泛应用和普及,我们有理由相信大模型技术将在未来发挥更加重要的作用并为社会带来更多的价值。

我们介绍了我们的第一代推理模型DeepSeek-R1-zero和DeepSeek-R1。DeepSeek-R1-Zero是一个通过大规模强化学习(RL)训练的模型,没有监督微调(SFT)作为初步步骤,在推理方面表现出卓越的性能。有了强化学习,DeepSeek-R1-Zero自然就出现了许多强大而有趣的推理行为。然而,DeepSeek-R1-Zero遇到了诸如无休止的重复、可读性差和语言混合等挑战。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它在强化学习之前包含了冷启动数据。DeepSeek-R1在数学、代码和推理任务方面的性能可与OpenAI-o1媲美。为了支持研究社区,目前开源了DeepSeek-R1-Zero,DeepSeek-R1,以及基于Llama和Qwen的DeepSeek-R1提炼的六个密集模型。DeepSeek-R1-Distill-Qwen-32B在各种基准测试中优于OpenAI-o1-mini,为密集模型实现了新的最先进的结果。

在这里插入图片描述

图1 AI模型在多项任务中的表现对比

DeepSeek以开源的特性和极低的成本,在数学、编程、自然语言推理等任务上表现出色,性能不亚于美国顶级AI模型。特别是DeepSeek-R1,通过创新性运用强化学习技术,以极少量标注数据实现了推理能力的跨越式提升。在数学、编程、语言理解等核心能力上,完美比肩OpenAI-o1。这一系列创新成果不仅得到了行业的广泛认可,也让世界看到了中国AI技术的崛起之势。

DeepSeek-R1 Models

Model#Total Params#Activated ParamsContext LengthDownload
DeepSeek-R1-Zero671B37B128K🤗 HuggingFace
DeepSeek-R1671B37B128K🤗 HuggingFace

DeepSeek-R1- zero和DeepSeek-R1是基于DeepSeek-V3-Base训练的。关于模型架构的更多细节,请参考DeepSeek-V3存储库。

DeepSeek-R1-Distill Models

ModelBase ModelDownload
DeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7B🤗 HuggingFace
DeepSeek-R1-Distill-Llama-8BLlama-3.1-8B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-14BQwen2.5-14B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-32BQwen2.5-32B🤗 HuggingFace
DeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-Instruct🤗 HuggingFace

DeepSeek-R1-Distill模型基于开源模型进行微调,使用DeepSeek-R1生成的样本。稍微改变了它们的配置和标记器。

三、在本地计算机部署DeepSeek R1

本节将详细介绍如何通过Ollama和Open WebUI在本地计算机环境中部署DeepSeek R1大模型。本地计算机至少需要8GB内存和30GB剩余磁盘空间。

(一)安装Ollama

Ollama,一款开源的本地化大模型部署工具,正逐步成为开发者和企业构建私有化AI服务的得力助手。它以其强大的功能特性和便捷的操作体验,极大地简化了大型语言模型(LLM)的安装、运行和管理流程,让AI技术的应用门槛大大降低。

Ollama的核心优势在于其广泛的模型架构支持和与OpenAI兼容的API接口。这意味着,无论是哪种类型的大型语言模型,Ollama都能轻松应对,并提供与OpenAI相似的开发体验。这种兼容性不仅为开发者提供了更多的选择空间,还使得他们能够快速地将现有项目迁移到Ollama平台上,从而享受更加高效和安全的AI服务。

访问Ollama官网(https://ollama.com/), 点击“Download”(如图2所示),根据操作系统(Windows、macOS或Linux)下载自己操作系统对应的安装包(如图3所示),比如,Windows用户可以点击“Windows”图标,然后,点击“Download for Windows”下载安装包。需要注意的是,Ollama对Windows系统的支持有一定的版本要求。为了确保最佳的兼容性和稳定性,这里仅支持Windows10及其以上版本。

在这里插入图片描述

图2 Ollama官网下载

在这里插入图片描述

图3 下载Windows版本Ollama

下载完成以后,双击安装包文件“OllamaSetup.exe”完成安装。安装完成后,在Windows系统中,输入快捷键Win + R,再在弹出的对话框中输入“cmd”并回车,打开cmd命令行工具窗口,输入以下命令验证是否安装成功:

ollama --version

如果显示Ollama版本号,说明安装成功(如图4所示)。

在这里插入图片描述

图4 Ollama安装成功

(二)下载DeepSeek R1

Ollama,这一开源的本地化大模型部署工具,始终走在技术前沿,致力于为开发者提供最为便捷和高效的AI服务体验。近日,Ollama宣布已经第一时间支持了备受瞩目的DeepSeek R1大模型,这无疑为广大开发者带来了又一大利好。

现在,你只需访问Ollama的模型库页面:https://ollama.com/library/deepseek-r1,即可轻松下载DeepSeek R1大模型。这一举措不仅彰显了Ollama对新技术和新模型的敏锐洞察力,更体现了其致力于为用户提供最全面、最及时模型支持的决心。

在下载DeepSeek R1时,Ollama贴心地提醒用户要根据自己的显存情况选择对应的模型版本。这是因为不同版本的DeepSeek R1在参数规模和体积上存在差异,对计算机硬件的要求也有所不同。为了确保模型能够流畅运行,Ollama建议显存有限的用户优先选择参数较少、体积最小的1.5B版本(如图5所示)。这里的“B”是英文Billion的缩写,表示参数模型的参数规模,1.5B即意味着该版本的DeepSeek R1拥有15亿的参数量,足以满足大多数常规推荐任务的需求。当然,如果你的计算机配置较高,拥有充足的显存资源,那么你也可以选择参数更大的DeepSeek R1版本。这些版本在性能上更为强大,能够处理更为复杂和庞大的数据任务,为你的AI服务提供更为坚实的支撑。

在这里插入图片描述

图5 下载DeepSeek R1

Ollama的这一举措无疑为开发者提供了更多的选择和灵活性。无论你是初学者还是资深专家,都能在这里找到适合自己的DeepSeek R1版本,从而更加高效地搭建和运行自己的私有化AI服务。这一进步不仅推动了AI技术的普及和应用,更为整个行业的发展注入了新的活力和动力。

当然,我们可以不用到这个下载地址手动下载,只需要在cmd命令行窗口中执行如下命令就可以自动下载DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

该命令会自动下载并加载模型,下载时间取决于网络速度和模型大小。注意,如果在下载过程中,出现长时间停滞不动,可以敲击几次回车键。下载完成后,可以使用以下命令查看模型信息:

ollama list

该命令会列出本地已下载的模型及其状态。

(三)运行DeepSeek R1

可以在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

启动后,模型会进入交互模式,用户可以直接输入问题并获取回答。在交互模式下,可以测试DeepSeek R1的多种功能(如图6所示),例如:

  • 智能客服:输入常见问题,如“如何学习人工智能?”。
  • 内容创作:输入“请为我撰写一篇介绍沙县小吃的宣传文案”。
  • 编程辅助:输入“用Python绘制一个柱状图”。
  • 教育辅助:输入“解释牛顿第二定律”。

在这里插入图片描述

图6 测试DeepSeek R1的功能

cmd窗口关闭以后,DeepSeek R1大模型就停止运行了。下次再次使用时,需要再次在cmd窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

这种以命令行的方式与大模型进行对话,显然不太友好,因此,下面介绍如何通过浏览器来与大模型进行对话,这里就需要安装Open WebUI,由于Open WebUI依赖于Python环境,因此,在安装Open WebUI之前,需要首先安装Python环境(注意,只是需要安装Python环境,并不需要学习Python语言,读者可以完全不会Python语言,大模型的安装和使用过程完全不会用到Python语言)。如果读者没有使用浏览器与大模型对话的需求,可以不用学习下面的安装步骤。

(四)安装Python

Python,这一发音为[ˈpaɪθən]的编程语言,自其诞生以来,便以其独特的魅力和强大的功能吸引了无数编程爱好者的目光。1989年,荷兰计算机科学家吉多·范罗苏姆(Guido van Rossum)凭借其深厚的编程功底和前瞻性的视野,创造了这门面向对象的解释型高级编程语言。Python的诞生,不仅为编程世界增添了一抹亮色,更为后续的软件开发和人工智能领域的发展奠定了坚实的基础。

在Python的发展历程中,1991年无疑是一个重要的里程碑。这一年,Python的第一个公开发行版正式问世,标志着这门语言开始走向成熟并逐渐被业界所认可。然而,Python的真正崛起却是在2004年之后。随着互联网的蓬勃发展和大数据时代的到来,Python以其简洁易学的语法、强大的库支持和高效的数据处理能力,迅速成为了开发者们的新宠。其使用率呈现出了线性增长的态势,无论是在学术界还是工业界,Python都展现出了其无与伦比的竞争力。

值得一提的是,Python在编程语言领域的地位也得到了广泛的认可。在“TIOBE最佳年度语言”评选中,Python多次荣获殊荣。特别是在2021年,Python再次脱颖而出,荣获了这一称号,这也是Python第五次被评为“TIOBE最佳年度语言”。这一荣誉的获得,不仅是对Python技术实力和影响力的肯定,更是对其在推动编程技术进步和创新方面所做出的贡献的认可。

发展到今天,Python已经从一个初出茅庐的编程语言成长为了最受欢迎的程序设计语言之一。无论是在Web开发、数据分析、人工智能还是机器学习等领域,Python都展现出了其卓越的性能和广泛的应用前景。随着技术的不断进步和应用的不断拓展,我们有理由相信,Python将在未来的编程世界中继续发光发热,为人类的科技进步和文明发展贡献更多的力量。

Python可以用于多种平台,包括Windows、Linux和MacOS等。这里使用的Python版本是3.12.2(该版本于2024年2月6日发布),不要安装最新的3.13版本。请到Python官方网站下载(官网下载地址)与自己计算机操作系统匹配的安装包,比如,64位Windows操作系统可以下载python-3.12.2-amd64.exe。运行安装包开始安装,在安装过程中,要注意选中“Add python.exe to PATH”复选框,如图7所示,这样可以在安装过程中自动配置PATH环境变量,避免了手动配置的烦琐过程。

在这里插入图片描述

图7 下载Python安装包

然后,点击“Customize installation”继续安装,在选择安装路径时,可以自定义安装路径,比如设置为“C:\python312”,并在“Advanced Options”下方选中“Install Python 3.12 for all users”(如图8所示)。

在这里插入图片描述

图8 安装Python 3.12

安装完成以后,需要检测是否安装成功。可以打开Windows操作系统的cmd命令界面,然后执行如下命令打开Python解释器:

cd C:\python312
python

如果出现图9所示信息,则说明Python已经安装成功。

在这里插入图片描述

图9 Python 3.12安装成功

(五)安装Microsoft Visual C++ Build Tools

备注:对于不同的计算机环境,本步骤可能不是必须的,读者可以先跳到第6步继续操作,如果在下面的第6步遇到报错信息说“缺少Microsoft Visual C++ Build Tools”,可以再回到本步骤安装Microsoft Visual C++ Build Tools,然后再执行第6步的安装。

在安装Open WebUI之前,在有些计算机上可能还需要安装Microsoft Visual C++ Build Tools,否则,安装Open WebUI过程会报错。可以到如下网址下载该工具安装包vs_BuildTools.exe:https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/

下载完成以后,双击安装包文件vs_BuildTools.exe进行安装,在弹出的安装界面中(如图10所示),在界面左上角的“桌面应用和移动应用”下方,选中“使用C++的桌面开发”,然后,点击界面右下角的“安装”按钮,完成安装。

在这里插入图片描述

图10 安装Microsoft Visual C++ Build Tools

(六)使用Open WebUI增强交互体验

只要是支持Ollama的WebUI都可以,如Dify、AnythingLLM等。这里使用比较简单而且也是与Ollama结合比较紧密的Open WebUI。

可以在cmd命令行窗口中执行如下命令安装Open WebUI(这里使用国内清华大学的安装源镜像,这样可以加快安装速度):

pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple

注意,如果在下载和安装过程中,出现长时间停滞不动,可以敲击几次回车键。

可以执行如下命令启动Open WebUI服务:

open-webui serve

注意,如果启动以后,看到下面界面(如图11所示),说明还没有启动成功,需要继续等待。可以敲击几次回车。

在这里插入图片描述

图11 启动Open WebUI

在继续等待过程中,可能屏幕上会出现一些错误信息,里面会包含如下内容:

requests.exceptions.ConnectTimeout: (MaxRetryError("HTTPSConnectionPool(host='huggingface.co', port=443)

这个错误信息说明,启动过程连接Hugging Face Hub失败。Hugging Face Hub网站在国外,所以,经常会连接失败,所以,导致open-webui启动过程始终停止不动。

直到出现下面屏幕信息以后(如图12所示),才说明启动成功了。

在这里插入图片描述

图12 Open WebUI启动成功

启动后,在浏览器中访问http://localhost:8080/即可进入Open WebUI界面。如果网页显示“拒绝连接”,无法访问Open WebUI界面,一般是由于你的计算机开启了Windows防火墙,可以点击“开始”菜单按钮,在弹出的界面中,在顶部的搜索框中输入“安全中心”(如图13所示),打开“Windows安全中心”,点击左侧的“防火墙和网络保护”,在右侧的“域网络”中,关闭防火墙。

在这里插入图片描述

图13 关闭防火墙

Open WebUI支持中文界面,可以在设置中调整语言,默认是你的Windows系统当前正在使用的语言。首先,需要注册一个管理员账号(如图14所示),然后,就可以开始使用了。

在这里插入图片描述

图14 注册管理员账号

在Open WebUI界面中,选择已下载的DeepSeek R1模型,即可开始对话测试。如图15所示,可以在对话框中输入“请介绍如何学习人工智能”然后回车,页面就会给出DeepSeek R1的回答结果(如图16所示)。

在这里插入图片描述

图15 开启对话

在这里插入图片描述

图16 对话结果

(七)每次使用大模型的步骤

当我们本次使用完大模型时,只需要关闭各个cmd命令行窗口,大模型就停止运行了。下次要再次使用时,还是按照一样的步骤进行操作:

1. 启动大模型
新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

2. 启动Open WebUI

再新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动Open WebUI服务:

open-webui serve

3. 在浏览器中访问大模型

在浏览器中访问http://localhost:8080/即可进入Open WebUI界面,开始使用大模型。

(八)取消Ollama的开机自动启动

前面步骤已经完成了DeepSeek R1大模型的部署,但是,你会发现,每次计算机关机以后,再次启动计算机时,Ollama会开机自动启动,导致占用计算机系统资源。当我们平时不使用DeepSeek R1时,为了让Ollama不占用计算机系统资源,我们需要禁止Ollama开机自动启动。

在Windows10系统中,输入快捷键Win + R,再在弹出的对话框中输入“msconfig”并回车,进入如图17所示系统设置界面,点击“启动”选项卡,在这个选项卡中点击“打开任务管理器”,进入如图18所示的任务管理器界面,在界面中,找到“ollama.exe”,把鼠标指针放到“已启动”上面,单击鼠标右键,在弹出的菜单中点击“禁用”,然后关闭任务管理器界面。经过这样设置以后,Ollama以后就不会开机自动启动了。

在这里插入图片描述

图17 进入系统配置界面

在这里插入图片描述

图18 禁用ollama.exe

下次在使用DeepSeek时,仍然采用之前介绍的方法,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

小结

本文详细介绍了如何在本地计算机上部署DeepSeek R1大模型,主要针对普通用户和开发者,提供了一个简便的安装流程,并强调了本地部署大模型的优势。首先,介绍了为什么需要本地部署大模型,包括数据隐私与安全、定制化与灵活性、离线使用、高效性、成本可控等多方面的优势。相比于在线大模型,本地部署能够有效保护用户的隐私数据,避免信息泄露,并允许用户根据实际需求对模型进行定制和调整,提升使用体验。

接着,介绍了DeepSeek R1大模型的基本概念及其发布背景。DeepSeek R1是一个具有高效、低资源消耗特性的推荐系统模型,其优化了对计算资源的要求,使得普通的个人计算机也能承载其运行。特别是DeepSeek R1支持不同硬件配置的设备,适配不同规模的用户需求。这一创新使得大规模AI模型的使用不再局限于高端硬件环境,普通用户也能在本地计算机上运行。

本文核心部分详细讲解了通过Ollama和Open WebUI等工具进行DeepSeek R1部署的步骤。从安装Ollama开始,用户只需按照简单的命令行操作,便能轻松完成模型的下载与运行。而对于更复杂的需求,如通过浏览器与模型进行互动,用户可以安装Python环境并结合Open WebUI实现更友好的操作界面。这一部分的讲解深入浅出,即便没有编程经验的用户也能轻松上手,按照步骤完成安装与配置。

此外,还提到一些可能遇到的问题及其解决方案,确保用户在遇到问题时能够找到对应的解决方法。例如,针对下载过程中可能的停滞,提供了按回车键的操作提示;对于启动失败的情况,也给出了详细的排查步骤。通过这些细致的提示,有效降低了用户操作的复杂度和失败率。

总结来说,本文为普通用户提供了一个清晰、易懂的指南,帮助他们在本地计算机上部署并运行DeepSeek R1大模型。它不仅展示了如何通过简单的工具和命令实现AI技术的本地化使用,也进一步说明了大模型应用的普及和便利性。通过这篇文章,用户可以充分理解并享受到本地部署大模型带来的数据安全、定制化、离线使用等多方面的优势,促进了AI技术的民主化。

欢迎 点赞👍 | 收藏⭐ | 评论✍ | 关注🤗

在这里插入图片描述


http://www.mrgr.cn/news/91469.html

相关文章:

  • 对界面简单易用封装SDK
  • 栈回溯方案
  • who knows the answer
  • 解锁机器学习核心算法 | 支持向量机:机器学习中的分类利刃
  • 下载安装运行测试开源vision-language-action(VLA)模型OpenVLA
  • C语言——深入理解指针(2)(数组与指针)
  • Arm64架构CentOS7服务器搭建Fabric环境
  • Django 5实用指南(二)项目结构与管理
  • 【MySQL安装】
  • TMS320F28335二次bootloader在线IAP升级
  • 云计算架构学习之Ansible-playbook实战、Ansible-流程控制、Ansible-字典循环-roles角色
  • Docker安装Minio对象存储
  • 天翼云910B部署DeepSeek蒸馏70B LLaMA模型实践总结
  • 如何使用 vxe-table grid 全配置式给单元格字段格式化内容,格式化下拉选项内容
  • 小米电视维修记录 2025/2/18
  • Ubuntu学习备忘
  • 【TOT】Tree-of-Thought Prompting
  • python进阶篇-面向对象
  • 23种设计模式 - 模板方法
  • cesium视频投影