当前位置: 首页 > news >正文

【原创】Ubuntu 24搭建Ollama+ DeepSeek局域网服务器

安装Ubuntu 服务器

通过ubuntu官网下载ubuntu 24服务器版本
刻录光盘(也可以使用U盘)
用光盘启动PC机器(必须是带显卡的PC机,包括集成Intel显卡的也行,纯CPU计算的服务器基本上不能使用)
最小化安装Ubuntu Server,使用自动分区

安装Ollama

可以到ollama官网查看信息
https://ollama.com
下载Linux版本
https://ollama.com/download/linux

切换到 root用户,执行如下指令

curl -fsSL https://ollama.com/install.sh | sh

如果执行失败,则多试几次即可。
执行完毕后,基本配置好了。

修改服务

vi /etc/systemd/system/ollama.service

参考《大模型部署框架 Ollama:环境变量设置与常用 CLI 命令》
https://zhuanlan.zhihu.com/p/23824503091

添加如下内容:
//允许其它计算机访问,端口8080
Environment=“OLLAMA_HOST=0.0.0.0:8080”
//允许跨域访问
Environment=“OLLAMA_ORIGINS=*”
//模型存放的位置
Environment=“OLLAMA_MODELS=/llm_models”
//模型在内存中存放的时间
Environment=“OLLAMA_KEEP_ALIVE=10”

完成后的内容如下:

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:8080"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/llm_models"
Environment="OLLAMA_KEEP_ALIVE=10"[Install]
WantedBy=default.target

启动服务

systemctl daemon-reload
systemctl restart ollama
systemctl enable ollama

开放服务器8080端口,用于ollama提供服务(参考上面OLLAMA_HOST参数)
在这里插入图片描述

下载模型

模型务必通过ollama服务器的web Api来下载

首先创建一个目录保存模型,与/etc/systemd/system/ollama.service中的配置OLLAMA_MODELS保持一致

mkdir /llm_models

将所有者设置为ollama,否则ollama账户权限写该目录

chown ollama /llm_models

查找模型
https://ollama.com/search
当前排名第一的就是deepseek,
在这里插入图片描述
点击deepseek-r1
在这里插入图片描述
默认情况下,使用7b(70亿参数)模型,在普通的P C机上可以运行,这里我选8B的
在这里插入图片描述

记录复制下来的内容,这个是本地命令窗口运行的指令,我们暂时不用它,这里只是获取模型名称,接下来用。

ollama run deepseek-r1:8b

进行请求,model参数重,填入上面的模型名称。

curl -X POST http://192.168.250.115:8080/api/pull -d '{"model": "deepseek-r1:8b"}'

接下来一堆输出,直到出现{“status”:“success”}后,模型下载完毕。

e7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"pulling 0cb05c6e4e02","digest":"sha256:0cb05c6e4e02614fa7f4c5d9ddcd5ae7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"pulling 0cb05c6e4e02","digest":"sha256:0cb05c6e4e02614fa7f4c5d9ddcd5ae7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"verifying sha256 digest"}
{"status":"writing manifest"}
{"status":"success"}

测试

下载工具 Cherry Studio
https://cherry-ai.com/

按照如下步骤配置
在这里插入图片描述
在这里插入图片描述
检查
在API密钥处,随便填点啥就行,然后点击检查
在这里插入图片描述
选择刚才添加的模型名称
在这里插入图片描述
测试成功
在这里插入图片描述

开始对话
在这里插入图片描述

观察回答
在这里插入图片描述

如果回复信息太慢的话,可以考虑换用参数比较小的模型。


http://www.mrgr.cn/news/92649.html

相关文章:

  • 在VSCode 中使用通义灵码最新版详细教程
  • Trae根据原型设计稿生成微信小程序密码输入框的踩坑记录
  • 【强化学习笔记1】从强化学习的基本概念到近端策略优化(PPO)
  • 管理后台环境配置
  • Android 12系统源码_多屏幕(四)自由窗口模式
  • AF3 pair_sequences函数解读
  • Ubuntu20.04安装Redis
  • 蓝桥杯单片机组第十二届省赛第二批次
  • 【word】保存重开题注/交叉引用消失,全局更新域问题
  • Sqli-labs
  • 数据库的三个范式及其含义
  • 【大模型应用之智能BI】基于 Text2SQL 的 GenBI 技术调研和深度分析(包含案例)
  • nv docker image 下载与使用命令备忘
  • Redis初识
  • DeepSeek 202502 开源周合集
  • Android手机部署DeepSeek
  • 《Somewhat Practical Fully Homomorphic Encryption》笔记 (BFV 源于这篇文章)
  • 初阶数据结构(C语言实现)——3顺序表和链表(2)
  • 【Python 入门基础】—— 人工智能“超级引擎”,AI界的“瑞士军刀”,
  • 达梦:内存相关参数