当前位置: 首页 > news >正文

Linux搭建个人大模型RAG-(ollama+deepseek+anythingLLM)

本文是远程安装ollama + deepseek,本地笔记本电脑安装anythingLLM,并上传本地文件作为知识库。

1.安装ollama

安装可以非常简单,一行命令完事。(有没有GPU,都没有关系,自动下载合适的版本)

cd 到合适的文件目录

下载安装一键安装文件

curl -fsSL https://ollama.com/install.sh -o ollama_install.sh

赋权

chmod +x ollama_install.sh

执行自动下载&安装

sh ollama_install.sh

ps:这里下载可能会很感人,所以有人说可以替换ollama下载为github下载:

替换一键安装文件中的下载网址:注意修改下边命令行中蓝色字体最新的版本

sed -i 's|https://ollama.com/download/|https://github.com/ollama/ollama/releases/download/v0.5.7/|' ollama_install.sh

但是我发现我这里还是用ollama快一点

安装完成后

查看ollama 命令

ollama -help

命令:

ollama --help

Available Commands:

  serve       Start ollama

  create      Create a model from a Modelfile

  show        Show information for a model

  run         Run a model

  stop        Stop a running model

  pull        Pull a model from a registry

  push        Push a model to a registry

  list        List models

  ps          List running models

  cp          Copy a model

  rm          Remove a model

  help        Help about any command

Flags:

  -h, --help      help for ollama

  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

配置ollama服务

暂停服务

systemctl stop ollama

修改ollama.service 文件,配置上远程访问

切换到ollama.service 路径

cd /etc/systemd/system

vi ollama.service 

增加:

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

重启服务

systemctl daemon-reload

systemctl restart ollama

修改后的 ollama.service 文件内容:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root

Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/data/tools/zookeeper/current/bin:/data/tools/scala/current/bin:/data/tools/kafka/current/bin:/data/tools/hadoop/current/bin:/data/tools/hadoop/current/sbin:/data/tools/hive/current/bin:/data/tools/spark/current/bin:/data/tools/spark/current/sbin:/data/tools/eagle/current/bin:/data/tools/flink/current/bin:/data/tools/maven/current/bin:/opt/jdk-11.0.15/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"


[Install]
WantedBy=default.target

ps: 注意这两句不要加到最后边,要加到 [Service] 后边

验证远程访问

用本地PC笔记本电脑的浏览器,访问下远程部署ollama服务的机器,

http://远程机器IP:11434

出现

Ollama is running 就OK了

2.安装deepseek

下载deepseek模型

ollama pull deepseek-r1:7b

或者 deepseek-r1:1.5b

(别管有没有GPU,有16G内存就上7B)

报错:连接超时,重新下载即可

查看ollama 安装大模型目录

ollama list

本地测试模型,启动

ollama run deepseek-r1:1.5b

对话效果:

1.5b速度还是可以的,但是相当纸张..

关闭的话

ollama stop deepseek-r1:1.5b

远程访问的话,只需要下载好就行了,ollama服务开启就OK, systemctl restart ollama

不需要run 起来模型

后边安装的anythingLLM 会自动连接上ollama,并访问到ollama已经安装的模型

3.安装anythingLLM

本地笔记本电脑安装anythingLLM

AnythingLLM | The all-in-one AI application for everyone

我是window 64位

下载后安装

我这里选所有用户

找个位置

选择LLM模型,

如果机器性能一般的话,可以把 ollama keep alive 时长调大,让机器慢慢运算

LLM提供商 选ollama

然后在 Ollama Base URL 输入远程部署的ollama 机器IP和 端口

如果连接成功的话,Ollama Model  会自动显示已经下载好的模型。

maxtoken 选项可以填大一点

对话测试

上传本地文件

选择文件上传

移动文件给对话工程

至此大功告成!!!

Linux版本

下载安装文件

curl -fsSL https://cdn.anythingllm.com/latest/installer.sh 

切换非root用户

su 普通user

不然会报错:>> This script should not be run as root. Please run it as a regular user.

查看当前用户列表: ls /home

执行安装命令

sh installer.sh


http://www.mrgr.cn/news/93156.html

相关文章:

  • Rust编程实战:初探WebAssembly
  • 爬虫Incapsula reese84加密案例:Etihad航空
  • 【第12节】C++设计模式(结构型模式)-Proxy(代理)模式
  • 9道Dubbo面试题
  • Excel-to-JSON v2.0.0发布,可以在Excel内部,把Excel表格转换成JSON,嵌套的JSON也能转
  • 【笔记ing】python
  • 大模型工程师学习日记(十一):FAISS 高效相似度搜索和密集向量聚类的库
  • Android 布局系列(四):ConstraintLayout 使用指南
  • C语言_数据结构总结1:静态分配方式的顺序表
  • 解锁Java解释器模式:概念、应用与实战
  • 测试工程师的DeepSeek提效2:自动化测试应用
  • 2025年渗透测试面试题总结- 阿某云安全实习(题目+回答)
  • Metal学习笔记十一:贴图和材质
  • mac上最好的Python开发环境之Anaconda+Pycharm
  • alpine linux 系统最新版安装及使用教程
  • 【第14节】C++设计模式(行为模式)-Strategy (策略)模式
  • 51c自动驾驶~合集53
  • 使用 Apache POI 实现 Excel 单元格合并
  • 二百八十五、华为云PostgreSQL——建分区表并设置主键
  • 算法 并查集