当前位置: 首页 > news >正文

在树莓派5(8G版)上运行Ollama + LLM

很好奇大语言模型在性能孱弱的树莓派上做本地部署会是什么表现。不指望正儿八经的问答,外语翻译是否可行呢?抱着这个目的实验了一把,直接上结论,Ollama在树莓派上能安装,且本身运行起来毫无压力,但具体到大语言模型,Deepseek-R1似乎不总是最佳选择。

安装很简单,理论上只需要一条命令:

curl -fsSL https://ollama.com/install.sh | sh

但是,由于你懂的原因,真这么干的话可能会很慢很慢,所以可以用包含了国内加速器的指令替代:

export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download"
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|$OLLAMA_MIRROR|g" | sh

安装成功,用ollama --version测试也没问题。考虑到性能,保险起见先从deepseek-r1:1.5b开始。

迫不及待的开始进行对话,速度那是相当的不错,但质量怎么说呢,让我想起个段子:

面试官:“你简历上写着说你心算速度很快,那我问问你,13乘以19是多少?”

我脱口而出:“45!”

面试官:“这也差太远了吧。”

我:“你就说快不快吧!”

  嗯,就是这个感觉,你就说快不快吧!

我觉得大概是模型不够大,于是又开始下载7b模型并问了同样的问题:

Token输出的速度肉眼可见的明显下降(但也还行,能接受)。不能接受的是继续胡说八道。8b和7b情况类似,除了输出更慢、胡说八道的姿势更一本正经之外并未获得更正确信息。

但在这个级别就没有能打的了吗?别说,qwen2.5答对了:
“おひさま”这个单词确实是偶然从一本小小鬼子级别的教材的封面上看来的。

14b就别想了,RPI5的内存不够:
作为参考,在PC上的测试结果如下:

 所以树莓派5(8G版)上能跑大语言模型,但是能达到的效果还得具体问题具体分析。


http://www.mrgr.cn/news/96431.html

相关文章:

  • 基于Elasticsearch的个性化内容推荐技术实践
  • SQL Server:sys.dm_hadr_physical_seeding_stats
  • 开源测试用例管理平台
  • fetch的语法规则及常见用法
  • 基于javaweb的SpringBoot水果生鲜商城系统设计与实现(源码+文档+部署讲解)
  • 基于CentOS7.0系统搭建FTP服务器
  • 无线通信技术(二):ITU、3GPP及传统波段对无线频谱的划分
  • YOLOv8环境配置及依赖安装过程记录
  • 【全栈开发】—— Paddle OCR 文字识别 + deepseek接入(基于python 最新!!!)
  • 常用登录Linux系统的方法以及操作指南
  • 深度学习篇---模型训练评估参数
  • 全流程剖析需求开发:打造极致贴合用户的产品
  • docker日志大小和保存管理
  • 【MyBatis】MyBatis 操作数据库
  • AT24Cxx移植第三方库到裸机中使用
  • 实战篇Redis
  • [c++项目]基于微服务的聊天室服务端测试
  • SQL语句及其应用(中)(DQL语句之单表查询)
  • MySQL数据库和表的操作之SQL语句
  • 【Qt】三种操作sqlite3的方式及其三种多表连接