当前位置: 首页 > news >正文

Cherry Studio之DeepSeek联网/本地,建属于自己的AI助理!

上一篇文章,讲了DeepSeek-R1部署到本地的方法。这一篇文章,我们让DeepSeek再一次升级,通过图形化界面来交互,从而变成我们的AI助理,让DeepSeek R1发挥最大实力!

首选需要借助硅基流动的API接口,体验满血复活版的R1!还没有注册的去注册一下:

💡使用链接注册可或者2000万tokens:https://cloud.siliconflow.cn/i/2VC6bioj

 一:下载安装Cherry Studio

官网:https://cherry-ai.com/download

选择自己合适的操作系统

按提示安装成功后,打开。

如下图:点击左下角的设置,常规设置->语言,选择中文。

下面去配置模型服务,硅基流动,填写API密码

复制秘钥:登录你注册的硅基流动账号,找到API秘钥->新建API秘钥->复制秘钥

填写秘钥:这里在Cherry Studio中去左下角设置,模型服务,硅基流动,填写刚才复制的API秘钥。

添加硅基流动模型:点击【管理】如下图:输入你想使用的模型名称:

从硅基流动中的模型广场中找到你想要添加的模型,点击进去,点击复制;

查找刚才复制的模型名称,点击,添加模型。然后点击检查,检查模型是否成功添加。

测试图形化界面使用效果:点击【助手】,选择默认助手

点击顶部的模型选择,选择模型与之对话

目前DeepSeek-R1版本网速比较慢,如果有条件的可以部署本地。如何部署本地的教程在这里: 

30秒让你清楚DeepSeek-R1大模型的本地部署-CSDN博客

对比:满血版的deepseek-r1:671b 和 本地版的deepseek-r1:14b的回答区别?

如果部署了本地的,可以在顶部切换模型,直接切换成本地Ollama deepseek-r1:14b的本地模型。

相同的问题,我再问,如下。可以看出来,满血版本的R1更具备人的情感和口语化,更能贴近鲁迅的文采, 明显更胜一筹!有条件的朋友可以尽可能的选择大的参数模型来搭建本地模型。

在对话的过程中,我们可以选择【添加助手】来满足我们日常的使用情况,具体这里不做详细介绍

这一期,讲了如何使用满血版联网的R1和如何切换本地R1,使用助手和相关提示词来编写我们想要的结果。但是!这里所有的数据和信息都是基于模型训练出来的,如果我们想要搜索出来我们想要指定的答案范围的话我们需要投喂数据给我们的deepseek,也就是RAG(检索增强生成)。

下一期说一下,如何去培养我们自己的AI助手,如何投喂和搭建本地知识库?点关注不迷路!


http://www.mrgr.cn/news/90208.html

相关文章:

  • Python分享20个Excel自动化脚本
  • 【C++语言】类和对象(下)
  • 大模型推理——MLA实现方案
  • nodejs - vue 视频切片上传,本地正常,线上环境导致磁盘爆满bug
  • DeepSeek模拟阿里面试——java面向对象
  • 以创新技术驱动Creo许可优化,赋能企业高效设计
  • JavaEE架构
  • AutoGen实战应用
  • 防火墙用户认证实验
  • zynq tcp万兆网和ftp协议分析
  • k8s部署elasticsearch
  • 【数据结构】双向链表(真正的零基础)
  • 【故障处理】ORA-19849 ORA-19612 0RA-17627 ORA-03114
  • 算法之 博弈问题
  • 工厂方法模式详解(Java)
  • 元数据、数据元、数据元素、数据项 和 主数据的概念
  • 荣耀手机Magic3系列、Magic4系列、Magic5系列、Magic6系列、Magic7系列详情对比以及最新二手价格预测
  • 数据结构与算法(test3)
  • MySQL主从同步+binlog
  • python学习目录