当前位置: 首页 > news >正文

deepin V23 部署Ollama

系统:Deepin V23
1.Ollama简单介绍
        Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。
        Ollama仓库地址:https://github.com/ollama/ollama
        Ollama官方下载地址:https://ollama.com/download
在这里插入图片描述
2.安装Ollama
        在Deepin V23中打开一个终端,切换至root用户.执行如下命令.
#cd /usr/local (将ollama安装在/usr/local中)
#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)
在这里插入图片描述
在这里插入图片描述
查看ollama运行情况
在这里插入图片描述

3.安装(运行)模型
        安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
4.与Qiwen2:7b对话
(1)在终端中对话
打开终端,普通用户即可
执行命令:$ollama run qwen2:7b
在这里插入图片描述
若要退出,输入 /bye
(2)UOS AI中(接入本地模型)对话

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如:在这里插入图片描述

在这里插入图片描述


http://www.mrgr.cn/news/56105.html

相关文章:

  • 第三章,使用DQL命令查询数据
  • Vue 3集成海康Web插件实现视频监控
  • General Purpose I/O Ports and Peripheral I/O Lines (Ports)
  • ubuntu22.04 桌面系统怎么搭建一个esp-idf的项目,搭建开发环境
  • 苹果仍在研发更大尺寸的 iMac | Swift 周报 issue 60
  • 案例分享-优秀蓝色系UI界面赏析
  • BurpSuite渗透工具的简单使用
  • 如何利用动态IP对市场进行产品调研分析?
  • 华为不同职级,薪资待遇一览表
  • 移动用户心理:如何让他们安装和使用你的应用
  • C# lambda表达式语法简介
  • Python Numpy 实现神经网络自动训练:反向传播与激活函数的应用详解
  • 【Linux】进程优先级进程切换
  • centos7 使用yum卸载redis3.2版本并安装redis5版本
  • 后端:唯一ID有哪些生成方式
  • 有趣的css - 拉链式展开按钮
  • 天锐绿盾 vs Ping32:企业级加密软件大比拼
  • 数据库的CURD【MySql】
  • 基于Java语言的智慧社区-智慧社区解决方案
  • C++ —— set系列的使用
  • CMake的使用(二)
  • 功能驱动方法是什么?如何有效管理技术债务以避免项目风险?
  • 【meshlab学习篇之前置】最详细清晰的meshlab环境配置(Windows)
  • 8000万!海淀!海新智能搭建AI产品生态,这样服务“一老一小”与“无障碍”群体
  • 2024网站建设公司哪家好
  • 大学生项目竞赛:如何通过面试选拔优秀队友