当前位置: 首页 > news >正文

【aider】aider使用ollama本地模型

aider连接本地ollama模型
启动ollama服务后
在终端中cd到项目文件夹后,输入以下连接ollama

setx   OLLAMA_API_BASE http://127.0.0.1:11434

然后输入以下选择模型,改为ollama中安装的模型名字

aider --model ollama/<model>

如以下为添加qwen2.5 code

aider --model ollama/qwen2.5-coder:latest

增加文件到上下文中

/add FileName.py

移除文件在上下文中

/drop FileName.py

更多官方教程

https://aider.chat/docs/llms/ollama.html

http://www.mrgr.cn/news/34056.html

相关文章:

  • cmake--add_compile_options
  • MQ(消息队列)重启后消息是否会丢失
  • AI大模型优化指南:RAG、提示工程与微调的应用场景解析
  • vcpkg使用
  • iOS--生产者-消费者模式理解(附GCD信号量代码实现)
  • 常见的网络安全服务大全(汇总详解)零基础入门到精通,收藏这一篇就够了
  • Ubuntu系统 MQTT Broker(Mosquitto)安装
  • LeetCode 热题 100 回顾
  • 2024/9/22
  • 高等数学 3.7 曲率
  • Leetcode 1039. 多边形三角形剖分的最低得分 枚举型区间dp C++实现
  • 【C++】面向对象编程的三大特性:深入解析继承机制
  • 【Linux】进程控制
  • 转行要趁早!网络安全岗人才稀缺,前景广阔,零基础入门到精通,收藏这篇就够了
  • 亲测好用,ChatGPT 3.5/4.0新手使用手册,最好论文指令手册~
  • 刚刚更新| Stable diffusion 4.9.7 升级版终于来了!(Ai绘画无需部署,解压即用)
  • C++学习笔记----7、使用类与对象获得高性能(二)---- 理解对象生命周期(8)
  • 数据结构与算法——Java实现 11.习题——有序链表去重
  • [笔记]23年度展会信息— 吊钩 起升机构
  • ElasticSearch分页查询性能及封装实现