当前位置: 首页 > news >正文

保姆级! 本地部署DeepSeek-R1大模型 安装Ollama Api 后,Postman本地调用 deepseek

要在Postman中访问Ollama API并调用DeepSeek模型,你需要遵循以下步骤。首先,确保你有一个有效的Ollama服务器实例运行中,并且DeepSeek模型已经被加载。

可以参考我的这篇博客 保姆级!使用Ollama本地部署DeepSeek-R1大模型 并java通过api 调用

使用Postman配置请求

请求类型为 POST

在“输入”框中输入Ollama的API URL,通常是 http://localhost:11434/v1/completions(确保你的Ollama服务正在本地运行,并且使用的是正确的端口)。

在“头”标签页中,添加以下内容:

Key: Content-Type

Value: application/json

编写请求体:

在“Body”标签页中,选择“raw”并设置编码为“JSON (application/json)”。

输入以下JSON格式的请求体:

{"model": "deepseek-r1:32b","prompt": "你好","max_tokens": 50,"temperature": 0.7,"top_p": 1,"stream": false
}

model: 指定要使用的模型名称。

prompt: 输入你想要模型生成文本的起始语句。

max_tokens: 生成文本的最大token数。

temperature: 控制输出的随机性。较低的值意味着更确定的输出。值越低,生成的文本越保守和一致,越高则越具创意。如果不需要非常有创意的回答,可以将其设置为 0.7 或更低。

top_p: 核取样参数,用于多样性控制。控制采样的累积概率,通常在 0 到 1 之间,越接近 1,模型越可能尝试不同的答案。

stream: 如果设置为true,将流式传输结果。

具体如下图
在这里插入图片描述

上面的 http://localhost:11434/v1/completions 是deepseek的api 地址 我们继续访问一下 Ollama Api http://192.168.110.118:7777/api/generate

在这里插入图片描述
一样是可以的


http://www.mrgr.cn/news/91793.html

相关文章:

  • Hopper架构 GEMM教程
  • Debezium:实时数据捕获与同步的利器
  • 【飞行器原理学习】——1. 机翼及机翼参数
  • 【Python 专题】数据结构 树
  • 自动化之ansible(二)
  • Ecode在流程表单中插入自定义内容
  • 【鸿蒙笔记-基础篇_状态管理】
  • Debezium连接器对比
  • Python与Anaconda在CUDA环境中的角色解析
  • postcss.config.js 动态配置基准值
  • 【教学类-89-06】20250220新年篇05——元宵节灯笼
  • 【学习笔记】Cadence电子设计全流程(二)原理图库的创建与设计(1-4)
  • 毕业项目推荐:基于yolov8/yolov5/yolo11的果蔬检测识别系统(python+卷积神经网络)
  • go-micro
  • 设计模式教程:责任链模式(Chain of Responsibility Pattern)
  • 调用click.getchar()时Windows PyCharm无法模拟键盘输入
  • Jenkins 创建 Node 到 Windows
  • 矩阵加减乘除的意义与应用
  • Docker Mysql 数据迁移
  • 《道德经的启示:人际关系交往的智慧》