当前位置: 首页 > news >正文

基于OpenAI API使用Fastchat部署调用本地大模型

  • 安装Fastchat(换源版)
pip3 install "fschat[model_worker,webui]" -i https://pypi.tuna.tsinghua.edu.cn/simple/
  • 启动服务
  1. 启动控制器服务
python3 -m fastchat.serve.controller
  1. 启动 Model Worker 服务(可以通过CUDA_VISIBLE_DEVICES来指定显卡)
python3 -m fastchat.serve.model_worker --model-path 【你的本地大模型路径】
  1. 启动 RESTFul API 服务(可以指定ip和端口,默认端口是8000)
python3 -m fastchat.serve.openai_api_server --host 【你的ip】 --port 【你的端口】
  • 注意
    • –num-gpus 指定运行模型的gpu个数
      –model-name 默认以部署的model-path作为模型名称,可通过–model-name修改,比如–model-name Qwen
    • 在浏览器中访问http://【你的ip】:【你的端口】/docs可以查看接口信息,这个服务即最终要用的LLM API 服务,它的接口跟OpenAI 的接口是兼容的
  • 测试代码
import requests
import json
import openaidef get_completion_qwen_7B(prompt):openai.api_key = "你的密钥"openai.base_url = "http://【你的ip】:【你的端口】/v1/"model = "Qwen2.5-7B-Instruct" # 示例,此处需要换成你的本地模型名completion = openai.completions.create(model=model, prompt=prompt, max_tokens=64)data = {"messages": [{"role": "user", "content": prompt}]}completion = openai.chat.completions.create(model=model,messages=[{"role": "user", "content": prompt}])return completion.choices[0].message.content

http://www.mrgr.cn/news/81114.html

相关文章:

  • HarmonyOs:创建线程的3种方式
  • 基于DockerCompose搭建Redis主从哨兵模式
  • 如何有效修复ffmpeg.dll错误:一站式解决方案指南
  • VS Code Copilot 与 Cursor 对比
  • 3.3.2.3 开源项目有锁队列实现--魔兽世界tinityCore
  • Sapro编程软件
  • spring cache源码解析(四)——从@EnableCaching开始来阅读源码
  • 【数据结构练习题】栈与队列
  • 浏览器工作原理与实践-12|栈空间和堆空间:数据是如何存储的
  • 【Linux进程】进程间通信(共享内存、消息队列、信号量)
  • Jetpack 练手项目 —— Sunflower
  • 计算机毕业设计PyFlink+Hadoop广告推荐系统 广告预测 广告数据分析可视化 广告爬虫 大数据毕业设计 Spark Hive 深度学习 机器学
  • 洛谷 P2142:高精度减法 ← string+数组
  • 大语言模型驱动的Agent:定义、工作原理与应用
  • HTML5前端实现毛玻璃效果的可拖拽登录框
  • 大数据操作实验一
  • Unittest01|TestCase、断言、装饰器、夹具、清理函数、ddt
  • 计算机网络基础图解
  • 【Python】pandas库---数据分析
  • 人工智能ACA(四)--机器学习基础
  • 「Mac畅玩鸿蒙与硬件45」UI互动应用篇22 - 评分统计工具
  • SpringBoot提供的常用接口(拓展接口)示例
  • Flutter/Dart:使用日志模块Logger Easier
  • 【潜意识Java】深度解析黑马项目《苍穹外卖》与蓝桥杯算法的结合问题
  • 「Mac畅玩鸿蒙与硬件47」UI互动应用篇24 - 虚拟音乐控制台
  • 电商项目-数据同步解决方案(一)