DeepSeek R1 + 飞书机器人实现AI智能助手
效果
TFChat项目地址
https://github.com/fish2018/TFChat
腾讯大模型知识引擎用的是DeepSeek R1,项目为sanic和redis实现,利用httpx异步处理流式响应,同时使用buffer来避免频繁调用飞书接口更新卡片的网络耗时。为了进一步减少网络IO消耗,首次调用飞书相关接口会从redis读取token,后续直接从TokenManager对象属性获取,只有token失效时间小于60s时才会重新调用飞书接口获取。
实现思路
1.创建好腾讯大模型知识引擎应用和飞书应用并启用机器人能力,配置事件订阅
2.用户发送消息给机器人后,会post数据给我们的webhook接口
3.webhook接收到数据后解析出用户的open_id和发送给机器人的content
4.初始化消息卡片实例
5.发送消息卡片给该用户
6.调用腾讯大模型知识引擎的HTTP SSE接口,提交用户发送给机器人的content
7.接收HTTP SSE数据,调用飞书接口流式更新文本
参考资料
腾讯大模型知识引擎
创建应用
参考官方文档操作即可:
https://cloud.tencent.com/document/product/1759/104201
腾讯大模型知识引擎>应用接口文档>对话端接口文档(HTTP SSE)
https://cloud.tencent.com/document/product/1759/105561
飞书机器人
创建应用
https://open.feishu.cn/document/home/develop-a-gadget-in-5-minutes/create-an-app
启用机器人能力
https://open.feishu.cn/document/faq/trouble-shooting/how-to-enable-bot-ability
飞书卡片流式更新 OpenAPI 调用指南
https://open.feishu.cn/document/uAjLw4CM/ukzMukzMukzM/feishu-cards/streaming-updates-openapi-overview