当前位置: 首页 > news >正文

【Langchain学习笔记(二)】Langchain安装及使用示例

Langchain介绍

    • Langchain介绍
    • 前言
    • 1、Langchain 安装
    • 2、LangSmith 是什么
      • 2.1 LangSmith 的作用
      • 2.2 创建 LANGCHAIN_API_KEY
    • 3、调用国产大模型
    • 4、Langchain 使用示例
      • 4.1 导入所需的模块
      • 4.2 设置 API 密钥
      • 4.3 初始化 ZHIPU AI 模型
      • 4.4 创建提示
      • 4.5 创建返回的数据解析器
      • 4.6 创建链 chain
      • 4.7 直接使用 chain 进行调用
      • 4.8 完整代码及运行结果

Langchain介绍

前言

本文中介绍 Langchain 安装方法, 什么是 LangSmith 及其作用, 如何调用国产大模型,并以简单案例进行展示。

备注:本系列文章基于B站课程: 马士兵-AI大模型全套教程(学习路线+LLM大语言模型+RAG实战+Langchain+ChatGLM-4+Transformer+DeepSeek) 学习整理得到。

1、Langchain 安装

pip install langchain
pip install langchain-openai 

2、LangSmith 是什么

是一个用于构建生产级 LLM 应用程序的平台,它提供了调试、测试、评估和监控基于任何 LLM 框架构建的链和智能代理的功能,并能与 Langchain 无缝集成。

登录并且获取 LangSmish 的 API key

在这里插入图片描述

2.1 LangSmith 的作用

其主要作用包括:

  • 调试与测试:通过记录 Langchain 构建的大模型应用的中间过程,开发者可以更好地调整提示词等中间过程,优化模型响应;
  • 评估应用效果:Langsmith 可以量化评估基于大模型的系统的效果,帮助开发者发现潜在问题并进行优化;
  • 监控应用性能:实时监控应用程序的运行情况,及时发现异常和错误,确保其稳定性和可靠性;
  • 数据管理与分析:对大语言模型此次的运行的输入与输出进行存储和分析,以便开发者更好地理解模型行为和优化应用;
  • 团队协作:支持团队成员之间的协作,方便共享和讨论提示模版等;
  • 可扩展性与维护性:设计时考虑了应用程序的可扩展性和长期维护,允许开发者构建可成长的系统。

Langsmith 是 Langchain 的一个子产品,是一个大模型应用开发平台。它提供了从原型到生产的全流程工具和服务,帮助开发者构建、测试、评估和监控基于 Langchain 或其他 LLM 框架的应用程序

2.2 创建 LANGCHAIN_API_KEY

  1. 创建 LangSmith 账户并登录
  2. 点击 Settings
    在这里插入图片描述
  3. 点击 Create API Key 并复制
    在这里插入图片描述
  4. 在系统属性中添加环境变量
    在这里插入图片描述

3、调用国产大模型

  1. 打开 LangChain 官方网站,点集成按钮。
    在这里插入图片描述

  2. 选择合适的国产大模型语言
    在这里插入图片描述

  3. 也可以通过选择所有提供商进行选择
    在这里插入图片描述

  4. 这里以智谱 AI 为例
    在这里插入图片描述

  5. 先去智谱 AI 上获取 API 秘钥,这里根据自己选择的大模型去对应官网进行获取,以 智谱AI开放平台 为例
    在这里插入图片描述

4、Langchain 使用示例

4.1 导入所需的模块

将必要的模块导入到 Python 脚本中

from langchain_community.chat_models import ChatZhipuAI
# 导入AIMessage, HumanMessage, SystemMessage
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_core.output_parsers import StrOutputParser

注意:示例中使用的大模型是智谱 AI,要导入 zhipuai 包

#!pip install --upgrade httpx httpx-sse PyJWT

4.2 设置 API 密钥

登录 ZHIPU AI 获取 API 密钥以访问模型

import osos.environ["ZHIPUAI_API_KEY"] = "zhipuai_api_key"

4.3 初始化 ZHIPU AI 模型

chat = ChatZhipuAI(model="glm-4",temperature=0.5,
)

4.4 创建提示

msg = [# AIMessage(content="Hi."),SystemMessage(content="请将以下的内容翻译成意大利语"),HumanMessage(content="你好,请问你要去哪里?")
]

4.5 创建返回的数据解析器

parser = StrOutputParser()

4.6 创建链 chain

chain = model | parser

4.7 直接使用 chain 进行调用

result = chain.invoke(msg)
print(result)

4.8 完整代码及运行结果

from langchain_community.chat_models import ChatZhipuAI
# 导入AIMessage, HumanMessage, SystemMessage
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_core.output_parsers import StrOutputParser
import osos.environ["ZHIPUAI_API_KEY"] = "zhipuai_api_key"# 1、创建模型
model = ChatZhipuAI(model="glm-4",temperature=0.5,
)
# 2、创建提示
msg = [# AIMessage(content="Hi."),SystemMessage(content="请将以下的内容翻译成意大利语"),HumanMessage(content="你好,请问你要去哪里?")
]# 3、创建返回的数据解析器
parser = StrOutputParser()# 4、创建链chain
chain = model | parser# 5、直接使用chain进行调用
result = chain.invoke(msg)
print(result)

在这里插入图片描述


http://www.mrgr.cn/news/89824.html

相关文章:

  • WPF 进度条(ProgressBar)示例一
  • ThreadLocal父子线程数据共享传递
  • 2024-我的学习成长之路
  • Windows虚拟机开启失败
  • 当自动包布机遇上Profinet转ModbusTCP网关,“妙啊”,工业智能“前景无限
  • 《基于卷积神经网络的星图弱小目标检测》论文精读
  • HIVE如何注册UDF函数
  • nodejs:express + js-mdict 网页查询英汉词典,能播放.spx 声音
  • Mac上搭建k8s环境——Minikube
  • 【非 root 用户下全局使用静态编译的 FFmpeg】
  • kafka服务端之延时操作实现原理
  • (一)C++的类与对象
  • Jmeter快速实操入门
  • docker安装es及分词器ik
  • 122,【6】buuctf web [护网杯2018] easy_tornado
  • 交叉编译工具链下载和使用
  • TaskBuilder项目实战:创建项目
  • 深入理解 DeepSeek MOE(Mixture of Experts)
  • 【戒抖音系列】短视频戒除-1-对推荐算法进行干扰
  • jvm 篇
  • 02.07 TCP服务器与客户端的搭建
  • 第三个Qt开发实例:利用之前已经开发好的LED驱动在Qt生成的界面中控制LED2的亮和灭
  • 【鸿蒙开发】第二十四章 AI - Core Speech Kit(基础语音服务)
  • openssl使用
  • Docker安装pypiserver私服
  • 【0401】Postgres内核 CREATE DATABASE database-name 源码实现 ①