当前位置: 首页 > news >正文

大语言模型推理源码解读(基于llama3模型:来源github)

文章目录

  • 前言
  • 一、整体源码解读
    • 1、完整main源码
    • 2、tokenizer加载
    • 3、llama3模型加载
    • 4、llama3测试数据文本加载
    • 5、llama3模型推理模块
      • 1、模型推理模块的数据处理
      • 2、模型推理模块的model.generate预测
      • 3、模型推理模块的预测结果处理
    • 6、多轮对话
  • 二、llama3推理数据处理
    • 1、完整数据处理源码
    • 2、使用prompt方式询问数据加载
    • 3、推理处理数据
  • 三、llama3推理generate调用_sample方法
    • 1、GenerationMode.SAMPLE方法源码
    • 2、huggingface的_sample源码
    • 3、_sample的初始化与准备
    • 4、_sample的初始化(attention / hidden states / scores)
    • 5、encoder-decoder模式模型处理
    • 6、保持相应变量内容
    • 7、进入while循环模块
    • 8、结果返回处理
  • 四、_sample的while循环模块内容
    • 1、模型输入加工
      • 1、首次迭代数据加工
      • 2、再次迭代数据加工
    • 2、模型推理
      • 1、首次迭代数据加工
      • 2、再次迭代数据加工
    • 3、预测结果取值
    • 4、预测logits惩罚处理
    • 5、预测softmax处理
    • 6、预测token选择处理
    • 7、停止条件更新处理
    • 8、再次循环迭代input_ids与attention_mask处理(生成式预测)
    • 8、停止条件再次更新与处理
  • 五、模型推理(self)
    • 1、模型预测输入参数
    • 2、进入包装选择调用方法
    • 3、进入forward函数--class LlamaForCausalLM(LlamaPreTrainedModel)
    • 4、llama3推理forward的前提说明
    • 5、llama3推理forward的设置参数
    • 6、llama3推理forward的推理(十分重要)
    • 7、llama3推理forward的的lm_head转换
    • 8、llama3推理forward的结果包装(CausalLMOutputWithPast)
  • 六、llama3模型forward的self.model方法
    • 1、模型输入内容
      • 1、self.model模型初次输入内容
      • 2、self.model模型再次输入内容
    • 2、进入包装选择调用方法
    • 3、进入forward函数--class LlamaModel(LlamaPreTrainedModel)
    • 4、llama3模型forward的源码
    • 5、llama3模型forward的输入准备与embedding
      • 1、初次输入llama3模型内容
      • 2、再此输入llama3模型内容
      • 3、说明
    • 6、llama3模型forward的cache
      • 1、DynamicCache.from_legacy_cache(past_key_values)函数
      • 2、cache = cls()类方法
        • 该类位置
        • 该类方法
      • 2、cache.update的更新
    • 7、llama3模型decoder_layer方法
      • 1、decoder_layer调用源码
      • 2、decoder_layer源码方法与调用self.self_attn方法
      • 3、self.self_attn源码方法
    • 8、hidden_states的LlamaRMSNorm
    • 9、next_cache保存与输出结果
  • 七、llama3模型atten方法
    • 1、模型位置
    • 2、llama3推理模型初始化
    • 3、llama3推理的forward方法
    • 4、llama3模型结构图


前言

本项目是解读开源github的代码,该项目基于Meta最新发布的新一代开源大模型Llama-3开发,是Chinese-LLaMA-Alpaca开源大模型相关系列项目(一期、二期)的第三期。而本项目开源了中文Llama-3基座模型和中文Llama-3-Instruct指令精调大模型。这些模型在原版Llama-3的基础上使用了大规模中文数据进行增量预训练,并且使用精选指令数据进行精调,进一步提升了中文基础语义和指令理解能力,相比二代相关模型获得了显著性能提升。因此,我是基于该项目解读训练与推理相关原理与内容,并以代码形式带领读者一步一步解读,理解其大语言模型运行机理。而该博客首先给出llama3推理源码相关内容解读,我将按照源码流程给出解读。


一、整体源码解读

1、完整main源码

我先给出完整的源码,后面推理使用哪些部分代码,我在深度解读。而一些较为简单内容我不在解读了。

if __name__ == '__main__'<

http://www.mrgr.cn/news/60374.html

相关文章:

  • docker部署Jenkins
  • Linux 进程间通信_匿名管道
  • MySQL 安装及用户管理
  • 基于Arduino的LED亮灭按键控制
  • 计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21
  • 6.1 创建gdt 表(1)
  • 做梦都想拥有的陪伴对象,AI居然免费帮我实现了...文中附送体验地址!
  • autMan奥特曼机器人-内置容器安装依赖报错:externally-managed-environment
  • 深度学习中的损失函数
  • # centos6.5 使用 yum list 报错Error Cannot find a valid baseurl for repo bas 解决方法
  • 3500多万家专利数据存入Mysql数据库
  • 本地服务器上搭建PPTist轻松实现跨地域的在线PPT制作与演示
  • Spring Cloud Alibaba实战入门之Nacos注册中心(四)
  • 我国金融科技人才培养情况
  • 电动机轴承发热的原因以及补充和更换油脂的经验
  • 基于Spring Boot的在线摄影工作室开发指南
  • 《链表篇》---环形链表
  • Python 中的 @ 符号是如何工作的!
  • Android 应用申请 Google MBA权限
  • 智诊小助手-AP/Station模式切换
  • 渗透测试的主要目的是什么?渗透测试入门到精通教程,收藏这一篇就够了
  • 大模型 “蓝图” 进阶学习路线:构建大模型岗位就业之路
  • 企业数字化转型:平台与大数据算法的力量
  • 使用EmbeddedBuilder可视化编程找不到GD32H7XX
  • MYSQ-语句操作、查询和多表关系思维导图
  • Nature子刊丨在多孔固体电解质反应器中从(bi)碳酸盐中电化学再生高纯度CO2以实现高效碳捕获