当前位置: 首页 > news >正文

late-chunk,尝试拯救硬切分的缺点。有序chunk,产生条理性response。

这是一个较新颖的方法,一般chunk切1024或51或按句切分的时候,就怕代词的所指被切掉,embedding时就自然召回不到了。延缓该问题的方法有覆叠chunk,但是还是一刀切,不够solid。
一个聪明的方法是,把一整个文章扔进embedding,经过几层前向,再按token位置切分,再把每段继续embedding。这个方法就叫late chunk,它希望几层后,各token的语义已经提取较好了,不再缺少信息了,这是模型本身的功能,所以late chunk是迎合模型功能的改动。效果如何不知道,但是是一个聪明的解决办法。


chunk的前后顺序有时存在一些信息,特别是对于有结构的文章,你想得到结构化的回答,就必须保持原文顺序,但是你又希望让高相似度chunk排前面,这是针对大模型att特点的优化。NVIDIA对此的做法是,chunk顺序按原文,但是chunk开头标上相似度,以让llm知道哪一段更能回答问题,就这样兼顾了两方面。


http://www.mrgr.cn/news/43861.html

相关文章:

  • Buck电路-电感电容轻松计算
  • AI生成文章标题指定路径保存:创新工具助力内容创作高效启航
  • 面试算法题
  • Acwing 线性DP
  • 基于auth2的单点登录原理理解
  • react-问卷星项目(7)
  • 老系统处理策略
  • Javascript客户端时间与服务器时间
  • aws(学习笔记第二课) AWS SDK(node js)
  • DMA直接存储器存取
  • 工具 | 红队大佬亲测5款推荐的Burpsuite插件
  • 模型 SECI(知识的创造)
  • 一些硬件知识(二十七)
  • Vivado - JTAG to AXI Master (DDR4)
  • C++面试速通宝典——11
  • 类和对象的学习1
  • 一篇文章教会你DHT11读取温湿度,附STM32代码示例
  • Python的几个高级特性
  • 4. Getter和Setter注解与lombok
  • 深入理解 Java 对象的内存布局