当前位置: 首页 > news >正文

MOE论文汇总

最近对MOE感兴趣,现汇总MOE+无监督相关的文章,文章均为略读

文章

Self-Supervised Mixture-of-Experts by Uncertainty estimation

发表于:AAAI19
流程:
文章配图
总体来说,当环境给出反馈,通过门控网络激活相应的专家去交涉。但是,专家网络可能需要参数–因此,可以通过transformer来生成ground truth来去选择对应的专家。
总结: 这篇文章的监督信号是transformer生成的

MoDE: CLIP Data Experts via clustering

发表于:CVPR24
这篇论文介绍了一种名为Mixture of Data Experts (MoDE)的新方法,用于改进对比语言-图像预训练(CLIP)的性能。CLIP的成功依赖于图像和标题之间的配对监督,但网络数据中的噪声会影响学习质量。MoDE通过聚类学习一组CLIP数据专家,每个数据专家在训练时只关注一个数据集群,减少了对其他集群中错误负面噪声的敏感性。在推理时,通过考虑任务元数据和集群条件之间的相关性来加权集成这些输出。
MoDE的核心思想是:

  1. 通过聚类将训练数据(图像-标题对)分成几个不相交的子集,每个子集用于训练一个模型。
    1. 每个模型(数据专家)专门处理一个集群的数据,从而减少错误负面样本的影响,并提高对比学习的效果。
    1. 在下游任务中,如图像分类,通过比较任务元数据(如类别名)和每个数据集群的中心,来决定激活哪些数据专家。
    1. 被选中的数据专家用于创建测试图像和类别的嵌入,然后输出最高集成相似性的类别作为分类结果。
  2. 实验表明,MoDE在多个标准基准测试中优于几个最先进的视觉-语言模型,例如在CLIP基准测试中的图像分类提高了3.7%,在COCO数据集上的图像到文本检索提高了3.3%,文本到图像检索提高了2.7%。MoDE的优势归因于更好的训练个体数据专家模型,因为同一集群中的样本在对比学习中提供了更高质量的负面样本。
  3. 总结: 将expert和无监督聚类结合,取得了不错的结果
  4. Multimodal Contrastive Learning with LIMoE: the Language-Image Mixture of Experts

  5. 发表于: Neurips 22,谷歌团队~
  6. 文章配图
    10.这篇的工作是多模态对比学习。参考文章:LIMoE:使用MoE学习多个模态-CSDN博客

http://www.mrgr.cn/news/28333.html

相关文章:

  • Shell基础2
  • DDRPHY数字IC后端设计实现系列专题之数字后端floorplanpowerplan设计
  • 前端web
  • 微搭低代码入门05循环
  • Chromium 中sqlite数据库操作演示c++
  • Javascript高级—搜索算法
  • 【最新华为OD机试E卷-支持在线评测】最长连续子序列(100分)多语言题解-(Python/C/JavaScript/Java/Cpp)
  • 公路数据集、桥梁数据集、隧道数据集、地铁数据集、水坝数据集、挡土墙数据集
  • 达芬奇竖屏导出有黑屏解决方案
  • cad2015以上默认设置
  • JAVA算法数据结构第一节稀疏矩阵
  • Python数据分析-世界上最富有的1000人
  • re题(21)BUUCTF—findit
  • 除了C# 、C++,C++ cli 、还有一个Java版的 db
  • 面试官问:请描述一次你成功解决问题的经历?
  • c++ #include <cmath>介绍
  • centos更改静态ip
  • 面试官问:你在团队中的角色是什么?
  • Vue3+Element Plus:使用el-dialog,对话框可拖动,且对话框弹出时仍然能够在背景页(对话框外部的页面部分)上进行滚动以及输入框输入信息
  • 一个有趣的“苦无”测试探针笔的设计
  • Python Pyvis库创建交互式网络图 高级功能详解
  • 【Python基础】Python 装饰器(优雅的代码增强工具)
  • STM32之FMC—扩展外部 SDRAM
  • SpringBoot 消息队列RabbitMQ 消息可靠性 数据持久化 与 LazyQueue
  • Java读取寄存器数据的方法
  • 53. 最大子数组和