当前位置: 首页 > news >正文

MOE论文汇总2

TASK-CUSTOMIZED MASKED AUTOENCODER VIA MIXTURE OF CLUSTER-CONDITIONAL Experts

文章配图
这篇论文提出了一种新颖的自监督学习方法,名为“Mixture of Cluster-conditional Experts (MoCE)”,旨在解决传统Masked Autoencoder (MAE)在不同下游任务中可能遇到的负迁移问题。MAE是一种流行的自监督学习模型预训练方法,但当预训练数据与下游任务的数据分布不一致时,可能会产生负迁移,影响模型的泛化能力。

MICE: MIXTURE OF CONTRASTIVE EXPERTS FOR UNSUPERVISED IMAGE clustering

文章配图
也是聚类

Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild

文章配图
这篇文章引入了低通和高通两个专家,来进行无监督对比学习


http://www.mrgr.cn/news/29001.html

相关文章:

  • java实现常见的密钥派生函数(KDF)
  • 传知代码-KAN卷积:医学图像分割新前沿
  • Typora安装,使用,图片加载全流程
  • 算法训练——day13哈希Map、Set、Bucket
  • vivado中选中bd文件后generate output product是什么用,create HDL wrapper是什么用
  • Apache Airflow
  • 枚举类题目练习心得
  • 介绍⼀下泛型擦除
  • 数据结构_1、基本概念
  • 强化学习Reinforcement Learning|Q-Learning|SARSA|DQN以及改进算法
  • 《C++虚函数调用开销大揭秘:性能与灵活性的权衡》
  • 如何在win10Docker安装Mysql数据库?
  • 数字经济指数合集
  • 了解云容器实例云容器实例(Cloud Container Instance)
  • Win11小技巧之调节音量
  • 微信支付开发-前端api实现
  • 系统架构设计师 大数据架构篇二
  • Spring 源码解读:实现@Scope与自定义作用域
  • hnust 湖科大 毕业实习常见问题30问(2021 年7月,V0.9)
  • 基于TCP实现聊天