当前位置: 首页 > news >正文

EMT-DAVT--基于子空间分布对齐和决策变量转移的多目标多任务优化

EMT-DAVT–基于子空间分布对齐和决策变量转移的多目标多任务优化

title: Multiobjective Multitasking Optimization With Subspace Distribution Alignment and Decision Variable Transfer

author: Weifeng Gao, Jiangli Cheng, Maoguo Gong, Hong Li, and Jin Xie.

journal: IEEE TRANSACTIONS ON EMERGING TOPICS IN COMPUTATIONAL INTELLIGENCE (TETCI)

DOI:10.1109/TETCI.2021.3115518

code:

1.主要贡献:

​ EMT-DAVT包含子空间分布对齐(DA)策略和决策变量转移(VT)机制。在DA策略中,利用学习映射矩阵对齐子空间中的分布,减少属于不同任务的子种群之间的差异。然后,使用VT机制进一步促进正向信息传递。最后,设计了一种搜索策略来平衡探索和开发。

2.问题提出:

​ 许多迁移学习方法被应用到多任务优化中,如EMEA、MO-MFEA-II、MOMFEA-SADE等,但是这些算法还是会带来负迁移,主要原因如下:

​ 1)迁移个体的质量依赖于任务的相似度,而任务相似度是不确定的;并且当任务间相似度较低时,映射矩阵也可能是不准确的。

​ 2)由于每个个体都有相同的概率被选中,所以一些低质量的个体也可能会被选择去交换信息;

​ 3)常用的子空间对齐方法忽略了种群的平稳分布,使得目标空间中的预测个体缺乏多样性。

​ 如图所示,假设红色方块表示从源任务迁移的个体,蓝色圆圈表示目标任务的种群。对于最小化问题来说,直接迁移个体不会帮助目标任务的搜索。

image-20240914154404791 # 3.EMT-DAVT:

3.1 子空间分布对齐策略(DA)

​ 领域自适应可以通过建立一种映射矩阵来对齐子空间的偏差,但是这些方法没有考虑到子空间分布信息的散度,导致在自适应之后还是未对齐。为此,文章中提出了一种DA策略,它将源域和目标域投影到相应的低维子空间中,然后在两个子空间之间建立两个映射矩阵 M s t M_{st} Mst M t s M_{ts} Mts。与直接建立映射相比,该方法可以最小化两个域之间的差异。DA策略的细节介绍如下:

​ 1)PCA降维得到分别属于种群 P s ∈ R N × D m a x , P t ∈ R N × D m a x × P_s\in R^{N\times D_{max}},P_t\in R^{N\times D_{max}\times} PsRN×Dmax,PtRN×Dmax×的子空间 S s ∈ R D m a x × h , S t ∈ R D m a x × h S_s\in R^{D_{max}\times h},S_t\in R^{D_{max}\times h} SsRDmax×h,StRDmax×h

​ 2)构建两个子空间的映射矩阵如下:
M s t = Q s t A s t M_{st}=Q_{st}A_{st} Mst=QstAst
其中, A s t A_{st} Ast是用来对齐子空间分布的矩阵, Q s t Q_{st} Qst是用来对齐偏差的矩阵,且是通过最小化Bregman矩阵散度损失构建:
F ( Q s t ) = ∣ ∣ S s Q s t − S t ∣ ∣ F 2 F(Q_{st})={||S_s Q_{st}-S_t||}^2_F F(Qst)=∣∣SsQstSt∣∣F2

Q s t ∗ = arg ⁡ min ⁡ Q s t ∈ R h × h F ( Q s t ) = S s T S t Q^*_{st}=\arg \min_{Q_{st\in R^{h \times h}}} F(Q_{st})=S^T_s S_t Qst=argQstRh×hminF(Qst)=SsTSt

​ 3)构建矩阵 A s t A_{st} Ast:首先通过归一化使得均值不会影响子空间的映射,则 A s t A_{st} Ast就可以直接在子空间中通过 P s P_s Ps P t P_t Pt的协方差矩阵构建。
A s t = W s − 1 W t = E s − 1 2 E t 1 2 A_{st}=W^{-1}_s W_t=E^{-\frac 1 2}_s E^{\frac 1 2}_t Ast=Ws1Wt=Es21Et21
其中, W s , W t W_s,W_t Ws,Wt表示两个协方差矩阵的平方根, E s , E t E_s,E_t Es,Et是两个子空间对应的特征值(通过PCA得到的)。因此最终的映射矩阵表示如下:
M s t = Q s t ∗ A s t = ( S s T S t ) ( E s − 1 2 E t 1 2 ) M_{st}=Q^*_{st}A_{st}=(S^T_s S_t)(E^{-\frac 1 2}_s E^{\frac 1 2}_t) Mst=QstAst=(SsTSt)(Es21Et21)

M t s = Q t s ∗ A t s = ( S t T S s ) ( E t − 1 2 E s 1 2 ) M_{ts}=Q^*_{ts}A_{ts}=(S^T_t S_s)(E^{-\frac 1 2}_t E^{\frac 1 2}_s) Mts=QtsAts=(StTSs)(Et21Es21)

​ 4)一个个体 x ∈ P s x\in P_s xPs可以转换如下:
x ˉ = x ⋅ S s ⋅ M s t ⋅ S t T \bar x=x\cdot S_s \cdot M_{st} \cdot S^T_t xˉ=xSsMstStT
image-20240916095011980

3.2 决策变量迁移机制(VT)

​ 采用无监督聚类的方式将 P t P_t Pt分成n类,聚类中心点表示为 C 1 t , C 2 t , . . . , C n t C^t_1,C^t_2,...,C^t_n C1t,C2t,...,Cnt,每一个聚类的点集表示为 B 1 t , B 2 t , . . . , B n t B^t_1,B^t_2,...,B^t_n B1t,B2t,...,Bnt。同理, P ˉ s \bar P_s Pˉs也被分为n类,聚类中心点表示为 C 1 s , C 2 s , . . . , C n s C^s_1,C^s_2,...,C^s_n C1s,C2s,...,Cns,每一个聚类的点集表示为 B 1 s , B 2 s , . . . , B n s B^s_1,B^s_2,...,B^s_n B1s,B2s,...,Bns。因为聚类中心更靠近于同一类的其他点,所以将聚类中心看作该聚类的代表点。

​ 首先,点集 B 1 s B^s_1 B1s中的所有点被迁移到点集 B j 0 t B^t_{j_0} Bj0t通过如下计算:
p ˉ ˉ 1 , s i = p ˉ 1 , s i + ( C j 0 t − C 1 s ) \bar {\bar p}^i_{1,s}={\bar p}^i_{1,s}+(C^t_{j_0}-C^s_1) pˉˉ1,si=pˉ1,si+(Cj0tC1s)
其中, p ˉ 1 , s i {\bar p}^i_{1,s} pˉ1,si表示聚类 B 1 s B^s_1 B1s中第i个点, p ˉ ˉ 1 , s i \bar {\bar p}^i_{1,s} pˉˉ1,si表示与 p ˉ 1 , s i {\bar p}^i_{1,s} pˉ1,si对应的迁移点, C j 0 t − C 1 s C^t_{j_0}-C^s_1 Cj0tC1s代表两个聚类间的偏差。

image-20240916100029514

3.3 搜索策略

1)任务内搜索策略:

​ “DE/rand/1”:
v i = x r 1 + β ⋅ ( x r 2 − x r 3 ) v_i=x_{r_1}+\beta\cdot(x_{r_2}-x_{r_3}) vi=xr1+β(xr2xr3)
​ “DE/best/1”:
v i = x b e s t + β ⋅ ( x r 1 − x r 2 ) v_i=x_{best}+\beta\cdot(x_{r_1}-x_{r_2}) vi=xbest+β(xr1xr2)
​ “DE/current-to-pbest/1”:
v i = x i + β ⋅ ( x p b e s t − x i ) + β ⋅ ( x r 1 − x r 2 ) v_i=x_{i}+\beta\cdot(x_{pbest}-x_{i})+\beta\cdot(x_{r_1}-x_{r_2}) vi=xi+β(xpbestxi)+β(xr1xr2)
2)任务间搜索策略:

​ “DE/rand/1”变体:
v i = x r 1 + β ⋅ ( x ~ r 2 − x ~ r 3 ) v_i=x_{r_1}+\beta\cdot(\tilde x_{r_2}-\tilde x_{r_3}) vi=xr1+β(x~r2x~r3)
​ “DE/best/1”:
v i = x b e s t + β ⋅ ( x ~ r 1 − x ~ r 2 ) v_i=x_{best}+\beta\cdot(\tilde x_{r_1}-\tilde x_{r_2}) vi=xbest+β(x~r1x~r2)
​ “DE/current-to-pbest/1”:
v i = x i + β ⋅ ( x ~ p b e s t − x i ) + β ⋅ ( x ~ r 1 − x ~ r 2 ) v_i=x_{i}+\beta\cdot(\tilde x_{pbest}-x_{i})+\beta\cdot(\tilde x_{r_1}-\tilde x_{r_2}) vi=xi+β(x~pbestxi)+β(x~r1x~r2)
其中,索引 r 1 , r 2 , r 3 r_1,r_2,r_3 r1,r2,r3是从 [ 1 , 2 N ] [1,2N] [1,2N]中选择的三个不同的随机数, x ~ r 1 , x ~ r 2 , x ~ r 3 \tilde x_{r_1},\tilde x_{r_2},\tilde x_{r_3} x~r1,x~r2,x~r3是从 P s P_s Ps P ˉ ˉ t \bar{\bar P}_t Pˉˉt的集合中随机采样的。

3.4 算法框架

​ 1)初始化一个包含 K ⋅ N K\cdot N KN个个体的种群并分配技能因子;

​ 2)为每个任务 T k T_k Tk随机选择一个源任务 T s T_s Ts;

​ 3)对 P s P_s Ps应用DA策略(算法2)获得 P ˉ s \bar P_s Pˉs;

​ 4)对 P ˉ s \bar P_s Pˉs应用VT策略(算法3)获得 P ˉ ˉ s \bar{\bar P}_s Pˉˉs;

​ 5)应用算法4来产生子代 C k C_k Ck

​ 6)环境选择

image-20240916104658195 # 4.思考

1)EMT-DAVT中提出来两种策略:DA策略通过构建映射矩阵来对齐子空间分布,VT策略通过考虑源域与目标域中聚类中心间的距离来减少偏差。

2)领域自适应在MTO中的发展历程:整个高维矩阵的映射:EMEA是源域与目标域之间的直接映射,降维子空间的映射:MO-MFEA-SADE是源域与目标域的子空间之间的映射,EMT-DAVT是源域与目标域的子空间的聚类中心之间的映射,一维向量之间的映射:MFEA-GSMT、KR-MTEA是源域与目标域的维度之间的映射。


http://www.mrgr.cn/news/28079.html

相关文章:

  • 【日常记录-Git】git log
  • 01 P2367 语文成绩
  • 品牌如何利用大数据工具,进行消费者洞察分析?
  • PyAEDT:Ansys Electronics Desktop API 简介
  • Flutter下拉刷新上拉加载的简单实现方式二
  • Fisher矩阵和Hessian矩阵的关系:证明Fisher为负对数似然函数的Hessian的期望
  • UART协议
  • 7-16 一元多项式求导(vector)
  • 笔记整理—内核!启动!—kernel部分(7)rcs文件和登录部分与密码解析
  • pip安装包、卸载包、更新包命令
  • 8.JMeter+Ant(基于工具的实现接口自动化,命令行方式)
  • CF 231 E Cactus 题解(仙人掌图上找环)
  • C Primer Plus 第5章习题
  • 数据清洗-缺失值填充-K-NN算法(K-Nearest Neighbors, K-NN算法)
  • 尚品汇-秒杀商品存入缓存、Redis发布订阅实现状态位(五十一)
  • 最少逆序对数量+dp
  • 鸿蒙 ArkUI组件二
  • Linux:进程状态和优先级
  • 基于51单片机的220V交流数字电流表proteus仿真
  • 差分进化算法(DE算法)求解实例---旅行商问题 (TSP)
  • 电脑硬盘被BitLocker,忘记秘钥
  • 仿先卜php阴盘奇门排盘的算法简述以及php的代码实现开源支持二开
  • Python进阶————迭代器与生成器
  • 《浔川社团官方联合会入驻 CSDN 公告》
  • java定时任务
  • 共享内存的理解