EMT-DAVT--基于子空间分布对齐和决策变量转移的多目标多任务优化
EMT-DAVT–基于子空间分布对齐和决策变量转移的多目标多任务优化
title: Multiobjective Multitasking Optimization With Subspace Distribution Alignment and Decision Variable Transfer
author: Weifeng Gao, Jiangli Cheng, Maoguo Gong, Hong Li, and Jin Xie.
journal: IEEE TRANSACTIONS ON EMERGING TOPICS IN COMPUTATIONAL INTELLIGENCE (TETCI)
DOI:10.1109/TETCI.2021.3115518
code:
1.主要贡献:
EMT-DAVT包含子空间分布对齐(DA)策略和决策变量转移(VT)机制。在DA策略中,利用学习映射矩阵对齐子空间中的分布,减少属于不同任务的子种群之间的差异。然后,使用VT机制进一步促进正向信息传递。最后,设计了一种搜索策略来平衡探索和开发。
2.问题提出:
许多迁移学习方法被应用到多任务优化中,如EMEA、MO-MFEA-II、MOMFEA-SADE等,但是这些算法还是会带来负迁移,主要原因如下:
1)迁移个体的质量依赖于任务的相似度,而任务相似度是不确定的;并且当任务间相似度较低时,映射矩阵也可能是不准确的。
2)由于每个个体都有相同的概率被选中,所以一些低质量的个体也可能会被选择去交换信息;
3)常用的子空间对齐方法忽略了种群的平稳分布,使得目标空间中的预测个体缺乏多样性。
如图所示,假设红色方块表示从源任务迁移的个体,蓝色圆圈表示目标任务的种群。对于最小化问题来说,直接迁移个体不会帮助目标任务的搜索。
# 3.EMT-DAVT:3.1 子空间分布对齐策略(DA)
领域自适应可以通过建立一种映射矩阵来对齐子空间的偏差,但是这些方法没有考虑到子空间分布信息的散度,导致在自适应之后还是未对齐。为此,文章中提出了一种DA策略,它将源域和目标域投影到相应的低维子空间中,然后在两个子空间之间建立两个映射矩阵 M s t M_{st} Mst和 M t s M_{ts} Mts。与直接建立映射相比,该方法可以最小化两个域之间的差异。DA策略的细节介绍如下:
1)PCA降维得到分别属于种群 P s ∈ R N × D m a x , P t ∈ R N × D m a x × P_s\in R^{N\times D_{max}},P_t\in R^{N\times D_{max}\times} Ps∈RN×Dmax,Pt∈RN×Dmax×的子空间 S s ∈ R D m a x × h , S t ∈ R D m a x × h S_s\in R^{D_{max}\times h},S_t\in R^{D_{max}\times h} Ss∈RDmax×h,St∈RDmax×h
2)构建两个子空间的映射矩阵如下:
M s t = Q s t A s t M_{st}=Q_{st}A_{st} Mst=QstAst
其中, A s t A_{st} Ast是用来对齐子空间分布的矩阵, Q s t Q_{st} Qst是用来对齐偏差的矩阵,且是通过最小化Bregman矩阵散度损失构建:
F ( Q s t ) = ∣ ∣ S s Q s t − S t ∣ ∣ F 2 F(Q_{st})={||S_s Q_{st}-S_t||}^2_F F(Qst)=∣∣SsQst−St∣∣F2
Q s t ∗ = arg min Q s t ∈ R h × h F ( Q s t ) = S s T S t Q^*_{st}=\arg \min_{Q_{st\in R^{h \times h}}} F(Q_{st})=S^T_s S_t Qst∗=argQst∈Rh×hminF(Qst)=SsTSt
3)构建矩阵 A s t A_{st} Ast:首先通过归一化使得均值不会影响子空间的映射,则 A s t A_{st} Ast就可以直接在子空间中通过 P s P_s Ps和 P t P_t Pt的协方差矩阵构建。
A s t = W s − 1 W t = E s − 1 2 E t 1 2 A_{st}=W^{-1}_s W_t=E^{-\frac 1 2}_s E^{\frac 1 2}_t Ast=Ws−1Wt=Es−21Et21
其中, W s , W t W_s,W_t Ws,Wt表示两个协方差矩阵的平方根, E s , E t E_s,E_t Es,Et是两个子空间对应的特征值(通过PCA得到的)。因此最终的映射矩阵表示如下:
M s t = Q s t ∗ A s t = ( S s T S t ) ( E s − 1 2 E t 1 2 ) M_{st}=Q^*_{st}A_{st}=(S^T_s S_t)(E^{-\frac 1 2}_s E^{\frac 1 2}_t) Mst=Qst∗Ast=(SsTSt)(Es−21Et21)
M t s = Q t s ∗ A t s = ( S t T S s ) ( E t − 1 2 E s 1 2 ) M_{ts}=Q^*_{ts}A_{ts}=(S^T_t S_s)(E^{-\frac 1 2}_t E^{\frac 1 2}_s) Mts=Qts∗Ats=(StTSs)(Et−21Es21)
4)一个个体 x ∈ P s x\in P_s x∈Ps可以转换如下:
x ˉ = x ⋅ S s ⋅ M s t ⋅ S t T \bar x=x\cdot S_s \cdot M_{st} \cdot S^T_t xˉ=x⋅Ss⋅Mst⋅StT
3.2 决策变量迁移机制(VT)
采用无监督聚类的方式将 P t P_t Pt分成n类,聚类中心点表示为 C 1 t , C 2 t , . . . , C n t C^t_1,C^t_2,...,C^t_n C1t,C2t,...,Cnt,每一个聚类的点集表示为 B 1 t , B 2 t , . . . , B n t B^t_1,B^t_2,...,B^t_n B1t,B2t,...,Bnt。同理, P ˉ s \bar P_s Pˉs也被分为n类,聚类中心点表示为 C 1 s , C 2 s , . . . , C n s C^s_1,C^s_2,...,C^s_n C1s,C2s,...,Cns,每一个聚类的点集表示为 B 1 s , B 2 s , . . . , B n s B^s_1,B^s_2,...,B^s_n B1s,B2s,...,Bns。因为聚类中心更靠近于同一类的其他点,所以将聚类中心看作该聚类的代表点。
首先,点集 B 1 s B^s_1 B1s中的所有点被迁移到点集 B j 0 t B^t_{j_0} Bj0t通过如下计算:
p ˉ ˉ 1 , s i = p ˉ 1 , s i + ( C j 0 t − C 1 s ) \bar {\bar p}^i_{1,s}={\bar p}^i_{1,s}+(C^t_{j_0}-C^s_1) pˉˉ1,si=pˉ1,si+(Cj0t−C1s)
其中, p ˉ 1 , s i {\bar p}^i_{1,s} pˉ1,si表示聚类 B 1 s B^s_1 B1s中第i个点, p ˉ ˉ 1 , s i \bar {\bar p}^i_{1,s} pˉˉ1,si表示与 p ˉ 1 , s i {\bar p}^i_{1,s} pˉ1,si对应的迁移点, C j 0 t − C 1 s C^t_{j_0}-C^s_1 Cj0t−C1s代表两个聚类间的偏差。
3.3 搜索策略
1)任务内搜索策略:
“DE/rand/1”:
v i = x r 1 + β ⋅ ( x r 2 − x r 3 ) v_i=x_{r_1}+\beta\cdot(x_{r_2}-x_{r_3}) vi=xr1+β⋅(xr2−xr3)
“DE/best/1”:
v i = x b e s t + β ⋅ ( x r 1 − x r 2 ) v_i=x_{best}+\beta\cdot(x_{r_1}-x_{r_2}) vi=xbest+β⋅(xr1−xr2)
“DE/current-to-pbest/1”:
v i = x i + β ⋅ ( x p b e s t − x i ) + β ⋅ ( x r 1 − x r 2 ) v_i=x_{i}+\beta\cdot(x_{pbest}-x_{i})+\beta\cdot(x_{r_1}-x_{r_2}) vi=xi+β⋅(xpbest−xi)+β⋅(xr1−xr2)
2)任务间搜索策略:
“DE/rand/1”变体:
v i = x r 1 + β ⋅ ( x ~ r 2 − x ~ r 3 ) v_i=x_{r_1}+\beta\cdot(\tilde x_{r_2}-\tilde x_{r_3}) vi=xr1+β⋅(x~r2−x~r3)
“DE/best/1”:
v i = x b e s t + β ⋅ ( x ~ r 1 − x ~ r 2 ) v_i=x_{best}+\beta\cdot(\tilde x_{r_1}-\tilde x_{r_2}) vi=xbest+β⋅(x~r1−x~r2)
“DE/current-to-pbest/1”:
v i = x i + β ⋅ ( x ~ p b e s t − x i ) + β ⋅ ( x ~ r 1 − x ~ r 2 ) v_i=x_{i}+\beta\cdot(\tilde x_{pbest}-x_{i})+\beta\cdot(\tilde x_{r_1}-\tilde x_{r_2}) vi=xi+β⋅(x~pbest−xi)+β⋅(x~r1−x~r2)
其中,索引 r 1 , r 2 , r 3 r_1,r_2,r_3 r1,r2,r3是从 [ 1 , 2 N ] [1,2N] [1,2N]中选择的三个不同的随机数, x ~ r 1 , x ~ r 2 , x ~ r 3 \tilde x_{r_1},\tilde x_{r_2},\tilde x_{r_3} x~r1,x~r2,x~r3是从 P s P_s Ps和 P ˉ ˉ t \bar{\bar P}_t Pˉˉt的集合中随机采样的。
3.4 算法框架
1)初始化一个包含 K ⋅ N K\cdot N K⋅N个个体的种群并分配技能因子;
2)为每个任务 T k T_k Tk随机选择一个源任务 T s T_s Ts;
3)对 P s P_s Ps应用DA策略(算法2)获得 P ˉ s \bar P_s Pˉs;
4)对 P ˉ s \bar P_s Pˉs应用VT策略(算法3)获得 P ˉ ˉ s \bar{\bar P}_s Pˉˉs;
5)应用算法4来产生子代 C k C_k Ck
6)环境选择
# 4.思考1)EMT-DAVT中提出来两种策略:DA策略通过构建映射矩阵来对齐子空间分布,VT策略通过考虑源域与目标域中聚类中心间的距离来减少偏差。
2)领域自适应在MTO中的发展历程:整个高维矩阵的映射:EMEA是源域与目标域之间的直接映射,降维子空间的映射:MO-MFEA-SADE是源域与目标域的子空间之间的映射,EMT-DAVT是源域与目标域的子空间的聚类中心之间的映射,一维向量之间的映射:MFEA-GSMT、KR-MTEA是源域与目标域的维度之间的映射。