当前位置: 首页 > news >正文

【SSL-RL】自监督强化学习:随机潜在演员评论家 (SLAC)算法

        📢本篇文章是博主强化学习(RL)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在👉强化学习专栏:

       【强化学习】(43)---《自监督强化学习:随机潜在演员评论家 (SLAC)算法》

自监督强化学习:随机潜在演员评论家 (SLAC)算法

目录

1. 引言

2. SLAC算法的核心思想

2.1 隐变量模型的构建

2.2 自监督的潜在状态预测

2.3 重构与预测损失

2.4 Actor-Critic架构中的策略优化

3. SLAC算法的工作流程

3.1 数据编码

3.2 动态模型预测

3.3 重构观测与优化损失

3.4 策略优化

[Python] SLAC算法的实现示例

[Experiment] SLAC算法的应用示例

[Notice]  代码解析

4. SLAC的优势与挑战

5. 结论


1. 引言

        随机潜在演员评论家Stochastic Latent Actor-Critic (SLAC)算法 是一种用于连续控制任务的自监督强化学习算法,由Google Brain提出。SLAC结合了自监督学习和深度强化学习,通过构建一个隐变量模型(Latent Variable Model)来捕捉环境的潜在状态,并使用这些状态来进行策略优化。SLAC特别适合于高维观测(如图像)和部分可观测的环境。SLAC算法的主要目标是通过学习潜在空间的动态来更好地估计环境状态,进而提升智能体的策略学习效率。


2. SLAC算法的核心思想

SLAC通过以下三个核心模块实现强化学习中的表示学习和策略优化:

  • 隐变量模型(Latent Variable Model):SLAC构建了一个隐变量模型,将环(\theta)境的观测映射到低维的潜在空间,从而在潜在空间中进行预测和策略学习。
  • 自监督学习(Self-Supervised Learning):通过重构和预测未来潜在状态,SLAC可以在没有外部奖励的情况下学习潜在表示。
  • Actor-Critic架构:SLAC采用了Actor-Critic架构,其中策略(Actor)和价值函数(Critic)都在潜在空间中进行优化。

2.1 隐变量模型的构建

        在SLAC中,环境的高维观测( o_t )被映射到一个低维的潜在状态( z_t )。这个隐变量模型由以下几个部分组成:

  1. 编码器(Encoder):将观测( o_t )编码为潜在表示( z_t )
  2. 潜在动态模型(Latent Dynamics Model):预测潜在状态在时间上的演变,从而能够模拟环境的动态。
  3. 解码器(Decoder):从潜在空间重构观测,用于约束潜在表示能够捕捉到环境的关键信息。

SLAC中的编码器和解码器分别定义为:

[ z_t \sim q_\phi(z_t | o_t, z_{t-1}, a_{t-1}) ] [ \hat{o}t \sim p\theta(o_t | z_t) ]

其中,(\phi)(\theta)是编码器和解码器的参数。

2.2 自监督的潜在状态预测

        SLAC的潜在动态模型是一个随机过程,定义为:

[ z_{t+1} \sim p_\psi(z_{t+1} | z_t, a_t) ]

        通过自监督学习,SLAC训练潜在动态模型来预测未来的潜在状态,使得模型能够捕捉环境的动态变化。这种预测过程引入了随机性,以捕捉环境中的不确定性。

2.3 重构与预测损失

为了确保潜在表示能够有效地重构观测,并预测未来状态,SLAC的损失函数包括以下两个部分:

        重构损失(Reconstruction Loss):用于约束编码器和解码器,使得潜在表示能够重构原始观测。

[ L_{\text{recon}} = \mathbb{E}{q\phi(z_t | o_t)} \left[ -\log p_\theta(o_t | z_t) \right] ]

预测损失(Predictive Loss):用于训练潜在动态模型,使其能够预测未来的潜在状态。

[ L_{\text{predict}} = \mathbb{E}{q\phi(z_t | o_t)} \left[ -\log p_\psi(z_{t+1} | z_t, a_t) \right] ]

        SLAC的最终损失函数可以写为:

[ L_{\text{total}} = L_{\text{recon}} + \lambda L_{\text{predict}} ]

其中,(\lambda)是用于平衡重构和预测损失的超参数。

2.4 Actor-Critic架构中的策略优化

        在SLAC中,策略优化是在潜在空间中进行的。SLAC采用了软演员-评论家(Soft Actor-Critic, SAC)算法,并将其应用于潜在空间。SAC是一种基于熵正则化的强化学习算法,目的是在学习最优策略的同时,鼓励策略的多样性。

        策略网络(Actor):在潜在空间中,策略网络 ( \pi_\theta(a_t | z_t) )生成动作分布,最大化策略的预期回报。

        价值网络(Critic):价值网络( Q_\psi(z_t, a_t) )估计给定潜在状态和动作的价值,用于更新策略。

        SAC的目标是最大化以下目标函数:

[ J(\pi) = \sum_{t=0}^\infty \mathbb{E}_{(z_t, a_t) \sim \pi} \left[ r(z_t, a_t) + \alpha \mathcal{H}(\pi(\cdot | z_t)) \right] ]

其中,(\alpha)是用于控制熵项的超参数,(\mathcal{H})是策略的熵,用于增加策略的探索性。

3. SLAC算法的工作流程

3.1 数据编码

        在每个时间步(t),环境的观测(o_t)被编码为潜在状态(z_t)。编码器 (q_\phi(z_t | o_t, z_{t-1}, a_{t-1}))将观测和过去的潜在状态、动作作为输入,输出当前的潜在状态。

3.2 动态模型预测

        SLAC使用潜在动态模型预测未来潜在状态 (z_{t+1})。通过这种自监督的预测机制,模型能够捕捉环境中的长期依赖关系。

3.3 重构观测与优化损失

        通过解码器(p_\theta(o_t | z_t)),SLAC尝试重构观测,以确保潜在表示捕捉了环境的关键信息。通过最小化重构损失和预测损失,SLAC能够有效学习潜在表示。

3.4 策略优化

        SLAC在潜在空间中使用SAC算法进行策略优化。通过最大化策略的预期回报和策略的熵,SLAC的策略网络学会在潜在空间中采取最优动作。


[Python] SLAC算法的实现示例

        以下是一个简化的SLAC实现,示例展示了如何使用PyTorch实现简化的SLAC模型,并进行训练以学习潜在表示和优化策略。这个实现包含了编码器、解码器和潜在动态模型,用于在潜在空间中对环境进行建模和策略学习。

        🔥若是下面代码复现困难或者有问题,欢迎评论区留言;需要以整个项目形式的代码,请在评论区留下您的邮箱📌,以便于及时分享给您(私信难以及时回复)。

"""《 SLAC算法的实现示例》时间:2024.11作者:不去幼儿园
"""
import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np# 定义SLAC模型类
class SLAC(nn.Module):def __init__(self, obs_dim, act_dim, latent_dim):super(SLAC, self).__init__()self.encoder = Encoder(obs_dim, latent_dim)self.decoder = Decoder(latent_dim, obs_dim)self.latent_dyn_model = LatentDynamics(latent_dim, act_dim)def forward(self, obs, action):# 编码观测得到潜在表示latent_state = self.encoder(obs)# 解码重构观测recon_obs = self.decoder(latent_state)# 预测潜在状态的变化next_latent_state = self.latent_dyn_model(latent_state, action)return recon_obs, latent_state, next_latent_state# 定义SLAC模型中的编码器、解码器和潜在动态模型
class Encoder(nn.Module):def __init__(self, obs_dim, latent_dim):super(Encoder, self).__init__()self.fc1 = nn.Linear(obs_dim, 64)self.fc2 = nn.Linear(64, latent_dim)self.relu = nn.ReLU()def forward(self, obs):x = self.relu(self.fc1(obs))latent_state = self.fc2(x)return latent_stateclass Decoder(nn.Module):def __init__(self, latent_dim, obs_dim):super(Decoder, self).__init__()self.fc1 = nn.Linear(latent_dim, 64)self.fc2 = nn.Linear(64, obs_dim)self.relu = nn.ReLU()def forward(self, latent_state):x = self.relu(self.fc1(latent_state))recon_obs = self.fc2(x)return recon_obsclass LatentDynamics(nn.Module):def __init__(self, latent_dim, act_dim):super(LatentDynamics, self).__init__()self.fc1 = nn.Linear(latent_dim + act_dim, 64)self.fc2 = nn.Linear(64, latent_dim)self.relu = nn.ReLU()def forward(self, latent_state, action):x = torch.cat([latent_state, action], dim=1)x = self.relu(self.fc1(x))next_latent_state = self.fc2(x)return next_latent_state

算法训练:

# 创建SLAC模型实例
obs_dim = 64
act_dim = 32
latent_dim = 16
slac_model = SLAC(obs_dim, act_dim, latent_dim)# 定义优化器和损失函数
optimizer = optim.Adam(slac_model.parameters(), lr=1e-3)
mse_loss = nn.MSELoss()# 训练SLAC模型
def train_slac_model(num_iterations, batch_size):for i in range(num_iterations):obs_batch = torch.randn(batch_size, obs_dim)action_batch = torch.randn(batch_size, act_dim)# 前向传播recon_obs, latent_state, next_latent_state = slac_model(obs_batch, action_batch)# 计算重构损失和预测损失recon_loss = mse_loss(recon_obs, obs_batch)predict_loss = mse_loss(next_latent_state, latent_state)total_loss = recon_loss + predict_loss# 反向传播和优化optimizer.zero_grad()total_loss.backward()optimizer.step()if i % 100 == 0:print(f"Iteration {i}, Total Loss: {total_loss.item()}")# 示例训练
train_slac_model(num_iterations=1000, batch_size=32)

[Experiment] SLAC算法的应用示例

        在复杂的强化学习任务中,例如连续控制问题,SLAC通过将高维观测映射到低维潜在空间,在潜在空间中进行动态建模和策略优化。SLAC特别适用于机器人控制和自主驾驶等需要处理连续动作空间的任务。以下是SLAC在强化学习中的应用示例,展示如何在潜在空间中进行策略优化。

应用流程

  1. 环境初始化:创建强化学习环境,定义观测和动作的维度。
  2. SLAC模型初始化:创建SLAC模型,包括编码器、解码器和潜在动态模型。
  3. 策略模型初始化:采用Soft Actor-Critic(SAC)算法,初始化Actor-Critic网络,并将潜在状态作为SAC的输入。
  4. 训练循环
    • 潜在状态编码:通过SLAC模型的编码器,将观测数据映射到潜在状态空间。
    • 策略选择:在潜在空间中使用SAC的Actor网络选择最优动作。
    • 环境交互与反馈:执行选择的动作,环境返回奖励和下一个观测。
    • 潜在动态预测:使用SLAC的动态模型预测下一个潜在状态,并计算预测损失。
    • 策略优化与模型同步:更新SLAC模型和SAC策略模型。
# 定义SLAC与SAC联合的智能体
class SLACAgent:def __init__(self, obs_dim, act_dim, latent_dim, actor_lr=3e-4, critic_lr=3e-4):self.slac_model = SLAC(obs_dim, act_dim, latent_dim)self.actor = Actor(latent_dim, act_dim)self.critic = Critic(latent_dim, act_dim)self.slac_optimizer = optim.Adam(self.slac_model.parameters(), lr=3e-4)self.actor_optimizer = optim.Adam(self.actor.parameters(), lr=actor_lr)self.critic_optimizer = optim.Adam(self.critic.parameters(), lr=critic_lr)def select_action(self, latent_state):mean, std = self.actor(latent_state)dist = Normal(mean, std)action = dist.sample()return action, dist.log_prob(action)def update(self, obs_batch, action_batch, reward_batch, next_obs_batch):# 使用SLAC模型进行编码和预测recon_obs, latent_state, next_latent_pred = self.slac_model(obs_batch, action_batch)next_latent_state = self.slac_model.encoder(next_obs_batch)# 计算重构损失和预测损失recon_loss = torch.mean((recon_obs - obs_batch) ** 2)predict_loss = torch.mean((next_latent_pred - next_latent_state) ** 2)slac_loss = recon_loss + predict_loss# 更新SLAC模型self.slac_optimizer.zero_grad()slac_loss.backward()self.slac_optimizer.step()# 计算Critic损失并更新q_value = self.critic(latent_state, action_batch)next_q_value = reward_batch + 0.99 * self.critic(next_latent_state, self.actor(next_latent_state)[0]).detach()critic_loss = torch.mean((q_value - next_q_value) ** 2)self.critic_optimizer.zero_grad()critic_loss.backward()self.critic_optimizer.step()# 计算Actor损失并更新action, log_prob = self.select_action(latent_state)actor_loss = torch.mean(-self.critic(latent_state, action) + 0.2 * log_prob)self.actor_optimizer.zero_grad()actor_loss.backward()self.actor_optimizer.step()

实例训练:

# 训练SLAC智能体
def train_slac_agent(agent, env, num_episodes):for episode in range(num_episodes):obs = env.reset()done = Falseepisode_reward = 0while not done:obs_tensor = torch.tensor(obs, dtype=torch.float32).unsqueeze(0)latent_state = agent.slac_model.encoder(obs_tensor)# 选择动作并与环境交互action, _ = agent.select_action(latent_state)action_np = action.detach().numpy()next_obs, reward, done, _ = env.step(action_np)# 存储并更新模型agent.update(obs_tensor, action, reward, torch.tensor(next_obs, dtype=torch.float32).unsqueeze(0))obs = next_obsepisode_reward += rewardprint(f"Episode {episode + 1}: Total Reward = {episode_reward}")# 示例用法
obs_dim = 64
act_dim = 32
latent_dim = 16
slac_agent = SLACAgent(obs_dim, act_dim, latent_dim)# 训练SLAC Agent
train_slac_agent(slac_agent, env, num_episodes=100)

[Notice]  代码解析

  • 潜在状态表示学习:SLAC模型将高维观测编码为潜在状态,使得模型在潜在空间中进行策略选择和动态建模。
  • Actor-Critic策略优化:在潜在空间中使用SAC算法,通过Critic网络估计潜在状态和动作的价值,Actor网络选择最大化长期回报的动作。
  • 重构和预测损失:SLAC模型通过重构和预测损失优化潜在状态表示,使得潜在空间能够有效描述环境动态。

        由于博文主要为了介绍相关算法的原理应用的方法,缺乏对于实际效果的关注,算法可能在上述环境中的效果不佳或者无法运行,一是算法不适配上述环境,二是算法未调参和优化,三是没有呈现完整的代码,四是等等。上述代码用于了解和学习算法足够了,但若是想直接将上面代码应用于实际项目中,还需要进行修改。


4. SLAC的优势与挑战

优势

  1. 适用于高维观测:SLAC通过隐变量模型,将高维观测映射到低维潜在空间,在图像和视频等高维输入上表现优异。
  2. 捕捉环境动态:SLAC的潜在动态模型能够预测未来状态,捕捉环境中的长期依赖关系。
  3. 高效的探索策略:通过在潜在空间中进行策略优化,SLAC能够更高效地学习策略,减少计算负担。

挑战

  1. 计算开销较高:SLAC的实现需要编码器、解码器和动态模型的协同工作,对计算资源要求较高。
  2. 超参数敏感性:SLAC的性能对模型结构和超参数设置较为敏感,可能需要在具体任务中进行细致的调优。
  3. 潜在空间的解释性:SLAC学习的潜在表示在一定程度上是黑箱的,缺乏解释性。

5. 结论

        Stochastic Latent Actor-Critic (SLAC) 算法通过整合自监督学习和深度强化学习,提供了一种有效处理高维观测和部分可观测环境的方法。通过学习潜在空间中的动态变化和策略优化,SLAC在多种连续控制任务中表现出色,为复杂环境中的智能体学习提供了新的思路和方法。

参考文献:Stochastic Latent Actor-Critic: Deep Reinforcement Learning with a Latent Variable Model

 更多自监督强化学习文章,请前往:【自监督强化学习】专栏 


     文章若有不当和不正确之处,还望理解与指出。由于部分文字、图片等来源于互联网,无法核实真实出处,如涉及相关争议,请联系博主删除。如有错误、疑问和侵权,欢迎评论留言联系作者,或者添加VX:Rainbook_2,联系作者。✨


http://www.mrgr.cn/news/70150.html

相关文章:

  • Go:文件输入输出以及json解析
  • 简析大模型参数高效微调方法
  • 如何在使用远程控制软件的时候保护个人隐私不被泄露?
  • FFmpeg 4.3 音视频-多路H265监控录放C++开发十三:将AVFrame转换成AVPacket。视频编码原理.编码相关api
  • golang分布式缓存项目 Day5 分布式节点
  • Ingress nginx 公开TCP服务
  • Deepin 系统中安装Rider和Uno Platform
  • 《Django 5 By Example》阅读笔记:p1-p16
  • 前端-服务端渲染(SSR)和客户端渲染(CSR)的页面,在浏览器发出请求之后,分别返回的是什么
  • axios如何给某一个请求设置请求头信息
  • Python和Java就业趋势分析
  • Swift 宏(Macro)入门趣谈(一)
  • Xcode 16 中 Swift Testing 的参数化(Parameterized)机制趣谈
  • MrakDown图片
  • 关于JWT的攻击利用
  • 盘古信息赋能中小企业:数字化转型的成功实践分享
  • Deepin系统安装NET 8.0.10 运行时
  • 深入理解Python字符串:驻留机制、内存分析与同一性判断
  • 2024中国游戏出海情况
  • 【Linux系统编程】线程--控制
  • linux内核驱动心得
  • 整页添加水印的方法
  • idea插件开发-国际化调试
  • 985研一学习日记 - 2024.11.10
  • AI写作(七)的核心技术探秘:情感分析与观点挖掘
  • 以字符串的形式输出一个当前操作系统的路径分隔符os.altsep