当前位置: 首页 > news >正文

深度学习自编码器 - 随机编码器和解码器篇

序言

在深度学习领域,自编码器作为一种无监督学习技术,凭借其强大的特征表示能力,在数据压缩、去噪、异常检测及生成模型等多个方面展现出独特魅力。其中,随机编码器和解码器作为自编码器的一种创新形式,进一步拓宽了其应用边界。随机编码器通过引入随机性,如噪声注入或概率性映射,使得编码过程不再拘泥于固定的转换规则,而是能够捕捉数据中的潜在随机性和多样性。这一特性对于处理复杂多变的现实世界数据尤为关键,因为它允许模型在编码时保留更多的不确定性信息,为后续处理或生成任务提供丰富的素材。

随机编码器和解码器(Stochastic Encoders and Decoders)

  • 自编码器仅仅是一个前馈网络,可以使用与传统前馈网络相同的损失函数和输出单元。

  • 深度网络现代实践 - 深度前馈网络之基于梯度的学习篇 - 其他的输出类型中描述,设计前馈网络的输出单元和损失函数普遍策略是定义一个输出分布 p ( y ∣ x ) p(\boldsymbol{y}\mid\boldsymbol{x}) p(yx) 并最小化负对数似然 − log ⁡ p ( y ∣ x ) -\log p(\boldsymbol{y}\mid\boldsymbol{x}) logp(yx)。在这种情况下, y \boldsymbol{y} y 是关于目标的向量(如类标)。

  • 在自编码器中, x \boldsymbol{x} x 既是输入也是目标。

    • 然而,我们仍然可以使用与之前相同的架构。
    • 给定一个隐藏编码 h \boldsymbol{h} h,我们可以认为解码器提供了一个条件分布 p model ( x ∣ h ) p_{\text{model}}(\boldsymbol{x}\mid\boldsymbol{h}) pmodel(xh)
    • 接着我们根据最小化 − log ⁡ p decoder ( x ∣ h ) -\log p_{\text{decoder}}(\boldsymbol{x}\mid\boldsymbol{h}) logpdecoder(xh) 来训练自编码器。
    • 损失函数的具体形式视 p decoder p_{\text{decoder}} pdecoder 的形式而定。
    • 就传统的前馈网络来说,我们通常使用线性输出单元参数化高斯分布的均值(如果 x \boldsymbol{x} x 是实的)。
    • 在这种情况下,负对数似然对应均方误差准则。
    • 类似地,二值 x \boldsymbol{x} x 对应参数由 sigmoid \text{sigmoid} sigmoid单元确定的Bernoulli 分布,离散的 x \boldsymbol{x} x 对应 softmax \text{softmax} softmax分布等等。
    • 为了便于计算概率分布,我们通常认为输出变量与给定 h \boldsymbol{h} h 是条件独立的,但一些技术(如混合密度输出)可以解决输出相关的建模。
  • 为了更彻底地区别之前看到的前馈网络,我们也可以将编码函数 ( encoding function \text{encoding function} encoding function) f ( x ) f(x) f(x) 的概念推广为编码分布 ( encoding distribution \text{encoding distribution} encoding distribution) p encoder ( h ∣ x ) p_{\text{encoder}}(\boldsymbol{h}\mid\boldsymbol{x}) pencoder(hx),如图例1中所示。

  • 一般情况下, 编码器和解码器的分布没有必要与一个唯一的联合分布 p model ( x ∣ h ) p_{\text{model}}(\boldsymbol{x}\mid\boldsymbol{h}) pmodel(xh) 的条件分布相容。 Alain et al. (2015) \text{Alain et al. (2015)} Alain et al. (2015) 指出将编码器和解码器作为去噪自编码器训练,能使它们渐近地相容(有足够的容量和样本)。


  • 图例1:随机自编码器的结构,其中编码器和解码器包括一些噪声注入,而不是简单的函数。
    • 随机自编码器的结构,其中编码器和解码器包括一些噪声注入,而不是简单的函数。
      在这里插入图片描述

    • 说明:

      • 这意味着可以将它们的输出视为来自分布的采样(对于编码器是 p encoder ( h ∣ x ) p_{\text{encoder}}(\boldsymbol{h}\mid\boldsymbol{x}) pencoder(hx),对于解码器是 p decoder ( x ∣ h ) p_{\text{decoder}}(\boldsymbol{x}\mid\boldsymbol{h}) pdecoder(xh)

总结

  • 随机编码器和解码器的引入,为深度学习自编码器家族增添了新的活力与可能性。它们不仅增强了自编码器处理复杂数据的能力,还促进了生成模型的发展,使得生成的数据样本更加自然、多样。通过随机性的巧妙运用,这些模型能够在保持数据主要特征的同时,有效模拟真实世界中的不确定性,为图像生成、文本创作乃至更广泛的AI创作领域开辟了新路径。
  • 未来,随着技术的不断进步和算法的优化,随机自编码器有望在更多领域展现其独特价值,推动人工智能技术的持续创新与发展。

往期内容回顾

深度学习自编码器 - 引言篇
深度学习自编码器 - 欠完备自编码器篇
深度学习自编码器 - 正则自编码器篇
深度网络现代实践 - 深度前馈网络之基于梯度的学习篇


http://www.mrgr.cn/news/28506.html

相关文章:

  • Python数据分析NumPy和pandas(二十九、其他Python可视化工具)
  • 基于机器学习电信号EMG训练分类模型控制仿生手控制系统(Matlab-Simulink实现)
  • el-tree 父节点隐藏
  • C++中的栈(Stack)和堆(Heap)
  • Move开发语言在区块链的开发与应用
  • openwebui二改界面环境搭建
  • 上海餐饮数据分析与可视化
  • FastGPT一站式解决方案[2-应用篇]:轻松实现RAG-智能问答系统,AI工作流、核心模块讲解
  • Java 每日一刊(第9期):数组
  • 淘客返利系统的异步任务处理与调度
  • 【C++】基础知识 笔记
  • WPF入门教学四 WPF控件概述
  • C语言-结构体-详解
  • Linux操作系统文件权限管理
  • 【C++前后缀分解 动态规划】2100. 适合野炊的日子|1702
  • protobuf.js源码简介
  • NISP 一级 | 6.1 移动智能终端
  • C#数据结构与算法实战入门指南
  • 滑坡落石检测数据集
  • comfyui中报错 Cmd(‘git‘) failed due to: exit code(128) 如何解决
  • JSON处理工具类
  • 如何设置xshell关闭最后一个选项卡标签时不退出软件?
  • 读构建可扩展分布式系统:方法与实践06异步消息传递
  • python多进程程序设计 之四
  • protobuf.js:Message类功能详解与实战应用
  • n位格雷码