当前位置: 首页 > news >正文

随机变量的线性最小均方估计(LMMSE)——多个观测变量

假设有一个随机变量 x x x需要估计,线性最小均方误差(Linear Minimum Mean Square Error, LMMSE)估计的目标是找到一个线性估计器 x ^ = ∑ i = 0 N − 1 a i y i + b \hat{x} = \sum_{i=0}^{N-1} a_i y_i + b x^=i=0N1aiyi+b,使得估计误差 e = x − x ^ e = x - \hat{x} e=xx^的均方误差 E [ e 2 ] E[e^2] E[e2]最小。

目标函数

估计模型

首先,假设有一个随机变量 x x x,我们希望通过一组观测变量 y = [ y 0 , y 1 , … , y N − 1 ] y = [y_0, y_1, \ldots, y_{N-1}] y=[y0,y1,,yN1]来估计 x x x。估计模型可以表示为:
x ^ = ∑ i = 0 N − 1 a i y i + b \hat{x} = \sum_{i=0}^{N-1} a_i y_i + b x^=i=0N1aiyi+b
其中 a i a_i ai b b b是需要确定的参数。

均方误差(MSE)

均方误差(Mean Squared Error, MSE)定义为估计值 x ^ \hat{x} x^与真实值 x x x之间的差的期望值的平方:
MSE = E [ ( x − x ^ ) 2 ] \text{MSE} = E[(x - \hat{x})^2] MSE=E[(xx^)2]

分量形式

MSE 的具体表达

将估计模型代入 MSE 的定义中,得到:
MSE = E [ ( x − ∑ i = 0 N − 1 a i y i − b ) 2 ] \text{MSE} = E\left[\left(x - \sum_{i=0}^{N-1} a_i y_i - b\right)^2\right] MSE=E (xi=0N1aiyib)2

求导并最小化 MSE

为了找到使 MSE 最小的参数 a i a_i ai b b b,我们需要对 MSE 关于 a i a_i ai b b b求偏导数,并令其等于零。

b b b求导

∂ MSE ∂ b = − 2 E [ ( x − ∑ i = 0 N − 1 a i y i − b ) ] = 0 \frac{\partial \text{MSE}}{\partial b} = -2 E\left[\left(x - \sum_{i=0}^{N-1} a_i y_i - b\right)\right] = 0 bMSE=2E[(xi=0N1aiyib)]=0
解得:
b = E [ x ] − ∑ i = 0 N − 1 a i E [ y i ] b = E[x] - \sum_{i=0}^{N-1} a_i E[y_i] b=E[x]i=0N1aiE[yi]

a i a_i ai求导
∂ MSE ∂ a i = − 2 E [ y i ( x − ∑ j = 0 N − 1 a j y j − b ) ] = 0 \frac{\partial \text{MSE}}{\partial a_i} = -2 E\left[y_i \left(x - \sum_{j=0}^{N-1} a_j y_j - b\right)\right] = 0 aiMSE=2E[yi(xj=0N1ajyjb)]=0
解得:
a i = E [ y i x ] − E [ y i ] E [ x ] E [ y i 2 ] − ( E [ y i ] ) 2 a_i = \frac{E[y_i x] - E[y_i] E[x]}{E[y_i^2] - (E[y_i])^2} ai=E[yi2](E[yi])2E[yix]E[yi]E[x]

最终表达式

a i a_i ai b b b的表达式代入估计模型中,得到最终的 LMMSE 估计器:
x ^ = ∑ i = 0 N − 1 a i y i + b \hat{x} = \sum_{i=0}^{N-1} a_i y_i + b x^=i=0N1aiyi+b
其中:
a i = Cov ( y i , x ) Var ( y i ) a_i = \frac{\text{Cov}(y_i, x)}{\text{Var}(y_i)} ai=Var(yi)Cov(yi,x)
b = E [ x ] − ∑ i = 0 N − 1 a i E [ y i ] b = E[x] - \sum_{i=0}^{N-1} a_i E[y_i] b=E[x]i=0N1aiE[yi]

向量形式

在矩阵形式下,可以将上述表达式写为:
x ^ = a T y + b \hat{x} = \mathbf{a}^T \mathbf{y} + b x^=aTy+b
其中 a = [ a 0 , a 1 , … , a N − 1 ] T \mathbf{a} = [a_0, a_1, \ldots, a_{N-1}]^T a=[a0,a1,,aN1]T y = [ y 0 , y 1 , … , y N − 1 ] T \mathbf{y} = [y_0, y_1, \ldots, y_{N-1}]^T y=[y0,y1,,yN1]T

b b b求导

E [ ( x − E [ x ] − ( y − E [ y ] ) T a ) ] = 0 E\left[\left(x - E[x] - (\mathbf{y} - E[\mathbf{y}])^T \mathbf{a}\right)\right] = 0 E[(xE[x](yE[y])Ta)]=0

解得 b b b

b = E [ x ] − a T E [ y ] b = E[x] - \mathbf{a}^T E[\mathbf{y}] b=E[x]aTE[y]

a a a求导

E [ ( y − E [ y ] ) ( x − E [ x ] − ( y − E [ y ] ) T a ) ] = 0 E\left[\left(\mathbf{y} - E[\mathbf{y}]\right) \left(x - E[x] - (\mathbf{y} - E[\mathbf{y}])^T \mathbf{a}\right)\right] = 0 E[(yE[y])(xE[x](yE[y])Ta)]=0

解得 a a a

a = R y − 1 R y x \mathbf{a} = \mathbf{R}_y^{-1} \mathbf{R}_{yx} a=Ry1Ryx

这里 R y \mathbf{R}_y Ry是观测值 y \mathbf{y} y的协方差矩阵, R y x \mathbf{R}_{yx} Ryx是观测值 y \mathbf{y} y与随机变量 x x x的协方差向量。

最终的 LMMSE 估计器可以表示为:
x ^ = a T y + b \hat{x} = \mathbf{a}^T \mathbf{y} + b x^=aTy+b
其中:
a = R y − 1 R y x \mathbf{a} = \mathbf{R}_y^{-1} \mathbf{R}_{yx} a=Ry1Ryx
b = E [ x ] − a T E [ y ] b = E[x] - \mathbf{a}^T E[\mathbf{y}] b=E[x]aTE[y]


http://www.mrgr.cn/news/78573.html

相关文章:

  • 什么是JAVA反射??? 常用的API有哪些???怎么获取Class对象.....
  • 计算机网络:数据链路层(二)
  • JavaScript异步编程和与之相关的概念
  • threeJs学习 贴图 :地球
  • 【机器学习】机器学习的基本分类-监督学习-逻辑回归-对数似然损失函数(Log-Likelihood Loss Function)
  • 基于OpenCV视觉库让机械手根据视觉判断物体有无和分类抓取的例程
  • 使用C#开发VTK笔记(一)-VTK开发环境搭建
  • 【数据库系统概论】第6章 (一)函数依赖和码
  • 3.26线性回归对率回归
  • 大米中的虫子检测-检测储藏的大米中是否有虫子 支持YOLO,VOC,COCO格式标注,4070张图片的数据集
  • 2008年IMO几何预选题第3题
  • Gazebo插件相机传感器(可订阅/camera/image_raw话题)
  • 力扣刷题TOP101:6.BM7 链表中环的入口结点
  • 输出1~n中能被3整除,且至少有一位数字是5的所有整数.:JAVA
  • 3.22决策树,离散值
  • 【前端】Next.js 服务器端渲染(SSR)与客户端渲染(CSR)的最佳实践
  • 《Django 5 By Example》阅读笔记:p388-p454
  • 使用C#开发VTK笔记(一)-开发环境搭建
  • 开发指南080-邮箱录入控件
  • 单细胞细胞通讯全流程分析教程,代做分析和辅导
  • 《深入理解经典广度优先遍历算法》
  • C语言 qsort及应用
  • 每天五分钟深度学习PyTorch:搭建卷积神经网络完成手写字体识别
  • DAMODEL丹摩|Faster-Rcnn训练与部署实战
  • 【AIGC】大模型面试高频考点-RAG中Embedding模型选型
  • Ubuntu24.04初始化教程(包含基础优化、ros2)