单层卷积网络/简单卷积网络示例
单层卷积网络
卷积网络实质上还是想通过输入得到想要的输出,离不开输入特征,权重,偏置,激活函数
为了减少权重参数采用了卷积网络
把输入看作是上一层的输出或初始输入a0,将过滤器看作是权重参数w
对于单个过滤器,两者进行卷积获得z=wa0,在利用广播机制加上偏置b1,再利用激活函数进行激活,将经过不同过滤器的输出组合到一起就得到了这层的输出,下层的输入,实际上整个流程还是和全连接相似。
不管输入数据多大,使用几个过滤器就提取几个特征,需要的参数不变,避免了大数据需要多的参数,避免了过拟合。
滤波器通道数与输入通道数相同,当前层输出与滤波器个数相同,m是batch_size,Activation是激活后的该层的输出的维度
简单卷积网络示例
nH,nw,nc分别是高,宽和通道数,f是卷积核长宽,s是步幅,p是填充
卷积神经网络变化趋势:长宽不断变小,通道数不断变大
在卷积网络最后一层,所有数据展平,作为全连接层的特征输入