二、AI知识(神经网络)
二、AI知识(神经网络)
1.常用算法
-
FNN
-
CNN
-
RNN
-
LSTM
-
DNN
-
GRU
2.深度学习中概念及算法
1. 感知机
- 感知机(Perceptron)是一种最早的人工神经网络模型之一,通常用来解决二分类问题。它由弗兰克·罗森布拉特(Frank Rosenblatt)于1958年提出,是单层的线性分类模型,也是深度学习和神经网络发展的起点之一。
2. 激活函数(如Sigmoid、ReLU、Softmax)
一、Sigmoid
- Sigmoid函数(也叫逻辑斯蒂函数或S型函数)是一种常用的数学函数,它的输出值总是介于0和1之间。
二、ReLU
- ReLU(Rectified Linear Unit)函数是一种常用的激活函数,尤其在深度学习神经网络中应用广泛。它将输入值小于0的部分“修剪”掉,并且对输入值大于或等于0的部分保持不变。
三、Softmax
- Softmax 函数(也称为归一化指数函数)是一个常用于分类任务,尤其是多类别分类问题中的激活函数。它的作用是将一个向量转换为一个概率分布,每个输出值介于 0 和 1 之间,且所有输出值的和为 1。
3. 损失函数(如回归损失:MSE、MAE;分类损失:交叉熵损失Cross Entropy Loss、二元交叉熵BCE、Dice Loss)
一、MSE
- MSE损失函数(Mean Squared Error Loss Function)是一种常用的回归问题中的损失函数,用于衡量模型预测值与真实值之间的误差。它计算预测值与实际值之间差异的平方的平均值,因此常用于衡量模型预测的准确性。
二、MAE
- MAE损失函数(Mean Absolute Error Loss Function,平均绝对误差)是回归问题中另一种常见的损失函数,用于衡量模型预测值与真实值之间的差异。与MSE(均方误差)不同,MAE计算的是误差的绝对值的平均值,因此它对异常值的敏感度较低。
三、交叉熵损失Cross Entropy Loss
- 交叉熵损失(Cross Entropy Loss) 是一种广泛用于分类问题,尤其是多分类 和二分类闵比方法的损失函数。它衡量的是模型输出的概率分布与实际标签之间的差异,尤其是在分类问题中经常使用。
四、二元交叉熵BCE
- 二元交叉熵(Binary Cross-Entropy, BCE),又称二分类交叉熵损失函数,是用于二分类问题的常见损失函数。它用于衡量模型预测的概率与实际标签之间的差异,尤其是在目标是二分类(0或1)问题时。二元交叉熵损失非常适合用于输出为 概率值 的模型(如使用 Sigmoid 激活函数的模型)。