当前位置: 首页 > news >正文

二、AI知识(神经网络)

二、AI知识(神经网络)

1.常用算法

  1. FNN

  2. CNN

  3. RNN

  4. LSTM

  5. DNN

  6. GRU

2.深度学习中概念及算法

1. 感知机

  • 感知机(Perceptron)是一种最早的人工神经网络模型之一,通常用来解决二分类问题。它由弗兰克·罗森布拉特(Frank Rosenblatt)于1958年提出,是单层的线性分类模型,也是深度学习和神经网络发展的起点之一。

2. 激活函数(如Sigmoid、ReLU、Softmax)

一、Sigmoid
  • Sigmoid函数(也叫逻辑斯蒂函数或S型函数)是一种常用的数学函数,它的输出值总是介于0和1之间。
二、ReLU
  • ReLU(Rectified Linear Unit)函数是一种常用的激活函数,尤其在深度学习神经网络中应用广泛。它将输入值小于0的部分“修剪”掉,并且对输入值大于或等于0的部分保持不变。
三、Softmax
  • Softmax 函数(也称为归一化指数函数)是一个常用于分类任务,尤其是多类别分类问题中的激活函数。它的作用是将一个向量转换为一个概率分布,每个输出值介于 0 和 1 之间,且所有输出值的和为 1。

3. 损失函数(如回归损失:MSE、MAE;分类损失:交叉熵损失Cross Entropy Loss、二元交叉熵BCE、Dice Loss)

一、MSE
  • MSE损失函数(Mean Squared Error Loss Function)是一种常用的回归问题中的损失函数,用于衡量模型预测值与真实值之间的误差。它计算预测值与实际值之间差异的平方的平均值,因此常用于衡量模型预测的准确性。
二、MAE
  • MAE损失函数(Mean Absolute Error Loss Function,平均绝对误差)是回归问题中另一种常见的损失函数,用于衡量模型预测值与真实值之间的差异。与MSE(均方误差)不同,MAE计算的是误差的绝对值的平均值,因此它对异常值的敏感度较低。
三、交叉熵损失Cross Entropy Loss
  • 交叉熵损失(Cross Entropy Loss) 是一种广泛用于分类问题,尤其是多分类 和二分类闵比方法的损失函数。它衡量的是模型输出的概率分布与实际标签之间的差异,尤其是在分类问题中经常使用。
四、二元交叉熵BCE
  • 二元交叉熵(Binary Cross-Entropy, BCE),又称二分类交叉熵损失函数,是用于二分类问题的常见损失函数。它用于衡量模型预测的概率与实际标签之间的差异,尤其是在目标是二分类(0或1)问题时。二元交叉熵损失非常适合用于输出为 概率值 的模型(如使用 Sigmoid 激活函数的模型)。
五、Dice Loss

4. 前向传播/反向传播(深度学习框架,如TensorFlow、PyTorch)

5. 梯度下降(如BGD、SGD、MBGD)

6. 梯度消失、梯度爆炸(产生原因、缓解策略)

7. 优化器(如:梯度下降系列(批量梯度下降BGD、随机梯度下降SGD、小批量梯度下降MBGD)、动量法、NAG、Adagrad、RMSprop、Adam)

8. 超参数(概念、调优算法)


http://www.mrgr.cn/news/82358.html

相关文章:

  • 微信开发者工具的快捷键
  • 安卓日常问题杂谈(一)
  • Ubuntu 20.04 x64下 编译安装ffmpeg
  • C++0到1面试点(二)
  • Vue2.0的安装
  • ClickHouse-CPU、内存参数设置
  • Speedtest 测试客户的上/下行带宽
  • 泊松融合调研
  • 机器学习 学习知识点
  • Spark-Streaming有状态计算
  • Qt之简易音视频播放器设计(十五)
  • JAVA-制作小游戏期末实训
  • 服务端错误的处理和web安全检测
  • 六年之约day5
  • 软件项目的灵魂拷问:“要做什么?”和“做成了什么?”
  • Win11电脑Cursor默认打开markdown文件,如何修改markdown文件默认打开方式为Typora?
  • 鸿蒙开发汇总
  • HarmonyNext 鸿蒙开发中,在H5 页面如何下载图片保存到媒体库。
  • 使用Diffusion Models进行图像超分辩重建
  • CodeBlocks编程-C语言学习总结
  • 通过blob请求后端导出文件
  • iperf3 测试云服务性能
  • 静态初始化块与非静态初始化块
  • 初学STM32 --- 外部SRAM
  • USB 中断传输的 PID 序列
  • golang后台框架总结