深度学习的数学(涌泉良幸)

书:pan.baidu.com/s/1BfkJHHKsp9ehsUcr55ZzXA?pwd=0ffp

  1. 神经网络的思想
    • 将构成大脑的神经元的集合体抽象为数学模型,这就是神经网络的出发点。
  2. 神经元的工作机制
    • 神经元的输入来自其他神经元的信号的和,这些信号在加和时具有不同的权重。如果输入的信号和超过神经元的阈值,则神经元被激发,并向其他神经元输出信号。
  3. 神经元的输出信号
    • 神经元的输出信号在一定范围内,不同的输出端输出值相同。神经元的输出可以取数字形式,表达是否激发;也可以取任意值(在某个范围内),表达“激活的程度”。
  4. 激活函数
    • 需要一个函数来“整理”输入信号的和,把它映射为指定范围内的某个数,这种函数叫做激活函数。以Sigmoid函数为例,它的值域经过映射后,神经元的输出值会限定在0-1之间。
  5. 阶层型神经网络
    • 阶层型神经网络是按层划分神经元的网络结构,包括输入层、隐藏层和输出层。
  6. 神经网络的最优化
    • 神经网络的最优化问题涉及如何调整神经网络的权重和偏置,使得神经网络的输出与期望的输出尽可能接近。这通常通过最小化损失函数来实现。
  7. 误差反向传播法
    • 误差反向传播法是一种用于训练神经网络的方法,它通过计算输出层的误差,并将其反向传播到隐藏层,从而更新神经网络的权重和偏置。
  8. 深度学习和卷积神经网络
    • 深度学习是机器学习的一个分支,它通过构建深层神经网络来模拟人脑的学习过程。卷积神经网络是一种特殊的神经网络结构,它特别适用于处理图像数据。
  9. 线性变换与非线性激活函数
    • 深度学习的网络结构基本上是“线性变换”和“非线性激活函数”的重复。线性变换通过权重和偏置来实现,而非线性激活函数则引入非线性因素,使得神经网络能够处理复杂的非线性问题。
  10. 训练误差与泛化误差
    • 训练误差是在训练数据集上计算的误差,而泛化误差是在未见过的数据上计算的误差。神经网络的目标是最小化泛化误差,以避免过拟合。
  11. 参数与损失函数
    • 参数表示网络结构的变量,而损失函数用于估计参数在数据中的情况。通过最小化损失函数,可以找到最优的参数值。
  12. 深度学习的应用领域
    • 深度学习在图像识别、语音识别、自然语言处理等领域取得了显著的成功。此外,它还在机器人、自动驾驶、医疗诊断等领域具有广泛的应用前景。

这些原文观点或内容摘要涵盖了《深度学习的数学》中关于神经网络、深度学习的重要论述和见解。如需更多具体原文内容,请直接查阅原著。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注