神经网络和深度学习(Neural Networks and Deep Learning) 第一周 深度学习引言(Introduction to Deep Learning)
吴恩达老师深度学习公开课第一门课————神经网络和深度学习(Neural Networks and Deep Learning)
第三周:浅层神经网络(Shallow neural networks)笔记
3.1 神经网络概述(Neural Network Overview)
- 神经网络模型
3.2 神经网络的表示(Neural Network Representation)
- 神经网络的含义
(1)输入层:输入特征x1、x2、x3,它们被竖直地堆叠起来
(2)隐藏层:中间的层次,由于中间结点的准确值我们是不知道到的,也就是说你看不见它们在训练集中应具有的值。你能看见输入的值,你也能看见输出的值,但是隐藏层中的东西,在训练集中你是无法看到的。
(3)输出层:负责产生预测值,是神经网络的最后一层。
3.3 计算一个神经网络的输出(Computing a Neural Network’s output)
- 神经网络的含义
3.4 多样本向量化(Vectorizing across multiple examples)
3.5 向量化实现的解释(Justification for vectorized implementation)
3.6 激活函数(Activation functions)
- sigmoid激活函数
- tanh函数(双曲正切函数)
- ReLu函数
- Leaky Relu函数
- 总结
3.7 为什么需要非线性激活函数?(why need a nonlinear activation function?)
如果你使用线性激活函数或者没有使用一个激活函数,那么无论你的神经网络有多少层一直在做的只是计算线性函数,所以不如直接去掉全部隐藏层。
不能在隐藏层用线性激活函数,可以用ReLU或者tanh或者leaky ReLU或者其他的非线性激活函数,唯一可以用线性激活函数的通常就是输出层;除了这种情况,会在隐层用线性函数的,除了一些特殊情况。
3.8 激活函数的导数(Derivatives of activation functions)
3.9 神经网络的梯度下降(Gradient descent for neural networks)
3.10(选修)直观理解反向传播(Backpropagation intuition)
3.11 随机初始化(Random+Initialization))