神经网络和深度学习(Neural Networks and Deep Learning) 第一周 深度学习引言(Introduction to Deep Learning)
吴恩达老师深度学习公开课第一门课————神经网络和深度学习(Neural Networks and Deep Learning)
第三周:浅层神经网络(Shallow neural networks)笔记
3.1 神经网络概述(Neural Network Overview)
- 神经网络模型



3.2 神经网络的表示(Neural Network Representation)
- 神经网络的含义

(1)输入层:输入特征x1、x2、x3,它们被竖直地堆叠起来
(2)隐藏层:中间的层次,由于中间结点的准确值我们是不知道到的,也就是说你看不见它们在训练集中应具有的值。你能看见输入的值,你也能看见输出的值,但是隐藏层中的东西,在训练集中你是无法看到的。
(3)输出层:负责产生预测值,是神经网络的最后一层。
3.3 计算一个神经网络的输出(Computing a Neural Network’s output)
- 神经网络的含义



3.4 多样本向量化(Vectorizing across multiple examples)



3.5 向量化实现的解释(Justification for vectorized implementation)


3.6 激活函数(Activation functions)

- sigmoid激活函数

- tanh函数(双曲正切函数)

- ReLu函数

- Leaky Relu函数

- 总结

3.7 为什么需要非线性激活函数?(why need a nonlinear activation function?)

如果你使用线性激活函数或者没有使用一个激活函数,那么无论你的神经网络有多少层一直在做的只是计算线性函数,所以不如直接去掉全部隐藏层。
不能在隐藏层用线性激活函数,可以用ReLU或者tanh或者leaky ReLU或者其他的非线性激活函数,唯一可以用线性激活函数的通常就是输出层;除了这种情况,会在隐层用线性函数的,除了一些特殊情况。
3.8 激活函数的导数(Derivatives of activation functions)




3.9 神经网络的梯度下降(Gradient descent for neural networks)

3.10(选修)直观理解反向传播(Backpropagation intuition)

3.11 随机初始化(Random+Initialization))








