8.神经网络学习
8 神经网络学习
8.1 非线性假设
当特征数量n很大时,使用线性回归或逻辑回归进行拟合会让特征空间急剧膨胀,复杂度高且容易过拟合。

eg当输入是50*50像素的灰度图像时,

8.2 模型表示
我们定义一个简单的逻辑单元,其中

当有多个逻辑单元(神经元)连在一起的时候,形成神经网络。其中第一层称为输入层(input layer),最后一层称为输出层(output layer),其余层被称为隐藏层(hidden layer)

若第j层有

前向传播与向量实现:为了统一表示方法,我们将输入

若遮住第1层,我们发现模型剩余部分就是逻辑回归,只是输入不再是
我们也可以使用多项式项作为输入如

8.3 例子与直观理解
改变权重就能实现不同的逻辑
与运算:

或运算:

非运算:

同或运算:

通过不断用更深的层,可以计算更复杂的函数。每层都在上一层的基础上计算更复杂的方程。
8.4 多元分类
当有4个类别需要进行分类时,我们让神经网络的输出层拥有4个神经元,即输出

我们训练集中一个样本表示为
