RyanCheung Ignition sequence start

神经网络 Neural Network


函数Function的定义

通常为了处理非线性问题,可以通过Basis Function(基函数),SVM(支持向量机)或DNN(深度神经网络)解决。

由于Linear Model太过单一,无法处理非线性问题,因此我们认为需要拟合出来的一个非线性的超平面,往往可以由一个常数和一系列激活函数(Activation Function)构成的超平面。例如下图中非线性曲线的函数式可以由一个常数和多个激活函数构成。

image-20210627114438237

而我们所经常使用的激活函数(Activation Function)包括:

  • Sigmoid Function
  • ReLU Function

image-20210627114451551

image-20210627114647281

因此,我们的机器学习Function可以表示为:

image-20210627114502543

通过图示进行表示,可以写为:

image-20210627114511113

因此可以认为这个就是一层(Hidden Layers Only One)的神经网络(Neural Network),我们称所有的未知参数称为向量theta。而多层的Neural Network可以表示成如下:

image-20210627114518788

损失函数Loss的定义

称所有的参数构成向量$\theta$,利用Gradient Descent对$L(\theta)$进行优化即可。

image-20210627114527445

优化器Optimization的定义

神经网络的梯度下降从一般化的思路来讲可以类似于线性模型,但是对于求导,具有一定的技巧(Back Propagation)。

image-20210627114535257

由于我们每次是选取数据集上某些区块的数据进行训练,因此Gradient Descent又可以表示为:

image-20210627114543749

image-20210627114614398

参考链接