深度学习(基于Keras的Python实践)(1).docx
《深度学习(基于Keras的Python实践)(1).docx》由会员分享,可在线阅读,更多相关《深度学习(基于Keras的Python实践)(1).docx(6页珍藏版)》请在第一文库网上搜索。
1、饵供*也用*蛾2学习使用附录A深度学习的基本概念-I(2)Re1U(整流线性电元)最近的网络更喜欢使用Rc1U激活函数来处理隐藏层。该函数定义为:/(x)=max(xO)c当xO时,函数的输出值为;当XWO时,输出值为OC使用RC1U函数最主要的好处是.对于大于。的所有输入来说.它都有一个不变的导数值C常数导数值有助于网络训练进行得更快(3)Softmax-SoftmaX激活函数通常用于多分类问题的输出层Q它与sigmoid函数类似,啡的区别就是输出被归一化为总和为1。在一个多分类问题中,SOfbnaX函数为每个类分配值,这个值可以理解为概率。5 .神经网络(Neura1Network)神经网
2、络构成了深度学习的核心,神经网络的目标是找到一个未知函数的近似值.它由相互连接的神经元形成。这些神经元具有权重,并在网络训练期间根据错误来进行更新:激活函数为线性模型增加非线性因素,并基于线性组合生成输出。6 .输入倒I出/隐海层(InputZOutput/Hidden1ayer)正如它们的名字所代表的那样,输入层是接收输入那一层,本质上是网络的第一层C而输出层是生成输出的那一层.也可以说是网络的最终层。处理层是网络中的隐藏层.这些陷藏层对传入数据执行特定处理,并将生成的输出传递到F一层。输入层和输出层是可见的.而中间层则是隐藏的.7 .多层感知器(M1P)单个神经元无法执行高度复杂的任务。因
3、此.使用堆拄的神经元生成需要的输出。在最简单的网络中,有一个输入层、一个隐藏层和一个输出层。绥个层都有多个神经元.并且每个层中的所有神经元都连接到下一层的所有神经元。因此网络也被称为完全连接网络,又叫多层感知器。各层的神经元数fit的选择是一个试错的过程。通常情况下,输入层的神经元数盘与输入数据的维度相同。输出层神经元的数忸,在回归问题和二元分类中通常为一个神经仅供用途jC2*学习催用一深度学习:曷于KeraS的PythOn实践元,在多分类问题中通常与类别数相同。隐藏层的神经元数证可以自由设定,通过试错找到一个最合适的假.这通常是由通过网络的信息瞅决定的。在通常情况下,分类问题障藏层的神经元数
4、燧可以设定为类别数量的5io倍,回归问题陷就层的神经元数In可以设定为输入数据维度的23倍。8 .正向传播(ForwardPropagation)正向传播是指输入通过隐藏层到输出层的运动。在正向传播中,信息沿着一个单一方向前进C输入层将输入提供给隐藏层,并生成输出.这个过程中没有反向运动。9 .成本函数(CoStFunction)当建立一个神经网络时,为了尽可能地使输出预测接近实际值,通常使用成本函数或损失函数来所鼠网络的准确性.在发生错误时也利用成本函数或损失函数来惩罚网络。运行网络的目标是提高预测精度并减少误差,从而最大限度地降低成本。最优化的输出是成本函数值或损失函数值最小的输出。10
5、.梯度下降(GradientDeS8N)梯度下降是一种最小化成本的优化算法。就好比在爬山的时候,一步一步地走下来,而不是一下子跳下来。因此,如果从一个点X开始向下移动那么位置更新为xM.继续保持下降.宜到到达底部。11 .学习率(1eaEingRate)学习率被定义为每次迭代中成本函数中最小化的量。简单来说,下降到成本函数最小值的速率是学习率。应该非常谨慎地选择学习率,因为它不应该是非常大的,否则会错过最佳解决方案;也不应该非常小.否则网络需要花费时间进行融合.12 .反向传播(BaCkPropagation)定义神经网络时.为节点随机分配权重和儡差值。一旦收到单次迭代的输出,就可以计算出网络
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 学习 基于 Keras Python 实践
