投稿指南
来稿应自觉遵守国家有关著作权法律法规,不得侵犯他人版权或其他权利,如果出现问题作者文责自负,而且本刊将依法追究侵权行为给本刊造成的损失责任。本刊对录用稿有修改、删节权。经本刊通知进行修改的稿件或被采用的稿件,作者必须保证本刊的独立发表权。 一、投稿方式: 1、 请从 我刊官网 直接投稿 。 2、 请 从我编辑部编辑的推广链接进入我刊投审稿系统进行投稿。 二、稿件著作权: 1、 投稿人保证其向我刊所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我刊所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我刊所投之作品不得同时向第三方投送,即不允许一稿多投。 5、 投稿人授予我刊享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 第5条所述之网络是指通过我刊官网。 7、 投稿人委托我刊声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

如何学习人工智能(化工仪表及自动化论文题目(2)

来源:自动化与仪器仪表 【在线投稿】 栏目:综合新闻 时间:2022-12-21
作者:网站采编
关键词:
摘要:深度学习网络与“典型”的前馈多层网络之间是有一些区别的,如下: 深度学习网络比之前的网络有更多的神经元 深度学习网络具有更复杂的连接层的

深度学习网络与“典型”的前馈多层网络之间是有一些区别的,如下:

深度学习网络比之前的网络有更多的神经元

深度学习网络具有更复杂的连接层的

深度学习网络需要用强大的计算能力来训练

深度学习网络能够进行自动特征提取

因此深度学习可以被定义为在以下四个基本网络框架中拥有大量参数和层的神经网络:

无监督预训练网络(Unsupervised Pre-trained Networks)

卷积神经网络(Convolutional Neural Networks)

循环神经网络(Recurrent Neural Networks)

递归神经网络 (Recursive Neural Networks)

在这篇文章中,我主要对后三个框架比较感兴趣。

卷积神经网络 基本上就是用共享权重在空间中进行扩展的标准神经网络。设计CNN主要是为了通过内部卷积来识别图片,内部卷积可以看到待识别物体的边。

循环神经网络 基本上是在时间上进行扩展的标准神经网络,因为边进入下一个时间步,而不是在同一时间步进入下一个层。设计RNN主要是为了识别序列,例如语音信号或者文本。它里面的循环意味着网络中存在短暂的记忆。

递归神经网络 更类似于分层网络,其中输入序列没有真正的时间面,而是输入必须以树状分层处理。

以下10种方法可以应用于所有这些体系结构。

1、反向传播

反向传播是“误差反向传播”的简称,它是一种计算函数(在神经网络中以函数形式存在)偏微分的方法。当你要用一个基于梯度的方法来解决一个最优问题时(注意梯度下降只是解决这类问题的一种方法),你希望在每一次迭代中计算函数梯度。

对于神经网络而言,目标函数具有合成的形式。那么如何计算梯度呢?一般情况下有两种常见的方法:

1)微分分析法。当你知道这个函数的形式时,你只需要用链式法则计算导数即可;

2)用有限差分方法来近似微分。这种方法的计算量很大,因为函数评估的数量是O(N),其中N是参数的数量。与微分分析法相比,这是比较昂贵的。不过,有限差分通常在调试时验证后端实现。

2、随机梯度下降

一个直观理解梯度下降的方法是去想象一条溯源山顶的河流。这条河流会沿着山势梯度的方向流向山麓下的最低点。

如果让人来走,可能就不一样了,你可能会先随便选一个方向,然后沿着这个方向的梯度向下走;过一会儿再随机换一个方向向下走;最后你发现自己差不多也到了谷底了。

数学化的理解就是:

随机梯度下降主要用来求解类似于如下求和形式的优化问题:

梯度下降法:

当n很大时,每次迭代计算所有的梯度会非常耗时。随机梯度下降的想法就是每次在Delta f_i 中随机选取一个计算代替上面的Delta f_i,以这个随机选取的方向作为下降的方向。这样的方法反而比梯度下降能够更快地到达(局部)最优解。

3、学习率衰减

在训练模型的时候,通常会遇到这种情况:我们平衡模型的训练速度和损失(loss)后选择了相对合适的学习率(learning rate),但是训练集的损失下降到一定的程度后就不在下降了,比如training loss一直在0.7和0.9之间来回震荡,不能进一步下降。如下图所示:

遇到这种情况通常可以通过适当降低学习率(learning rate)来实现。但是,降低学习率又会延长训练所需的时间。

学习率衰减(learning rate decay)就是一种可以平衡这两者之间矛盾的解决方案。学习率衰减的基本思想是:学习率随着训练的进行逐渐衰减。

学习率衰减基本有两种实现方法:

线性衰减。例如:每过5个epochs学习率减半;

指数衰减。例如:每过5个epochs将学习率乘以0.1。

4、dropout

在当前的大规模神经网络中有两个缺点:

费时;

容易过拟合

Dropout 可以很好地解决这个问题。Dropout说的简单一点就是在前向传导的时候,让某个神经元的激活值以一定的概率p停止工作,示意图如下:

每次做完dropout,相当于从原始的网络中找到一个更瘦的网络。

Hinton在其论文中做了这样的类比,无性繁殖可以保留大段的优秀基因,而有性繁殖则将基因随机拆了又拆,破坏了大段基因的联合适应性;但是自然选择了有性繁殖,物竞天择,适者生存,可见有性繁殖的强大。dropout 也能达到同样的效果,它强迫一个神经单元,和随机挑选出来的其他神经单元共同工作,消除减弱了神经元节点间的联合适应性,增强了泛化能力。

5、max pooling

池化(Pooling)是卷积神经网络中另一个重要的概念,它实际上是一种形式的向下采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。

文章来源:《自动化与仪器仪表》 网址: http://www.zdhyyqybzz.cn/zonghexinwen/2022/1221/1001.html



上一篇:山东师范和山东财经哪个好(自动化与仪器仪表
下一篇:没有了

自动化与仪器仪表投稿 | 自动化与仪器仪表编辑部| 自动化与仪器仪表版面费 | 自动化与仪器仪表论文发表 | 自动化与仪器仪表最新目录
Copyright © 20019-2020 自动化与仪器仪表 版权所有
投稿电话: 投稿邮箱: