龙空技术网

面向深度学习的五大神经网络模型及其应用

先锋云 169

前言:

此时同学们对“深度神经网络主要模型”大约比较着重,我们都需要分析一些“深度神经网络主要模型”的相关文章。那么小编在网摘上搜集了一些关于“深度神经网络主要模型””的相关资讯,希望同学们能喜欢,兄弟们快快来了解一下吧!

神经网络是识别一组数据中潜在关系的一系列算法。这些算法很大程度上有赖于人脑的运作方式。神经网络可以适应不断变化的输入,生成最佳结果,无需重新设计输出标准。在某种程度上,这些神经网络类似生物神经元的系统。

深度学习是机器学习的重要组成部分,深度学习算法基于神经网络。有几种功能不同的神经网络架构,最适合特定的应用场景。本文介绍一些最知名的架构,尤其是深度学习方面的架构。

多层感知器

多层感知器(MLP)是一类前馈人工神经网络。感知器这个术语具体是指单个神经元模型,它是大型神经网络的前体。

MLP包括节点的三个主要层:输入层、隐藏层和输出层。在隐藏层和输出层中,每个节点都被视为使用非线性激活函数的神经元。MLP使用一种称为反向传播的监督式学习技术进行训练。初始化神经网络时,为每个神经元设置权重。反向传播有助于调整神经元权重,以获得更接近预期的输出。

对于涉及表格数据集、分类预测问题和回归预测问题的项目,MLP最理想。

卷积神经网络

卷积神经网络(CNN)模型处理具有网格图案(比如图像)的数据。它旨在自动学习特征的空间层次结构。CNN通常包括三种类型的层:卷积层、池化层和完全连接的层。

卷积层和池化层执行特征提取任务,这些提取的特征由完全连接的层映射到最终输出中。 CNN最适合图像处理。

图像识别、图像分类、对象检测和人脸识别是CNN的一些应用场景。

递归神经网络

在递归神经网络(RNN)中,前一步的输出将作为输入被反馈回到当前步骤。RNN中的隐藏层实现这种反馈系统。该隐藏状态可以存储有关序列中之前步骤的一些信息。

RNN中的“内存”可帮助模型记住已计算的所有信息。反过来,它使用这些同样的参数,以便每个输入生成输出,因而降低了参数的复杂性。

RNN是使用最广泛的神经网络类型之一,主要是由于RNN具有更强的学习能力,而且能够执行诸如学习手写或语言识别之类的复杂任务。RNN适用的其他一些领域包括预测问题、机器翻译、视频标记、文本摘要,甚至音乐创作。

深度信念网络

深度信念网络(DBN)使用概率和无监督学习来生成输出。DBN由二进制潜在变量、无向层和有向层组成。DBN有别于其他模型,原因是每一层都按顺序进行调节,每一层都学习整个输入。

在DBN中,每个子网的隐藏层都是下一个的可见层。这种组合可以实现快速的逐层无监督训练过程:对比差异应用于每个子网,从最低可见层开始。贪婪的学习算法用于训练DBN。学习系统每次取一层。因此,每一层收到不同版本的数据,每一层都使用前一层的输出作为其输入。

DBN主要应用于图像识别、视频识别和运动捕获数据。

受限玻尔兹曼机

玻尔兹曼机(RBM)是一种生成式非确定性(随机)神经网络,可学习其输入集的概率分布。RBM是组成深度信念网络构建模块的浅度两层神经网络。RBM中的第一层名为可见层或输入层,第二层名为隐藏层。它由名为节点的类似神经元的单元组成;节点跨层相互连接,但不在同一层内。

RBM通常用于降维、推荐系统和主题建模等应用场景。不过近年来,生成式对抗网络(GAN)在渐渐取代RBM。

有兴趣的朋友可以一起来探讨一下。

标签: #深度神经网络主要模型 #深度神经网络主要模型包括 #神经网络预测模型有哪些内容