龙空技术网

卷积神经网络:谷歌的Inception网络为什么可以高效利用资源

人工智能技术分享AI 213

前言:

此时同学们对“googlenet inception结构”都比较着重,大家都需要剖析一些“googlenet inception结构”的相关文章。那么小编同时在网摘上收集了一些关于“googlenet inception结构””的相关知识,希望小伙伴们能喜欢,朋友们一起来学习一下吧!

专栏推荐正文

GoogLeNet是一种全新的深度学习结构,在这之前的AlexNet、VGG等结构都是通过增大网络的深度来获得更好的训练效果,但层数的增加会带来很多负作用,比如过拟合、梯度消失、梯度爆炸等。

为了简化计算成本,先通过一个 1×1的卷积层,再通过一个 5×5 的卷积层,1×1 的层可能有 16 个通道,而 5×5 的层输出为 28×28×32,也就是32 个通道

然后先通过一个 1×1的卷积层,再通过一个 3*3 的卷积层

然后直接通过一个1*1的卷积层,这时就不必在后面再跟一个 1×1 的层了,假设这个层的输出是 28×28×64。

然后是池化层,我们先使用same填充的3*3,s=1的对其进行池化操作,保证维度还是28*28*192,然后使用1*1的卷积层(也就是使用 32 个维度为1×1×192 的过滤器)对其进行缩小通道处理,缩小到 28×28×32。

最后,将这些方块全都连接起来。在这过程中,把得到的各个层的通道都加起来,最后得到一个 28×28×256 的输出。

这就是一个 Inception 模块,而 Inception 网络所做的就是将这些模块都组合到一起。

我们来看一下真实的Inception 网络的图片,你会发现图中有许多重复的Inception模块

还有一个细节在网络的最后几层位置使用了全连接层,它也包含了一个隐藏层,通过一些全连接层,然后有一个 softmax 来预测,输出结果的标签。你应该把它看做 Inception 网络的一个细节,它确保了即便是隐藏单元和中间层也参与了特征计算,它们也能预测图片的分类。它在 Inception 网络中,起到一种调整的效果,并且能防止网络发生过拟合。

所以 Inception 网络只是很多这些你学过的模块在不同的位置重复组成的网络,所以如果你理解了之前所学的 Inception 模块,你就也能理解 Inception 网络。

标签: #googlenet inception结构