AJax技术

详解GoogLeNet的Keras实现(3)

字号+ 作者:H5之家 来源:H5之家 2017-08-23 14:01 我要评论( )

二、Inception V3一个最重要的改进是分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1),3x3也是一样(1x3,3x1)。这样的好处,既可以加速计算(多余的计算能力可以用来加深网络),又可以将1个conv拆

二、Inception V3一个最重要的改进是分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1),3x3也是一样(1x3,3x1)。这样的好处,既可以加速计算(多余的计算能力可以用来加深网络),又可以将1个conv拆成2个conv,使得网络深度进一步增加,增加了网络的非线性,可以处理更多更丰富的空间特征,增加特征多样性。还有值得注意的地方是网络输入从224x224变为了299x299,更加精细设计了35x35/17x17/8x8的模块。

三、Inception V4结合了微软的ResNet,发现ResNet的结构可以极大地加速训练,同时性能也有提升,得到一个Inception-ResNet V2网络,同时还设计了一个更深更优化的Inception V4模型,能达到与Inception-ResNet V2相媲美的性能。

参考文献

[1] Inception V1 , Going Deeper withConvolutions.

[2] Inception V2 , Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift.

[3] Inception V3 ,Rethinking theInception Architecture for Computer Vision.

[4] Inception V4 , Inception-v4,Inception-ResNet and the Impact of Residual Connections on Learning.

[5] 深度学习经典卷积神经网络之GoogLeNet .


分享给小伙伴们:

本文标签: Keras,GoogLeNet/">Keras,GoogLeNet

相关文章

  • 08.18
  • 发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。

  • 本类最热新闻

  •  

    1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

    相关文章
    网友点评
    _