本文以回旋不断深入介绍GoogleNet其中包含最初构想模块:
对初始v2的更改是,它们用两个连续的3x3卷积替换了5x5卷积并应用了合并:
Inception v2和Inception v3有什么区别?
本文以回旋不断深入介绍GoogleNet其中包含最初构想模块:
对初始v2的更改是,它们用两个连续的3x3卷积替换了5x5卷积并应用了合并:
Inception v2和Inception v3有什么区别?
Answers:
在论文Batch Normalization中,Sergey等人,2015年。提出启-V1架构这是一个变体GoogleNet在纸张与卷积去更深,并且在此同时它们引入批标准化到盗(BN-以来)。
与(Szegedy et al。,2014)中描述的网络的主要区别在于,5x5卷积层被两个连续的3x3卷积层(最多具有128个过滤器)取代。
在“ 重新思考计算机视觉的Inception体系结构”一文中,作者提出了Inception-v2和Inception-v3。
在Inception-v2中,他们引入了Factorization(将卷积分解为较小的卷积),并对Inception-v1进行了一些小的更改。
请注意,我们已将传统的7x7卷积分解为三个3x3卷积
对于Inception-v3,它是Inception-v2的变体,其中添加了BN辅助。
BN辅助是指辅助分类器的完全连接层也已标准化的版本,而不仅仅是卷积。我们将模型[Inception-v2 + BN辅助]称为Inception-v3。
除了道利克所说的
初始v2使用可分离卷积作为深度的第一层64
纸上的报价
我们的模型在第一卷积层上采用了深度乘数为8的可分离卷积。这减少了计算成本,同时增加了训练时的内存消耗。
为什么这很重要?因为它已在v3,v4和Inception Resnet中删除,但后来重新引入并在Mobilenet中大量使用。
答案可以在“通过卷积深入研究”论文中找到:https://arxiv.org/pdf/1512.00567v3.pdf
检查表3。Inception v2是“用卷积深入研究”中描述的体系结构。Inception v3是具有不同训练算法(RMSprop,标签平滑规则化器,添加具有批处理规范的辅助头以改善训练等)的相同体系结构(较小更改)。
实际上,以上答案似乎是错误的。确实,命名大为混乱。但是,似乎在介绍Inception-v4的论文中已修复该问题(请参阅:“ Inception-v4,Inception-ResNet和残差连接对学习的影响”):
Inception深度卷积架构在(Szegedy et al。2015a)中作为GoogLeNet引入,在这里称为Inception-v1。后来,通过引入批处理规范化(Ioffe和Szegedy 2015)(Inception-v2),以各种方式完善了Inception架构。后来,在第三次迭代中(Szegedy等人,2015b),通过附加的因式分解思想,在本报告中将其称为Inception-v3。