××AlexNet××
××第一个卷积层×× 输入的图片大小为:224×224×3(或者是227×227×3) 第一个卷积层为:11×11×96即尺寸为11×11,有96个卷积核,步长为4,卷积层后跟ReLU,因此输出的尺寸为(224-11)/4+1=55,因此其输出的每个feature map 为 55×55×96,同时后面跟LRN层,尺寸不变. 最大池化层,核大小为3×3,步长为2,因此feature map的大小为:27×27×96. ××第二层卷积层×× 输入的tensor为27×27×96 卷积核的大小为: 5×5×256,步长为1,pad=2,group=2,尺寸不会改变,同样紧跟ReLU,和LRN层.因此,输出的尺寸为(27+2×2-5)/1+1=27,为27×27×256 最大池化层,和大小为3×3,步长为2,因此feature map为:13×13×256
××第三层至第五层卷积层×× 输入的tensor为13×13×256 第三层卷积为 3×3×384,步长为1,加上ReLU,注意这里的group为1,因为看图这里相当于合并了,输出尺寸为(13+1×2-3)/1+1=13,输出为13×13×384 第四层卷积为 3×3×384,步长为1,加上ReLU,输出为13×13×384 第五层卷积为 3×3×256,步长为1,加上ReLU,输出为13×13×256 第五层后跟最大池化层,核大小3×3,步长为2,因此feature map:6×6×256 经过了一个池化层为 6×6×256 ××接下来的三层为全连接层××,分别为: Fc6:输入为(6×6×256)×4096个全连接层,生成的特征图为1×1×4096 加入了Dropout层,为Dropout6,在训练时以1/2的概率使隐藏层的某些神经元的输出为0,这样就丢掉了一般节点的输出,这些节点在BP时也不更新,生成的特征图为1×1×4096. FC7: 输入: 1×1×4096,输出为1×1×4096,总参数为4096×4096 Dropout7,生成特征图为1×1×4096. FC8: 输入: 1×1×4096,输出为1×1×1000,总参数为4096×1000