本文介绍: 然后又是若干个卷积层,使用 128 个过滤器,以及一些 same 卷积然后进行池化,可以导出池化后的结果是56×56×128,接着再用 256 个相同的过滤器进行三次卷积操作然后再池化,然后卷积三次,再池化。连续两个卷积层,都是 64 个 3×3 的过滤器输入图像进行卷积输出结果是224×224×64,因为使用same 卷积通道数量也一样。VGG-16 的结构并不复杂,这点非常吸引人,而且这种网络结构很规整,都是几个卷积层后面跟着可以压缩图像大小的池化层,池化层缩小图像高度宽度

VGG-16

Vgg16是牛津大学VGG组提出来的,相比于AlexNet来说,AlexNet一个改进是采用连续的几个4*3的卷积核来代替AlexNet中的较大的卷积核(11*11,5*5)。前面我们也说过了使用小卷积核是优于大的卷积核的,因为多层非线性可以增加网络深度来保证学习到更加复杂模式,而且代价还会更小,也就是参数会更少。

VGG-16 网络,VGG-16 网络没有那么多超参数(不是说训练参数,它的训练参数是1.38亿),这是一种只需要专注于构建卷积层的简单网络。

连续两个卷积层,都是 64 个 3×3 的过滤器输入图像进行卷积,输出结果是224×224×64,因为使用了 same 卷积,通道数量也一样。就是说先用一个64 个 3×3 的过滤器输入图像进行卷积,然后输出再用一个64 个 3×3 的过滤器输入图像进行卷积。

接下来创建一个池化层,池化层将输入图像进行压缩,从 224×224×64 缩小到 112×112×64。然后又是若干个卷积层,使用 128 个过滤器,以及一些 same 卷积,然后进行池化,可以导出池化后的结果是56×56×128,接着再用 256 个相同的过滤器进行三次卷积操作

原文地址:https://blog.csdn.net/huanfeng_AI/article/details/134745428

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_22118.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注