为什么CNN里有maxpooling,没有minpooling?

发布于 2021-02-09 15:37:49

你可以实现个minpooling层嵌入到任意网络中,看看效果怎么样不就知道了。计算机科学是建立在实践的基础上。为啥没有minpooling。假设minpooling层是用来替换maxpooling层,一般maxpooling 层之前都是激活层,比如ReLU层,它会使卷积特征的值大于等于0,如果你再使用minpooling,那么出来的激活图就是0或者接近0的邻域内最小值。当你多经过几次minpooling,就会发现所有的激活值都是0,那么你的网络也没法训练了,因为任何有用的信息都没了。maxpooling现在常用的地方在卷积网络的第一个卷积层和卷积块之后,用来对特征降维并保留低层级特征如边缘,纹理的最大响应。

查看更多

1

关注者

245

被浏览

0 个回答
暂无答案,快来添加答案吧

撰写答案

请登录后再发布答案,点击登录

发布
问题

分享
好友

手机
浏览

扫码手机浏览
0.060862s