你可以实现个minpooling层嵌入到任意网络中,看看效果怎么样不就知道了。计算机科学是建立在实践的基础上。为啥没有minpooling。假设minpooling层是用来替换maxpooling层,一般maxpooling 层之前都是激活层,比如ReLU层,它会使卷积特征的值大于等于0,如果你再使用minpooling,那么出来的激活图就是0或者接近0的邻域内最小值。当你多经过几次minpooling,就会发现所有的激活值都是0,那么你的网络也没法训练了,因为任何有用的信息都没了。maxpooling现在常用的地方在卷积网络的第一个卷积层和卷积块之后,用来对特征降维并保留低层级特征如边缘,纹理的最大响应。
关注者
被浏览