跳转至

Neural Network

卷积池化前后大小对比

输入大小:

\[ W * W, kernel-size=F, stride=S, padding=P \]

输出大小:

\[ N = \frac{W-F+2P}{S}+1 \]

Dropout

一种正则化方法,用于防止深度神经网络过拟合,其主要思想是在训练过程中随机选择神经元进行忽略,从而可以减少神经元之间的依赖性,强制使网络更多地依靠其他神经元来进行预测

Problem

为什么感觉这些著名的神经网络的设计具有一定的主观性,想设计几个卷积层就设计几个,也没有什么依据