1.dropout与spiltnet区别:

例如,如果一个玩具网络层有10个神经元,dropout会为所有10个神经元提供一个独立的表示。相比之下,SplitNets只对拟合假设拟合假设内的神经元进行了独立表征。因此,分裂掩模M提供了更精细的控制级别。

2.扩展dropout的trick:

因为深层网络输入图片的某些通道不会被激活,即会丢失部分特征信息。

Weighted Channel Dropout (WCD):three extra modules to a deep network:

1.GlobalAverage Pooling,

2.Weighted Random Selection,

3.Random Number Generator.

These three modules are added to multiple convolutional layers.

3.KE与各剪枝方法的比较:

P12.A. Appendix: Related Work