采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
这里输出为什么要乘(1-self.p_dropout)
self.output=self.activation_fn( (1-self.p_dropout)*T.dot(self.input,self.w)+self.b )
仔细看。
因为平时的计算是进行了dropout的 有一定百分比的节点被丢弃了的结果
这里的运算使用了所有的节点 如果不乘上(1-self.p_dropout)的话值会偏大
保留百分比
可是这里不是没有dropout的输出吗?没有dropout为什么不全部保留,却只保存一部分呢?
只是以控制百分比的数值
登录后可查看更多问答,登录/注册
神经网络实现/Tensorflow框架/图片分类实现
746 9
611 7
760 7
1.1k 7
758 5