采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
这里输出为什么要乘(1-self.p_dropout)
self
.output
=
.activation_fn(
(
1
-
.p_dropout)
*
T.dot(
.
input
,
.w)
+
.b
)
仔细看。
因为平时的计算是进行了dropout的 有一定百分比的节点被丢弃了的结果
这里的运算使用了所有的节点 如果不乘上(1-self.p_dropout)的话值会偏大
保留百分比
可是这里不是没有dropout的输出吗?没有dropout为什么不全部保留,却只保存一部分呢?
只是以控制百分比的数值
登录后可查看更多问答,登录/注册
神经网络实现/Tensorflow框架/图片分类实现
831 9
675 7
828 7
1.2k 7
835 5
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号