采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
您在这节里提到的xavier初始化,为什么可以让tanh的激活值分布呈现正态分布,而均值为0方差为1的分布却分布的那么不均匀,根据xavier初始化的公式,初始化的W都是大于1的,这样不会使激活值都趋于1吗?而均值为0方差为1的分布激活值都在1,和-1两个值呢?
这位同学的问题非常好,在这里,xavier 的初始化方法为np.random.randn(in, out) / np.sqrt(in ),这里的np.random.randn是标准正态分布,in和out 两个参数是指定生成的参数矩阵的size ,然后除以np.sqrt(in )相当于把标准正态分布的方差从1变成了1/in,从而,生成的W 不是都大于1的数,而是一个以0为均值,以1/in为方差的正态分布中产生的数。从这个适当的方差中随机得到的初始化参数,在激活函数为tanh 的时候,能够达到一个比较好的效果。
又检查了一下课程,xavier 初始化的内容,有一句话有个口误,导致了误解,这周三会把视频更新下。
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.6k 9
1.7k 8
1.2k 7
1.3k 7
2.1k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号