采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师,我理解了为什么使用激活函数,但是根据咱们课中的例子,这样不会把一些信息消除掉吗(负数)这样不是损失了一部分信息吗?
会损失,但是没关系。原因是:
神经网络中会有参数冗余,因而损失一些信息没有关系。网络容量足够
relu会带来稀疏性,起到一种正则化的效果,具体来说就是使得参数之间的依赖变小了,这样能增加网络的泛化能力。
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.5k 9
1.6k 8
1.1k 7
1.2k 7
2.0k 7