采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
model.add(tf.layers.dense({ units: 4, inputShape: [2], activation: ‘relu’ })); model.add(tf.layers.dense({ units: 1, activation: ‘sigmoid’ }));
也可以用sigmoid,只是为了把线性变成非线性
那如果都可以,是不是就没有区分了,我理解非线形的变化也是千差万别的,为什么不是需要某种具体的非线形,不同的非线性为什么都难得到正确的结果
虽然都可以,但是效果有好坏,relu的学习效率更高,比sigmoid更适合放在隐藏层,但是你把sigmoid放在这里也是能学出来的
老师请问怎么做才能选择出最优的激活函数?
登录后可查看更多问答,登录/注册
机器学习理论知识+Tensorflow.js实战开发
1.2k 10
926 8
790 8
600 7
1.2k 6