请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

在xor这章中,这里为什么第一层激活函数用的relu

model.add(tf.layers.dense({
units: 4,
inputShape: [2],
activation: ‘relu’
}));
model.add(tf.layers.dense({
units: 1,
activation: ‘sigmoid’
}));

正在回答 回答被采纳积分+3

1回答

lewis 2021-12-27 06:54:41

也可以用sigmoid,只是为了把线性变成非线性

0 回复 有任何疑惑可以回复我~
  • 提问者 西北莫 #1
    那如果都可以,是不是就没有区分了,我理解非线形的变化也是千差万别的,为什么不是需要某种具体的非线形,不同的非线性为什么都难得到正确的结果
    回复 有任何疑惑可以回复我~ 2021-12-27 23:28:47
  • lewis #2
    虽然都可以,但是效果有好坏,relu的学习效率更高,比sigmoid更适合放在隐藏层,但是你把sigmoid放在这里也是能学出来的
    回复 有任何疑惑可以回复我~ 2021-12-27 23:31:39
  • ok_Wei 回复 lewis #3
    老师请问怎么做才能选择出最优的激活函数?
    回复 有任何疑惑可以回复我~ 2022-04-30 23:01:15
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信