之前曾经在__init__中把 训练层 添加在了self下的一个字典里面
self.layer_list[0] = make_layer()
在forward中训练
out = self.layer_list[0]_(x)
发现训练出错了,准确率一直上不去
如果把层直接添加在self下
self.layer1 = make_layer() ,
在forward中训练
out = self.layer1(x)
就可以了
是不是因为梯度计算出问题,因为没有直接添加在layer下面,如果是的话,
在backward里如何根据 forward 里面的步骤,计算出相应的反向梯度呢