采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
就是用梯度下降解决线性回归,训练的每一步都会run一下优化器来最小化loss函数,可是为什么只有权重W和偏差b会一直被改变,而跟loss函数相关的y和y_data,x_data计算机没有去改变他们。这里面的机制是什么
y_data, x_data 这两组真实点的坐标值为什么要改变?本来就是用这些值去训练模型,得到最佳的 W 和 b 值。
y 是会改变的,因为 W 和 b 在训练时的调整过程中会变。
y = W * x_data + b # 模型计算出来的 y
比如第一轮训练的时候,y_data,x_data都有值,W和b也有初始化的值,然后最小化loss的时候,计算机把x_data和y_data中的点改一下让它离一开始的初始化直线越近,那loss的值也会变小,我的意思就是让loss值变小的办法有好几种,为什么那个loss最小化的方法会刚好识别出是W和b的值改变去让loss最小化,而不是改变点的坐标去让loss最小化?因为W和b一开始也有值,x_data和y_data也有值
x_data,y_data不是tf下的变量,而tensorflow只对tf.Variable() 进行处理
登录后可查看更多问答,登录/注册
机器学习入门,打牢TensorFlow框架应用是关键!
16.3k 10
1.4k 9
1.4k 8
1.6k 7
1.1k 7