老师您好,真的纠结好久了,反复看课程还是很困惑
###对应7-17的课
# 定义输入门
with tf.variable_scope('inputs'):
ix, ih, ib = _generate_params_for_lstm_cell(
x_size = [hps.num_embedding_size, hps.num_lstm_nodes[0]], #x_size的大小为一个矩阵【embedding_size的大小,第一层lstm的隐含状态Ct维 度的大小】
## 注意此node只是作者命名时没注意,应该是Ct的维度
h_size = [hps.num_lstm_nodes[0], hps.num_lstm_nodes[0]], #???
bias_size = [1, hps.num_lstm_nodes[0]]
)
# ?中间的隐含状态C't,
state = tf.Variable(
tf.zeros([batch_size, hps.num_lstm_nodes[0]]),
trainable = False
)
# ??# h 上一步的输出
h = tf.Variable(
tf.zeros([batch_size, hps.num_lstm_nodes[0]]),
trainable = False
1)这个h_size 的定义h_size = [hps.num_lstm_nodes[0], ps.num_lstm_nodes[0]], #???是
2)h 定义的时候,也说的是上一步的输出,
3)state 对应的是中间的隐含状态大小?中间隐含状态大小不是 h_size 吗?