如果我要给一句话做标注的话,是不是需要将最后一层的return_sequences设置为True,还有
model.add(tf.keras.layers.LSTM( 512, # 输出的维度 input_shape=(inputs.shape[1], inputs.shape[2]), # 输入的形状 return_sequences=True # 返回 Sequences(序列) ))
这样的一层,每个time_step输出的是一个512维的tensor吗?然后当return_sequences=True时,就会把sequence_length个512维的tensors作为输出吗?
16.2k 10
1.3k 9
1.3k 8
1.5k 7
1.0k 7