此页面由 Cloud Translation API 翻译。
Switch to English

tf.compat.v1.lite.experimental.nn.TFLiteLSTMCell

GitHub上查看源代码

长短期存储器单元(LSTM)复发性网络小区。

这仅用于TfLite,它提供提示和这也使得在所需的tflite OPS(转置和分离)的变量。

默认的非窥视孔实现是基于:

https://pdfs.semanticscholar.org/1154/0131eae85b2e11d53df7f1360eeb6476e7f4.pdf

费利克斯·热尔,于尔根·施米德休伯和Fred康明斯。 “学会忘记:与LSTM持续的预测。” IET,850-855,1999。

窥视孔实现是基于:

https://research.google.com/pubs/archive/43905.pdf

Hasim萨克,安德鲁高级和弗朗索瓦丝Beaufays。 “长短期记忆回归神经网络结构进行大规模声学建模。” INTERSPEECH 2014。

类使用可选的窥视孔连接,任选的细胞削波,和一个可选的投影层。

请注意,这个小区没有针对性能进行优化。请使用tf.contrib.cudnn_rnn.CudnnLSTM对GPU,或更好的性能tf.contrib.rnn.LSTMBlockCelltf.contrib.rnn.LSTMBlockFusedCell对CPU性能更好。

num_units INT,在LSTM电池单电池单元的数量。
use_peepholes 布尔,设置为TRUE使对角/窥视孔连接。
cell_clip (可选)一个浮点值,如果提供的小区状态是由之前的电池输出激活这个值限幅。
initializer (可选)初始化为使用为重和投影矩阵。
num_proj (可选)INT,对投影的输出维数矩阵。如果没有,则不进行投影。
proj_clip (可选)一个浮点值。如果num_proj > 0proj_clip设置,则投影值被限幅内的elementwise到[-proj_clip, proj_clip]
num_unit_shards 弃用,将在一月2017年使用可移除的variable_scope分区代替。
num_proj_shards 弃用,将在一月2017年使用可移除的variable_scope分区代替。
forget_bias 勿忘门的偏见默认情况下,为了减少在训练开始遗忘的尺度初始化为1。必须手动将其设置为0.0 ,从CudnnLSTM训练有素的检查点进行恢复时。
state_is_tuple 如果真,接受并返回状态是2元组c_statem_state 。如果为False,它们沿柱轴连接在一起。后者的行为很快就会过时。
activation 内州的激活功能。默认: tanh
reuse (可选)的Python布尔描述是否重用变量在现有范围。如果不是True ,和现有的范围已经给定的变量,将引发一个错误。
name 字符串,该层的名称。具有相同名称的图层会分享的权重,但为了避免我们需要在这样的情况下重用=真正的错误。
dtype 该层的默认D型细胞(的默认None装置使用第一个输入的类型)。在需要时build之前被调用call 。当从CudnnLSTM训练有素的检查点恢复,使用CudnnCompatibleLSTMCell代替。

graph 推荐的函数

output_size 整数或TensorShape:由该细胞产生的输出大小。
scope_name

state_size 尺寸由该小区中使用的状态(多个)的(一个或多个)。

它可以由一个整数,a TensorShape或整数或TensorShapes的元组来表示。

方法

get_initial_state

查看源代码

zero_state

查看源代码

返回零填充状态张量(一个或多个)。

ARGS
batch_size 整数,浮点,或单元张量表示批量大小。
dtype 数据类型要用于状态。

返回
如果state_size是int或TensorShape,则返回值是一个ND形状的张量[batch_size, state_size]用零填充。

如果state_size是嵌套列表或元组,则返回值是的嵌套列表或元组(具有相同的结构) 2-D与形状张量[batch_size, s]为在各S- state_size