BlockLSTMGrad

clase final pública BlockLSTMGrad

Calcula la propagación hacia atrás de la celda LSTM para toda la secuencia de tiempo.

Esta implementación se utilizará junto con BlockLSTMV2.

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

Salida <T>
bGraduado ()
El gradiente para w se apoyará hacia atrás.
estático <T extiende TNumber > BlockLSTMGrad <T>
crear ( Alcance alcance, Operando < TInt64 > seqLenMax, Operando <T> x, Operando <T> csPrev, Operando <T> hPrev, Operando <T> w, Operando <T> wci, Operando <T> wcf, Operando <T > wco, Operando <T> b, Operando <T> i, Operando <T> cs, Operando <T> f, Operando <T> o, Operando <T> ci, Operando <T> co, Operando <T> h , Operando <T> csGrad, Operando <T> hGrad, uso booleanoMirilla)
Método de fábrica para crear una clase que envuelve una nueva operación BlockLSTMGrad.
Salida <T>
csPrevGrad ()
El gradiente de cs_prev se apuntalará hacia atrás.
Salida <T>
hPrevGrad ()
El gradiente de h_prev se apuntalará hacia atrás.
Salida <T>
wGraduado ()
El gradiente para w se apoyará hacia atrás.
Salida <T>
wcfGrad ()
El gradiente para que wcf se apoye hacia atrás.
Salida <T>
wciGrad ()
El gradiente para que wci se apoye hacia atrás.
Salida <T>
wcoGrad ()
El gradiente para wco será apuntalado hacia atrás.
Salida <T>
xGrad ()
El gradiente de x que se va a apuntalar hacia atrás.

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "BlockLSTMGradV2"

Métodos públicos

Salida pública <T> bGrad ()

El gradiente para w se apoyará hacia atrás.

público estático BlockLSTMGrad <T> crear ( Alcance alcance, Operando < TInt64 > seqLenMax, Operando <T> x, Operando <T> csPrev, Operando <T> hPrev, Operando <T> w, Operando <T> wci, Operando <T > wcf, Operando <T> wco, Operando <T> b, Operando <T> i, Operando <T> cs, Operando <T> f, Operando <T> o, Operando <T> ci, Operando <T> co , Operando <T> h, Operando <T> csGrad, Operando <T> hGrad, uso booleanoMirilla)

Método de fábrica para crear una clase que envuelve una nueva operación BlockLSTMGrad.

Parámetros
alcance alcance actual
seqLenMax Duración máxima de tiempo realmente utilizada por esta entrada. Las salidas se rellenan con ceros más allá de esta longitud.
X La secuencia de entrada al LSTM, forma (timelen, tamaño de lote, num_inputs).
csAnterior Valor del estado inicial de la celda.
hAnterior Salida inicial de celda (para ser utilizada para mirilla).
w La matriz de peso.
wci La matriz de peso para la conexión de mirilla de puerta de entrada.
wcf La matriz de peso para olvidar la conexión de mirilla de puerta.
OMA La matriz de pesos para la conexión de mirilla de puerta de salida.
b El vector de sesgo.
i La puerta de entrada durante toda la secuencia de tiempo.
cs El estado de la celda antes del tanh durante toda la secuencia de tiempo.
F La puerta del olvido sobre toda la secuencia temporal.
oh La puerta de salida durante toda la secuencia de tiempo.
ci La entrada de celda durante toda la secuencia de tiempo.
co La celda después del tanh durante toda la secuencia de tiempo.
h El vector h de salida sobre toda la secuencia de tiempo.
csGrad El gradiente actual de cs.
hgrad El gradiente del vector h.
utilizar mirilla Si se deben utilizar pesas para mirilla.
Devoluciones
  • una nueva instancia de BlockLSTMGrad

Salida pública <T> csPrevGrad ()

El gradiente de cs_prev se apuntalará hacia atrás.

Salida pública <T> hPrevGrad ()

El gradiente de h_prev se apuntalará hacia atrás.

Salida pública <T> wGrad ()

El gradiente para w se apoyará hacia atrás.

Salida pública <T> wcfGrad ()

El gradiente para que wcf se apoye hacia atrás.

Salida pública <T> wciGrad ()

El gradiente para que wci se apoye hacia atrás.

Salida pública <T> wcoGrad ()

El gradiente para wco será apuntalado hacia atrás.

Salida pública <T> xGrad ()

El gradiente de x que se va a apuntalar hacia atrás.