org.tensorflow.op.train

Clases

AcumuladorAplicarGradiente Aplica un gradiente a un acumulador determinado.
AcumuladorNumAcumulado Devuelve el número de gradientes agregados en los acumuladores dados.
AcumuladorSetGlobalStep Actualiza el acumulador con un nuevo valor para global_step.
AccumulatorTakeGradient <T extiende TType > Extrae el gradiente promedio en el ConditionalAccumulator dado.
ApplyAdadelta <T extiende TType > Actualice '*var' según el esquema adadelta.
AplicarAdadelta.Opciones Atributos opcionales para ApplyAdadelta
ApplyAdagrad <T extiende TType > Actualice '*var' según el esquema adagrad.
AplicarAdagrad.Options Atributos opcionales para ApplyAdagrad
ApplyAdagradDa <T extiende TType > Actualice '*var' según el esquema de adagrad proximal.
AplicarAdagradDa.Options Atributos opcionales para ApplyAdagradDa
ApplyAdagradV2 <T extiende TType > Actualice '*var' según el esquema adagrad.
AplicarAdagradV2.Opciones Atributos opcionales para ApplyAdagradV2
ApplyAdam <T extiende TType > Actualice '*var' según el algoritmo de Adam.
AplicarAdam.Opciones Atributos opcionales para ApplyAdam
ApplyAdaMax <T extiende TType > Actualice '*var' según el algoritmo AdamMax.
AplicarAdaMax.Opciones Atributos opcionales para ApplyAdaMax
ApplyAddSign <T extiende TType > Actualice '*var' según la actualización de AddSign.
AplicarAddSign.Options Atributos opcionales para ApplyAddSign
ApplyCenteredRmsProp <T extiende TType > Actualice '*var' según el algoritmo RMSProp centrado.
AplicarCenteredRmsProp.Options Atributos opcionales para ApplyCenteredRmsProp
ApplyFtrl <T extiende TType > Actualice '*var' según el esquema Ftrl-proximal.
AplicarFtrl.Opciones Atributos opcionales para ApplyFtrl
ApplyGradientDescent <T extiende TType > Actualice '*var' restándole 'alfa' * 'delta'.
AplicarGradientDescent.Opciones Atributos opcionales para ApplyGradientDescent
ApplyMomentum <T extiende TType > Actualice '*var' según el esquema de impulso.
AplicarMomentum.Opciones Atributos opcionales para ApplyMomentum
ApplyPowerSign <T extiende TType > Actualice '*var' según la actualización de AddSign.
AplicarPowerSign.Opciones Atributos opcionales para ApplyPowerSign
ApplyProximalAdagrad <T extiende TType > Actualice '*var' y '*accum' según FOBOS con la tasa de aprendizaje de Adagrad.
AplicarProximalAdagrad.Options Atributos opcionales para ApplyProximalAdagrad
ApplyProximalGradientDescent <T extiende TType > Actualice '*var' como algoritmo FOBOS con tasa de aprendizaje fija.
AplicarProximalGradientDescent.Options Atributos opcionales para ApplyProximalGradientDescent
ApplyRmsProp <T extiende TType > Actualice '*var' según el algoritmo RMSProp.
AplicarRmsProp.Opciones Atributos opcionales para ApplyRmsProp
BatchMatMul <T extiende TType > Multiplica porciones de dos tensores en lotes.
Opciones de BatchMatMul Atributos opcionales para BatchMatMul
Calcular tamaño de lote Calcula el tamaño de lote estático de un conjunto de datos sin lotes parciales.
Acumulador condicional Un acumulador condicional para agregar gradientes.
Opciones de acumulador condicional Atributos opcionales para ConditionalAccumulator
GenerarVocabRemapping Dada una ruta a archivos de vocabulario nuevos y antiguos, devuelve un tensor de reasignación de

longitud `num_new_vocab`, donde `remapping[i]` contiene el número de fila en el vocabulario antiguo que corresponde a la fila `i` en el nuevo vocabulario (comenzando en la línea `new_vocab_offset` y hasta las entidades `num_new_vocab`), o `- 1` si la entrada `i` en el vocabulario nuevo no está en el vocabulario antiguo.

GenerateVocabRemapping.Opciones Atributos opcionales para GenerateVocabRemapping
Fusionar puntos de control V2 Específico del formato V2: fusiona los archivos de metadatos de los puntos de control fragmentados.
MergeV2Checkpoints.Opciones Atributos opcionales para MergeV2Checkpoints
NegTrain Entrenamiento mediante muestreo negativo.
PreventGradient <T extiende TType > Una operación de identidad que desencadena un error si se solicita un gradiente.
PreventGradient.Opciones Atributos opcionales para PreventGradient
Acumulador de recursosAplicarGradiente Aplica un gradiente a un acumulador determinado.
RecursoAcumuladorNumAcumulado Devuelve el número de gradientes agregados en los acumuladores dados.
ResourceAccumulatorSetGlobalStep Actualiza el acumulador con un nuevo valor para global_step.
ResourceAccumulatorTakeGradient <T extiende TType > Extrae el gradiente promedio en el ConditionalAccumulator dado.
RecursoAplicarAdadelta Actualice '*var' según el esquema adadelta.
ResourceApplyAdadelta.Opciones Atributos opcionales para ResourceApplyAdadelta
RecursoAplicarAdagrad Actualice '*var' según el esquema adagrad.
ResourceApplyAdagrad.Opciones Atributos opcionales para ResourceApplyAdagrad
RecursoAplicarAdagradDa Actualice '*var' según el esquema de adagrad proximal.
ResourceApplyAdagradDa.Opciones Atributos opcionales para ResourceApplyAdagradDa
RecursoAplicarAdam Actualice '*var' según el algoritmo de Adam.
ResourceApplyAdam.Opciones Atributos opcionales para ResourceApplyAdam
RecursoAplicarAdaMax Actualice '*var' según el algoritmo AdamMax.
ResourceApplyAdaMax.Opciones Atributos opcionales para ResourceApplyAdaMax
RecursoAplicarAdamConAmsgrad Actualice '*var' según el algoritmo de Adam.
ResourceApplyAdamWithAmsgrad.Options Atributos opcionales para ResourceApplyAdamWithAmsgrad
RecursoAplicarAgregarSign Actualice '*var' según la actualización de AddSign.
ResourceApplyAddSign.Opciones Atributos opcionales para ResourceApplyAddSign
ResourceApplyCenteredRmsProp Actualice '*var' según el algoritmo RMSProp centrado.
Opciones de ResourceApplyCenteredRmsProp. Atributos opcionales para ResourceApplyCenteredRmsProp
AplicarRecursoFtrl Actualice '*var' según el esquema Ftrl-proximal.
Opciones de ResourceApplyFtrl. Atributos opcionales para ResourceApplyFtrl
RecursoAplicarGradienteDescenso Actualice '*var' restándole 'alfa' * 'delta'.
ResourceApplyGradientDescent.Opciones Atributos opcionales para ResourceApplyGradientDescent
RecursoAplicarKerasMomentum Actualice '*var' según el esquema de impulso.
ResourceApplyKerasMomentum.Opciones Atributos opcionales para ResourceApplyKerasMomentum
RecursoAplicarImpulso Actualice '*var' según el esquema de impulso.
ResourceApplyMomentum.Opciones Atributos opcionales para ResourceApplyMomentum
RecursoAplicarPoderSign Actualice '*var' según la actualización de AddSign.
ResourceApplyPowerSign.Opciones Atributos opcionales para ResourceApplyPowerSign
ResourceApplyProximalAdagrad Actualice '*var' y '*accum' según FOBOS con la tasa de aprendizaje de Adagrad.
ResourceApplyProximalAdagrad.Opciones Atributos opcionales para ResourceApplyProximalAdagrad
ResourceApplyProximalGradientDescent Actualice '*var' como algoritmo FOBOS con tasa de aprendizaje fija.
ResourceApplyProximalGradientDescent.Opciones Atributos opcionales para ResourceApplyProximalGradientDescent
ResourceApplyRmsProp Actualice '*var' según el algoritmo RMSProp.
Opciones de ResourceApplyRmsProp. Atributos opcionales para ResourceApplyRmsProp
Acumulador condicional de recursos Un acumulador condicional para agregar gradientes.
RecursosCondicionalAcumulador.Opciones Atributos opcionales para ResourceConditionalAccumulator
ResourceSparseApplyAdadelta var: debe ser de una variable().
ResourceSparseApplyAdadelta.Opciones Atributos opcionales para ResourceSparseApplyAdadelta
ResourceSparseApplyAdagrad Actualice las entradas relevantes en '*var' y '*accum' según el esquema adagrad.
ResourceSparseApplyAdagrad.Opciones Atributos opcionales para ResourceSparseApplyAdagrad
ResourceSparseApplyAdagradDa Actualice las entradas en '*var' y '*accum' según el esquema adagrad proximal.
ResourceSparseApplyAdagradDa.Options Atributos opcionales para ResourceSparseApplyAdagradDa
ResourceSparseApplyAdagradV2 Actualice las entradas relevantes en '*var' y '*accum' según el esquema adagrad.
ResourceSparseApplyAdagradV2.Opciones Atributos opcionales para ResourceSparseApplyAdagradV2
ResourceSparseApplyCenteredRmsProp Actualice '*var' según el algoritmo RMSProp centrado.
ResourceSparseApplyCenteredRmsProp.Options Atributos opcionales para ResourceSparseApplyCenteredRmsProp
ResourceSparseApplyFtrl Actualice las entradas relevantes en '*var' según el esquema Ftrl-proximal.
ResourceSparseApplyFtrl.Opciones Atributos opcionales para ResourceSparseApplyFtrl
ResourceSparseApplyKerasMomentum Actualice las entradas relevantes en '*var' y '*accum' según el esquema de impulso.
ResourceSparseApplyKerasMomentum.Options Atributos opcionales para ResourceSparseApplyKerasMomentum
ResourceSparseApplyMomentum Actualice las entradas relevantes en '*var' y '*accum' según el esquema de impulso.
ResourceSparseApplyMomentum.Opciones Atributos opcionales para ResourceSparseApplyMomentum
ResourceSparseApplyProximalAdagrad Entradas de actualización escasas en '*var' y '*accum' según el algoritmo FOBOS.
ResourceSparseApplyProximalAdagrad.Options Atributos opcionales para ResourceSparseApplyProximalAdagrad
ResourceSparseApplyProximalGradientDescent Actualización escasa '*var' como algoritmo FOBOS con tasa de aprendizaje fija.
ResourceSparseApplyProximalGradientDescent.Options Atributos opcionales para ResourceSparseApplyProximalGradientDescent
ResourceSparseApplyRmsProp Actualice '*var' según el algoritmo RMSProp.
ResourceSparseApplyRmsProp.Opciones Atributos opcionales para ResourceSparseApplyRmsProp
Restaurar Restaura tensores desde un punto de control V2.
RestoreSlice <T extiende TType > Restaura un tensor a partir de archivos de puntos de control.
RestaurarSlice.Opciones Atributos opcionales para RestoreSlice
Ahorrar Guarda tensores en formato de punto de control V2.
Guardar rebanadas Guarda los cortes de tensores de entrada en el disco.
SdcaFprint Calcula las huellas digitales de las cadenas de entrada.
SdcaOptimizador Versión distribuida del optimizador Stochastic Dual Coordinate Ascent (SDCA) para

Modelos lineales con regularización L1 + L2.

SdcaOptimizer.Opciones Atributos opcionales para SdcaOptimizer
SdcaShrinkL1 Aplica el paso de reducción de regularización L1 en los parámetros.
SparseApplyAdadelta <T extiende TType > var: debe ser de una variable().
SparseApplyAdadelta.Opciones Atributos opcionales para SparseApplyAdadelta
SparseApplyAdagrad <T extiende TType > Actualice las entradas relevantes en '*var' y '*accum' según el esquema adagrad.
SparseApplyAdagrad.Opciones Atributos opcionales para SparseApplyAdagrad
SparseApplyAdagradDa <T extiende TType > Actualice las entradas en '*var' y '*accum' según el esquema adagrad proximal.
SparseApplyAdagradDa.Options Atributos opcionales para SparseApplyAdagradDa
SparseApplyCenteredRmsProp <T extiende TType > Actualice '*var' según el algoritmo RMSProp centrado.
SparseApplyCenteredRmsProp.Options Atributos opcionales para SparseApplyCenteredRmsProp
SparseApplyFtrl <T extiende TType > Actualice las entradas relevantes en '*var' según el esquema Ftrl-proximal.
SparseApplyFtrl.Opciones Atributos opcionales para SparseApplyFtrl
SparseApplyMomentum <T extiende TType > Actualice las entradas relevantes en '*var' y '*accum' según el esquema de impulso.
SparseApplyMomentum.Opciones Atributos opcionales para SparseApplyMomentum
SparseApplyProximalAdagrad <T extiende TType > Entradas de actualización escasas en '*var' y '*accum' según el algoritmo FOBOS.
SparseApplyProximalAdagrad.Options Atributos opcionales para SparseApplyProximalAdagrad
SparseApplyProximalGradientDescent <T extiende TType > Actualización escasa '*var' como algoritmo FOBOS con tasa de aprendizaje fija.
SparseApplyProximalGradientDescent.Opciones Atributos opcionales para SparseApplyProximalGradientDescent
SparseApplyRmsProp <T extiende TType > Actualice '*var' según el algoritmo RMSProp.
SparseApplyRmsProp.Opciones Atributos opcionales para SparseApplyRmsProp
TileGrad <T extiende TType > Devuelve el gradiente de `Tile`.