org.tensorflow.op.train

Clases

AcumuladorAplicarGradiente Aplica un gradiente a un acumulador dado.
AcumuladorNumAcumulado Devuelve el número de gradientes agregados en los acumuladores dados.
AcumuladorSetGlobalStep Actualiza el acumulador con un nuevo valor para global_step.
AccumulatorTakeGradient <T se extiende Ttype > Extrae el gradiente promedio en el ConditionalAccumulator dado.
ApplyAdadelta <T se extiende Ttype > Actualice '* var' de acuerdo con el esquema adadelta.
ApplyAdadelta.Options Los atributos opcionales para ApplyAdadelta
ApplyAdagrad <T se extiende Ttype > Actualice '* var' de acuerdo con el esquema adagrad.
ApplyAdagrad.Options Los atributos opcionales para ApplyAdagrad
ApplyAdagradDa <T se extiende Ttype > Actualice '* var' de acuerdo con el esquema de adagrad proximal.
ApplyAdagradDa.Options Los atributos opcionales para ApplyAdagradDa
ApplyAdagradV2 <T se extiende Ttype > Actualice '* var' de acuerdo con el esquema adagrad.
ApplyAdagradV2.Options Los atributos opcionales para ApplyAdagradV2
ApplyAdam <T se extiende Ttype > Actualice '* var' según el algoritmo de Adam.
ApplyAdam.Options Los atributos opcionales para ApplyAdam
ApplyAdaMax <T se extiende Ttype > Actualice '* var' de acuerdo con el algoritmo AdaMax.
ApplyAdaMax.Options Los atributos opcionales para ApplyAdaMax
ApplyAddSign <T se extiende Ttype > Actualice '* var' de acuerdo con la actualización de AddSign.
ApplyAddSign.Options Los atributos opcionales para ApplyAddSign
ApplyCenteredRmsProp <T se extiende Ttype > Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.
ApplyCenteredRmsProp.Options Los atributos opcionales para ApplyCenteredRmsProp
ApplyFtrl <T se extiende Ttype > Actualice '* var' de acuerdo con el esquema Ftrl-proximal.
ApplyFtrl.Options Los atributos opcionales para ApplyFtrl
ApplyGradientDescent <T se extiende Ttype > Actualice '* var' restando 'alpha' * 'delta' de él.
ApplyGradientDescent.Options Los atributos opcionales para ApplyGradientDescent
ApplyMomentum <T se extiende Ttype > Actualice '* var' de acuerdo con el esquema de impulso.
ApplyMomentum.Options Los atributos opcionales para ApplyMomentum
ApplyPowerSign <T se extiende Ttype > Actualice '* var' de acuerdo con la actualización de AddSign.
ApplyPowerSign.Options Los atributos opcionales para ApplyPowerSign
ApplyProximalAdagrad <T se extiende Ttype > Actualice '* var' y '* acumula' de acuerdo con FOBOS con la tasa de aprendizaje de Adagrad.
ApplyProximalAdagrad.Options Los atributos opcionales para ApplyProximalAdagrad
ApplyProximalGradientDescent <T se extiende Ttype > Actualice '* var' como algoritmo FOBOS con tasa de aprendizaje fija.
ApplyProximalGradientDescent.Options Los atributos opcionales para ApplyProximalGradientDescent
ApplyRmsProp <T se extiende Ttype > Actualice '* var' de acuerdo con el algoritmo RMSProp.
ApplyRmsProp.Options Los atributos opcionales para ApplyRmsProp
BatchMatMul <T se extiende Ttype > Multiplica porciones de dos tensores en lotes.
BatchMatMul.Options Los atributos opcionales para BatchMatMul
ComputeBatchSize Calcula el tamaño de lote estático de un conjunto de datos sin lotes parciales.
Acumulador condicional Un acumulador condicional para agregar gradientes.
ConditionalAccumulator.Options Los atributos opcionales para ConditionalAccumulator
GenerateVocabRemapping Dada una ruta a archivos de vocabulario nuevos y antiguos, devuelve un tensor de reasignación de

length `num_new_vocab`, donde` remapping [i] `contiene el número de fila en el vocabulario antiguo que corresponde a la fila` i` en el nuevo vocabulario (comenzando en la línea `new_vocab_offset` y hasta` num_new_vocab` entidades), o `- 1` si la entrada `i` en el vocabulario nuevo no está en el vocabulario antiguo.

GenerateVocabRemapping.Options Los atributos opcionales para GenerateVocabRemapping
MergeV2Checkpoints Específico del formato V2: fusiona los archivos de metadatos de los puntos de control fragmentados.
MergeV2Checkpoints.Options Los atributos opcionales para MergeV2Checkpoints
NegTrain Entrenamiento vía muestreo negativo.
PreventGradient <T se extiende Ttype > Una operación de identidad que desencadena un error si se solicita un gradiente.
PreventGradient.Options Los atributos opcionales para PreventGradient
ResourceAccumulatorApplyGradient Aplica un gradiente a un acumulador dado.
ResourceAccumulatorNumAccumulated Devuelve el número de gradientes agregados en los acumuladores dados.
ResourceAccumulatorSetGlobalStep Actualiza el acumulador con un nuevo valor para global_step.
ResourceAccumulatorTakeGradient <T se extiende Ttype > Extrae el gradiente promedio en el ConditionalAccumulator dado.
ResourceApplyAdadelta Actualice '* var' de acuerdo con el esquema adadelta.
ResourceApplyAdadelta.Options Los atributos opcionales para ResourceApplyAdadelta
RecursoAplicarAdagrad Actualice '* var' de acuerdo con el esquema adagrad.
ResourceApplyAdagrad.Options Los atributos opcionales para ResourceApplyAdagrad
RecursoApplyAdagradDa Actualice '* var' de acuerdo con el esquema de adagrad proximal.
ResourceApplyAdagradDa.Options Los atributos opcionales para ResourceApplyAdagradDa
RecursoAplicarAdam Actualice '* var' según el algoritmo de Adam.
ResourceApplyAdam.Options Los atributos opcionales para ResourceApplyAdam
ResourceApplyAdaMax Actualice '* var' de acuerdo con el algoritmo AdaMax.
ResourceApplyAdaMax.Options Los atributos opcionales para ResourceApplyAdaMax
RecursoApplyAdamWithAmsgrad Actualice '* var' según el algoritmo de Adam.
ResourceApplyAdamWithAmsgrad.Options Los atributos opcionales para ResourceApplyAdamWithAmsgrad
ResourceApplyAddSign Actualice '* var' de acuerdo con la actualización de AddSign.
ResourceApplyAddSign.Options Los atributos opcionales para ResourceApplyAddSign
ResourceApplyCenteredRmsProp Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.
ResourceApplyCenteredRmsProp.Options Los atributos opcionales para ResourceApplyCenteredRmsProp
ResourceApplyFtrl Actualice '* var' de acuerdo con el esquema Ftrl-proximal.
ResourceApplyFtrl.Options Los atributos opcionales para ResourceApplyFtrl
ResourceApplyGradientDescent Actualice '* var' restando 'alpha' * 'delta' de él.
ResourceApplyGradientDescent.Options Los atributos opcionales para ResourceApplyGradientDescent
RecursoApplyKerasMomentum Actualice '* var' de acuerdo con el esquema de impulso.
ResourceApplyKerasMomentum.Options Los atributos opcionales para ResourceApplyKerasMomentum
ResourceApplyMomentum Actualice '* var' de acuerdo con el esquema de impulso.
ResourceApplyMomentum.Options Los atributos opcionales para ResourceApplyMomentum
ResourceApplyPowerSign Actualice '* var' de acuerdo con la actualización de AddSign.
ResourceApplyPowerSign.Options Los atributos opcionales para ResourceApplyPowerSign
RecursoAplicarProximalAdagrad Actualice '* var' y '* acumula' de acuerdo con FOBOS con la tasa de aprendizaje de Adagrad.
ResourceApplyProximalAdagrad.Options Los atributos opcionales para ResourceApplyProximalAdagrad
ResourceApplyProximalGradientDescent Actualice '* var' como algoritmo FOBOS con tasa de aprendizaje fija.
ResourceApplyProximalGradientDescent.Options Los atributos opcionales para ResourceApplyProximalGradientDescent
ResourceApplyRmsProp Actualice '* var' de acuerdo con el algoritmo RMSProp.
ResourceApplyRmsProp.Options Los atributos opcionales para ResourceApplyRmsProp
ResourceConditionalAccumulator Un acumulador condicional para agregar gradientes.
ResourceConditionalAccumulator.Options Los atributos opcionales para ResourceConditionalAccumulator
ResourceSparseApplyAdadelta var: debe ser de una variable ().
ResourceSparseApplyAdadelta.Options Los atributos opcionales para ResourceSparseApplyAdadelta
ResourceSparseApplyAdagrad Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.
ResourceSparseApplyAdagrad.Options Los atributos opcionales para ResourceSparseApplyAdagrad
ResourceSparseApplyAdagradDa Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal.
ResourceSparseApplyAdagradDa.Options Los atributos opcionales para ResourceSparseApplyAdagradDa
ResourceSparseApplyAdagradV2 Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.
ResourceSparseApplyAdagradV2.Options Los atributos opcionales para ResourceSparseApplyAdagradV2
ResourceSparseApplyCenteredRmsProp Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.
ResourceSparseApplyCenteredRmsProp.Options Los atributos opcionales para ResourceSparseApplyCenteredRmsProp
ResourceSparseApplyFtrl Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal.
ResourceSparseApplyFtrl.Options Los atributos opcionales para ResourceSparseApplyFtrl
ResourceSparseApplyKerasMomentum Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso.
ResourceSparseApplyKerasMomentum.Options Los atributos opcionales para ResourceSparseApplyKerasMomentum
ResourceSparseApplyMomentum Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso.
ResourceSparseApplyMomentum.Options Los atributos opcionales para ResourceSparseApplyMomentum
ResourceSparseApplyProximalAdagrad Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS.
ResourceSparseApplyProximalAdagrad.Options Los atributos opcionales para ResourceSparseApplyProximalAdagrad
ResourceSparseApplyProximalGradientDescent Actualización escasa '* var' como algoritmo FOBOS con tasa de aprendizaje fija.
ResourceSparseApplyProximalGradientDescent.Options Los atributos opcionales para ResourceSparseApplyProximalGradientDescent
ResourceSparseApplyRmsProp Actualice '* var' de acuerdo con el algoritmo RMSProp.
ResourceSparseApplyRmsProp.Options Los atributos opcionales para ResourceSparseApplyRmsProp
Restaurar Restaura los tensores de un punto de control V2.
RestoreSlice <T se extiende Ttype > Restaura un tensor de archivos de puntos de control.
RestoreSlice.Options Los atributos opcionales para RestoreSlice
Ahorrar Guarda tensores en formato de punto de control V2.
Guardar rebanadas Guarda cortes de tensores de entrada en el disco.
SdcaFprint Calcula las huellas digitales de las cadenas de entrada.
SdcaOptimizer Versión distribuida del optimizador Stochastic Dual Coordinate Ascent (SDCA) para

modelos lineales con regularización L1 + L2.

SdcaOptimizer.Options Los atributos opcionales para SdcaOptimizer
SdcaShrinkL1 Aplica el paso de reducción de regularización L1 en los parámetros.
SparseApplyAdadelta <T se extiende Ttype > var: debe ser de una variable ().
SparseApplyAdadelta.Options Los atributos opcionales para SparseApplyAdadelta
SparseApplyAdagrad <T se extiende Ttype > Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.
SparseApplyAdagrad.Options Los atributos opcionales para SparseApplyAdagrad
SparseApplyAdagradDa <T se extiende Ttype > Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal.
SparseApplyAdagradDa.Options Los atributos opcionales para SparseApplyAdagradDa
SparseApplyCenteredRmsProp <T se extiende Ttype > Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.
SparseApplyCenteredRmsProp.Options Los atributos opcionales para SparseApplyCenteredRmsProp
SparseApplyFtrl <T se extiende Ttype > Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal.
SparseApplyFtrl.Options Los atributos opcionales para SparseApplyFtrl
SparseApplyMomentum <T se extiende Ttype > Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso.
SparseApplyMomentum.Options Los atributos opcionales para SparseApplyMomentum
SparseApplyProximalAdagrad <T se extiende Ttype > Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS.
SparseApplyProximalAdagrad.Options Los atributos opcionales para SparseApplyProximalAdagrad
SparseApplyProximalGradientDescent <T se extiende Ttype > Actualización escasa '* var' como algoritmo FOBOS con tasa de aprendizaje fija.
SparseApplyProximalGradientDescent.Options Los atributos opcionales para SparseApplyProximalGradientDescent
SparseApplyRmsProp <T se extiende Ttype > Actualice '* var' de acuerdo con el algoritmo RMSProp.
SparseApplyRmsProp.Options Los atributos opcionales para SparseApplyRmsProp
TileGrad <T se extiende Ttype > Devuelve el degradado de `Tile`.