org.tensorflow.op.train

Classi

AccumulatoreApplicaGradiente Applica un gradiente a un determinato accumulatore.
AccumulatoreNumAccumulato Restituisce il numero di gradienti aggregati negli accumulatori specificati.
AccumulatoreImpostaGlobalStep Aggiorna l'accumulatore con un nuovo valore per global_step.
AccumulatorTakeGradient <T estende TType > Estrae il gradiente medio nel ConditionalAccumulatore specificato.
ApplyAdadelta <T estende TType > Aggiorna '*var' secondo lo schema adadelta.
ApplicaAdadelta.Options Attributi facoltativi per ApplyAdadelta
ApplyAdagrad <T estende TType > Aggiorna '*var' secondo lo schema adagrad.
ApplicaAdagrad.Options Attributi facoltativi per ApplyAdagrad
ApplyAdagradDa <T estende TType > Aggiorna '*var' secondo lo schema adagrad prossimale.
ApplicaAdagradDa.Options Attributi facoltativi per ApplyAdagradDa
ApplyAdagradV2 <T estende TType > Aggiorna '*var' secondo lo schema adagrad.
ApplicaAdagradV2.Options Attributi facoltativi per ApplyAdagradV2
ApplyAdam <T estende TType > Aggiorna '*var' secondo l'algoritmo di Adam.
ApplicaAdam.Options Attributi facoltativi per ApplyAdam
ApplyAdaMax <T estende TType > Aggiorna '*var' secondo l'algoritmo AdaMax.
ApplicaAdaMax.Options Attributi facoltativi per ApplyAdaMax
ApplyAddSign <T estende TType > Aggiorna "*var" in base all'aggiornamento AddSign.
ApplyAddSign.Options Attributi facoltativi per ApplyAddSign
ApplyCenteredRmsProp <T estende TType > Aggiorna '*var' in base all'algoritmo RMSProp centrato.
ApplyCenteredRmsProp.Options Attributi facoltativi per ApplyCenteredRmsProp
ApplyFtrl <T estende TType > Aggiorna '*var' secondo lo schema Ftrl-prossimale.
ApplyFtrl.Options Attributi facoltativi per ApplyFtrl
ApplyGradientDescent <T estende TType > Aggiorna '*var' sottraendo da esso 'alpha' * 'delta'.
ApplicaGradientDescent.Options Attributi facoltativi per ApplyGradientDescent
ApplyMomentum <T estende TType > Aggiorna '*var' secondo lo schema del momentum.
ApplyMomentum.Options Attributi facoltativi per ApplyMomentum
ApplyPowerSign <T estende TType > Aggiorna "*var" in base all'aggiornamento AddSign.
ApplicaPowerSign.Options Attributi facoltativi per ApplyPowerSign
ApplyProximalAdagrad <T estende TType > Aggiorna '*var' e '*accum' secondo FOBOS con il tasso di apprendimento di Adagrad.
ApplicaProximalAdagrad.Options Attributi facoltativi per ApplyProximalAdagrad
ApplyProximalGradientDescent <T estende TType > Aggiorna '*var' come algoritmo FOBOS con velocità di apprendimento fissa.
ApplicaProximalGradientDescent.Options Attributi facoltativi per ApplyProximalGradientDescent
ApplyRmsProp <T estende TType > Aggiorna '*var' in base all'algoritmo RMSProp.
ApplicaRmsProp.Options Attributi facoltativi per ApplyRmsProp
BatchMatMul <T estende TType > Moltiplica le fette di due tensori in batch.
BatchMatMul.Opzioni Attributi facoltativi per BatchMatMul
Calcola dimensione batch Calcola la dimensione batch statica di un set di dati senza batch parziali.
Accumulatore condizionale Un accumulatore condizionale per l'aggregazione dei gradienti.
ConditionalAccumulatore.Opzioni Attributi facoltativi per ConditionalAccumulator
Genera rimappatura vocab Dato un percorso ai file di vocabolario nuovi e vecchi, restituisce un tensore di rimappatura di

lunghezza `num_new_vocab`, dove `remapping[i]` contiene il numero di riga nel vecchio vocabolario che corrisponde alla riga `i` nel nuovo vocabolario (a partire dalla riga `new_vocab_offset` e fino a `num_new_vocab` entità), o `- 1` se la voce "i" nel nuovo vocabolario non è nel vecchio vocabolario.

GeneraVocabRemapping.Options Attributi facoltativi per GenerateVocabRemapping
Unisci punti di controllo V2 Specifico per il formato V2: unisce i file di metadati dei checkpoint frammentati.
UnisciV2Checkpoints.Opzioni Attributi facoltativi per MergeV2Checkpoints
NegTrain Addestramento tramite campionamento negativo.
PreventGradient <T estende TType > Un'operazione di identità che attiva un errore se viene richiesto un gradiente.
PreventGradient.Options Attributi facoltativi per PreventGradient
ResourceAccumulatorApplyGradient Applica un gradiente a un determinato accumulatore.
ResourceAccumulatorNumAccumulato Restituisce il numero di gradienti aggregati negli accumulatori specificati.
ResourceAccumulatorSetGlobalStep Aggiorna l'accumulatore con un nuovo valore per global_step.
ResourceAccumulatorTakeGradient <T estende TType > Estrae il gradiente medio nel ConditionalAccumulatore specificato.
ResourceApplyAdadelta Aggiorna '*var' secondo lo schema adadelta.
ResourceApplyAdadelta.Options Attributi facoltativi per ResourceApplyAdadelta
ResourceApplyAdagrad Aggiorna '*var' secondo lo schema adagrad.
ResourceApplyAdagrad.Options Attributi facoltativi per ResourceApplyAdagrad
ResourceApplyAdagradDa Aggiorna '*var' secondo lo schema adagrad prossimale.
ResourceApplyAdagradDa.Options Attributi facoltativi per ResourceApplyAdagradDa
ResourceApplyAdam Aggiorna '*var' secondo l'algoritmo di Adam.
ResourceApplyAdam.Options Attributi facoltativi per ResourceApplyAdam
ResourceApplyAdaMax Aggiorna '*var' secondo l'algoritmo AdaMax.
ResourceApplyAdaMax.Options Attributi facoltativi per ResourceApplyAdaMax
ResourceApplyAdamWithAmsgrad Aggiorna '*var' secondo l'algoritmo di Adam.
ResourceApplyAdamWithAmsgrad.Options Attributi facoltativi per ResourceApplyAdamWithAmsgrad
ResourceApplyAddSign Aggiorna "*var" in base all'aggiornamento AddSign.
ResourceApplyAddSign.Options Attributi facoltativi per ResourceApplyAddSign
ResourceApplyCenteredRmsProp Aggiorna '*var' in base all'algoritmo RMSProp centrato.
ResourceApplyCenteredRmsProp.Options Attributi facoltativi per ResourceApplyCenteredRmsProp
ResourceApplyFtrl Aggiorna '*var' secondo lo schema Ftrl-prossimale.
ResourceApplyFtrl.Options Attributi facoltativi per ResourceApplyFtrl
ResourceApplyGradientDescent Aggiorna '*var' sottraendo da esso 'alpha' * 'delta'.
ResourceApplyGradientDescent.Options Attributi facoltativi per ResourceApplyGradientDescent
ResourceApplyKerasMomentum Aggiorna '*var' secondo lo schema del momentum.
ResourceApplyKerasMomentum.Options Attributi facoltativi per ResourceApplyKerasMomentum
ResourceApplyMomentum Aggiorna '*var' secondo lo schema del momentum.
ResourceApplyMomentum.Options Attributi facoltativi per ResourceApplyMomentum
ResourceApplyPowerSign Aggiorna "*var" in base all'aggiornamento AddSign.
ResourceApplyPowerSign.Options Attributi facoltativi per ResourceApplyPowerSign
ResourceApplyProximalAdagrad Aggiorna '*var' e '*accum' secondo FOBOS con il tasso di apprendimento di Adagrad.
ResourceApplyProximalAdagrad.Options Attributi facoltativi per ResourceApplyProximalAdagrad
ResourceApplyProximalGradientDescent Aggiorna '*var' come algoritmo FOBOS con velocità di apprendimento fissa.
ResourceApplyProximalGradientDescent.Options Attributi facoltativi per ResourceApplyProximalGradientDescent
ResourceApplyRmsProp Aggiorna '*var' in base all'algoritmo RMSProp.
ResourceApplyRmsProp.Options Attributi facoltativi per ResourceApplyRmsProp
ResourceConditionalAccumulatore Un accumulatore condizionale per l'aggregazione dei gradienti.
ResourceConditionalAccumulator.Options Attributi facoltativi per ResourceConditionalAccumulator
ResourceSparseApplyAdadelta var: dovrebbe provenire da una variabile().
ResourceSparseApplyAdadelta.Options Attributi facoltativi per ResourceSparseApplyAdadelta
ResourceSparseApplyAdagrad Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema adagrad.
ResourceSparseApplyAdagrad.Options Attributi facoltativi per ResourceSparseApplyAdagrad
ResourceSparseApplyAdagradDa Aggiorna le voci in '*var' e '*accum' secondo lo schema adagrad prossimale.
ResourceSparseApplyAdagradDa.Options Attributi facoltativi per ResourceSparseApplyAdagradDa
ResourceSparseApplyAdagradV2 Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema adagrad.
ResourceSparseApplyAdagradV2.Options Attributi facoltativi per ResourceSparseApplyAdagradV2
ResourceSparseApplyCenteredRmsProp Aggiorna '*var' in base all'algoritmo RMSProp centrato.
ResourceSparseApplyCenteredRmsProp.Options Attributi facoltativi per ResourceSparseApplyCenteredRmsProp
ResourceSparseApplyFtrl Aggiorna le voci rilevanti in '*var' secondo lo schema Ftrl-prossimale.
ResourceSparseApplyFtrl.Options Attributi facoltativi per ResourceSparseApplyFtrl
ResourceSparseApplyKerasMomentum Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema del momentum.
ResourceSparseApplyKerasMomentum.Options Attributi facoltativi per ResourceSparseApplyKerasMomentum
ResourceSparseApplyMomentum Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema del momentum.
ResourceSparseApplyMomentum.Options Attributi facoltativi per ResourceSparseApplyMomentum
ResourceSparseApplyProximalAdagrad Voci di aggiornamento sparse in '*var' e '*accum' secondo l'algoritmo FOBOS.
ResourceSparseApplyProximalAdagrad.Options Attributi facoltativi per ResourceSparseApplyProximalAdagrad
ResourceSparseApplyProximalGradientDescent Aggiornamento sparse '*var' come algoritmo FOBOS con velocità di apprendimento fissa.
ResourceSparseApplyProximalGradientDescent.Options Attributi facoltativi per ResourceSparseApplyProximalGradientDescent
ResourceSparseApplyRmsProp Aggiorna '*var' in base all'algoritmo RMSProp.
ResourceSparseApplyRmsProp.Options Attributi facoltativi per ResourceSparseApplyRmsProp
Ristabilire Ripristina i tensori da un checkpoint V2.
RestoreSlice <T estende TType > Ripristina un tensore dai file checkpoint.
RestoreSlice.Options Attributi facoltativi per RestoreSlice
Salva Salva i tensori nel formato checkpoint V2.
SalvaSlice Salva le sezioni dei tensori di input su disco.
SdcaFprint Calcola le impronte digitali delle stringhe di input.
SdcaOptimizer Versione distribuita dell'ottimizzatore Stochastic Dual Coordinate Ascent (SDCA) per

modelli lineari con regolarizzazione L1 + L2.

SdcaOptimizer.Options Attributi facoltativi per SdcaOptimizer
SdcaShrinkL1 Applica la fase di riduzione della regolarizzazione L1 ai parametri.
SparseApplyAdadelta <T estende TType > var: dovrebbe provenire da una variabile().
SparseApplyAdadelta.Options Attributi facoltativi per SparseApplyAdadelta
SparseApplyAdagrad <T estende TType > Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema adagrad.
SparseApplyAdagrad.Options Attributi facoltativi per SparseApplyAdagrad
SparseApplyAdagradDa <T estende TType > Aggiorna le voci in '*var' e '*accum' secondo lo schema adagrad prossimale.
SparseApplyAdagradDa.Options Attributi facoltativi per SparseApplyAdagradDa
SparseApplyCenteredRmsProp <T estende TType > Aggiorna '*var' in base all'algoritmo RMSProp centrato.
SparseApplyCenteredRmsProp.Options Attributi facoltativi per SparseApplyCenteredRmsProp
SparseApplyFtrl <T estende TType > Aggiorna le voci rilevanti in '*var' secondo lo schema Ftrl-prossimale.
SparseApplyFtrl.Options Attributi facoltativi per SparseApplyFtrl
SparseApplyMomentum <T estende TType > Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema del momentum.
SparseApplyMomentum.Options Attributi facoltativi per SparseApplyMomentum
SparseApplyProximalAdagrad <T estende TType > Voci di aggiornamento sparse in '*var' e '*accum' secondo l'algoritmo FOBOS.
SparseApplyProximalAdagrad.Options Attributi facoltativi per SparseApplyProximalAdagrad
SparseApplyProximalGradientDescent <T estende TType > Aggiornamento sparse '*var' come algoritmo FOBOS con velocità di apprendimento fissa.
SparseApplyProximalGradientDescent.Options Attributi facoltativi per SparseApplyProximalGradientDescent
SparseApplyRmsProp <T estende TType > Aggiorna '*var' in base all'algoritmo RMSProp.
SparseApplyRmsProp.Options Attributi facoltativi per SparseApplyRmsProp
TileGrad <T estende TType > Restituisce il gradiente di "Tile".