Se usó la API de Cloud Translation para traducir esta página.
Switch to English

tf.nondifferentiable_batch_function

TensorFlow 1 versión Ver código fuente en GitHub

Lotes cálculo hecho por la función decorada.

Así, por ejemplo, en el código siguiente

 @batch_function(1, 2, 3)
def layer(a):
  return tf.matmul(a, a)

b = layer(w)
 

si más de una llamada session.run está tratando simultáneamente para calcular b los valores de w es recopilada, concatenado no determinista a lo largo del primer eje, y sólo un hilo se ejecutará el cálculo. Consulte la documentación del Batch op para más detalles.

Asume que todos los argumentos de la función son decoradas tensores, que serán agrupadas a lo largo de su primera dimensión.

SparseTensor no es compatible. El valor de retorno de la función decorado debe ser un tensor o una lista / tupla de los tensores.

num_batch_threads Número de hilos de programación para el procesamiento de lotes de trabajo. Determina el número de lotes procesados ​​en paralelo.
max_batch_size Los tamaños de lote nunca será más grande que esto.
batch_timeout_micros número máximo de microsegundos a esperar antes de dar salida a un lote incompleto.
allowed_batch_sizes lista opcional de tamaño de los lotes permitidos. Si se deja vacío, no hace nada. De lo contrario, proporciona una lista de los tamaños de lote, haciendo que el op a los lotes almohadilla hasta uno de esos tamaños. Las entradas deben incrementar de forma monótona, y la entrada final debe ser igual a max_batch_size.
max_enqueued_batches La profundidad máxima de la cola de lote. El valor predeterminado es 10.
autograph Si desea utilizar autógrafo a pitón de compilación y el código de estilo ansiosos para su ejecución en modo gráfico eficiente.

La función decorada devolverá los tensores de salida de cómputo unbatched.