Ajuda a proteger a Grande Barreira de Corais com TensorFlow em Kaggle Junte Desafio

Interpreter.Options

Interpreter.Options classe estática pública

Uma classe de opções para controlar o comportamento do interpretador de tempo de execução.

Construtores Públicos

Métodos Públicos

Interpreter.Options
AddDelegate ( delegado delegado)
Adiciona um Delegate a ser aplicado durante a criação do intérprete.
Interpreter.Options
setAllowBufferHandleOutput (booleano permitir)
Avançado: Defina se a saída do identificador de buffer é permitida.
Interpreter.Options
setAllowFp16PrecisionForFp32 (booleano permitir)
Este método foi descontinuado no nível da API. Preferem usar NnApiDelegate.Options # setAllowFp16 (boolean permitir) .
Interpreter.Options
setCancellable (booleano permitir)
Avançado: Defina se o intérprete pode ser cancelado.
Interpreter.Options
setNumThreads (int) numThreads
Define o número de threads a serem usados ​​para operações que suportam multi-threading.
Interpreter.Options
setUseNNAPI (booleano useNNAPI)
Define se deve usar NN API (se disponível) para execução de operações.
Interpreter.Options
setUseXNNPACK (booleano useXNNPACK)
Experimental: Habilite um conjunto otimizado de kernels de CPU de ponto flutuante (fornecido pelo XNNPACK).

Métodos herdados

Construtores Públicos

pública Options ()

Opções públicos ( InterpreterApi.Options opções)

Parâmetros
opções

Métodos Públicos

pública Interpreter.Options AddDelegate ( Delegado delegado)

Adiciona um Delegate a ser aplicado durante a criação do intérprete.

Parâmetros
delegar

pública Interpreter.Options setAllowBufferHandleOutput (boolean permitir)

Avançado: Defina se a saída do identificador de buffer é permitida.

Quando um Delegate suporta aceleração de hardware, o intérprete fará com que os dados de tensores de saída disponível nos buffers tensor alocados CPU por padrão. Se o cliente puder consumir o manipulador do buffer diretamente (por exemplo, lendo a saída da textura OpenGL), ele pode definir esse sinalizador como falso, evitando a cópia dos dados para o buffer da CPU. A documentação do delegado deve indicar se isso é compatível e como pode ser usado.

AVISO: esta é uma interface experimental que está sujeita a alterações.

Parâmetros
permitir

pública Interpreter.Options setAllowFp16PrecisionForFp32 (boolean permitir)

Este método foi preterido no nível API.
Preferem usar NnApiDelegate.Options # setAllowFp16 (boolean permitir) .

Define se permite a precisão float16 para cálculo FP32 quando possível. O padrão é falso (não permitir).

Parâmetros
permitir

pública Interpreter.Options setCancellable (boolean permitir)

Avançado: Defina se o intérprete pode ser cancelado.

Parâmetros
permitir

públicas Interpreter.Options setNumThreads (numThreads int)

Define o número de threads a serem usados ​​para ops que suportam multi-threading.

numThreads deve ser >= -1 . Definindo numThreads a 0 tem o efeito de multissegmentação incapacitante, que é equivalente à configuração numThreads a 1. Se não for especificado, ou conjunto para o valor -1, o número de fios utilizados será definido pela implementação e dependente da plataforma.

Parâmetros
numThreads

pública Interpreter.Options setUseNNAPI (boolean useNNAPI)

Define se deve usar NN API (se disponível) para execução de operações. O padrão é falso (desabilitado).

Parâmetros
usar NNAPI

pública Interpreter.Options setUseXNNPACK (boolean useXNNPACK)

Experimental: Habilite um conjunto otimizado de kernels de CPU de ponto flutuante (fornecido pelo XNNPACK).

Habilitar este sinalizador permitirá o uso de um novo conjunto altamente otimizado de kernels de CPU fornecidos por meio do delegado XNNPACK. Atualmente, isso está restrito a um subconjunto de operações de ponto flutuante. Eventualmente, planejamos habilitar isso por padrão, pois pode fornecer benefícios de desempenho significativos para muitas classes de modelos de ponto flutuante. Veja https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/delegates/xnnpack/README.md para mais detalhes.

Coisas a ter em mente ao ativar este sinalizador:

  • O tempo de inicialização e o tempo de redimensionamento podem aumentar.
  • O consumo de memória da linha de base pode aumentar.
  • Pode ser ignorado se outro delegado (por exemplo, NNAPI) tiver sido aplicado.
  • Os modelos quantizados não verão nenhum benefício.

AVISO: esta é uma interface experimental que está sujeita a alterações.

Parâmetros
useXNNPACK