Obrigado por sintonizar o Google I/O. Veja todas as sessões sob demanda Assista sob demanda

InterpreterApi

interface pública InterpreterApi
Subclasses indiretas conhecidas

Interface para o interpretador de modelos do TensorFlow Lite, excluindo métodos experimentais.

Uma instância InterpreterApi encapsula um modelo pré-treinado do TensorFlow Lite, no qual as operações são executadas para inferência de modelo.

Por exemplo, se um modelo recebe apenas uma entrada e retorna apenas uma saída:

 try (InterpreterApi interpreter =
     new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
   interpreter.run(input, output);
 }

Se um modelo recebe várias entradas ou saídas:

 Object[] inputs = {input0, input1, ...};
 Map<Integer, Object> map_of_indices_to_outputs = new HashMap<>();
 FloatBuffer ith_output = FloatBuffer.allocateDirect(3 * 2 * 4);  // Float tensor, shape 3x2x4.
 ith_output.order(ByteOrder.nativeOrder());
 map_of_indices_to_outputs.put(i, ith_output);
 try (InterpreterApi interpreter =
     new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
   interpreter.runForMultipleInputsOutputs(inputs, map_of_indices_to_outputs);
 }

Se um modelo usa ou produz tensores de string:

 String[] input = {"foo", "bar"};  // Input tensor shape is [2].
 String[] output = new String[3][2];  // Output tensor shape is [3, 2].
 try (InterpreterApi interpreter =
     new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
   interpreter.runForMultipleInputsOutputs(input, output);
 }

As ordens de entradas e saídas são determinadas ao converter o modelo TensorFlow para o modelo TensorFlowLite com Toco, assim como as formas padrão das entradas.

Quando as entradas são fornecidas como matrizes (multidimensionais), os tensores de entrada correspondentes serão redimensionados implicitamente de acordo com a forma dessa matriz. Quando as entradas são fornecidas como tipos de Buffer , nenhum redimensionamento implícito é feito; o chamador deve garantir que o tamanho do byte do Buffer corresponda ao do tensor correspondente ou que primeiro redimensione o tensor via resizeInput(int, int[]) . As informações de forma e tipo de tensor podem ser obtidas por meio da classe Tensor , disponível via getInputTensor(int) e getOutputTensor(int) .

AVISO: as instâncias InterpreterApi não são thread-safe.

AVISO: uma instância InterpreterApi possui recursos que devem ser liberados explicitamente invocando close()

A biblioteca TFLite foi criada com base na API 19 do NDK. Ela pode funcionar para níveis de API do Android abaixo de 19, mas não é garantido.

Classes aninhadas

aula InterpreterApi.Options Uma classe de opções para controlar o comportamento do interpretador de tempo de execução.

Métodos públicos

vazio abstrato
alocar Tensores ()
Atualiza explicitamente as alocações para todos os tensores, se necessário.
vazio abstrato
fechar ()
Liberar recursos associados à instância InterpreterApi .
static InterpreterApi
create ( Opções de arquivo modelFile, InterpreterApi.Options )
Constrói uma instância InterpreterApi , usando o modelo e as opções especificados.
static InterpreterApi
criar (opções ByteBuffer byteBuffer, InterpreterApi.Options )
Constrói uma instância InterpreterApi , usando o modelo e as opções especificados.
resumo int
getInputIndex ( String opName)
Obtém o índice de uma entrada dado o nome operacional da entrada.
tensor abstrato
getInputTensor (int inputIndex)
Obtém o tensor associado ao índice de entrada fornecido.
resumo int
getInputTensorCount ()
Obtém o número de tensores de entrada.
resumo longo
getLastNativeInferenceDurationNanoseconds ()
Retorna o tempo de inferência nativa.
resumo int
getOutputIndex ( String opName)
Obtém o índice de uma saída dado o nome operacional da saída.
tensor abstrato
getOutputTensor (int outputIndex)
Obtém o tensor associado ao índice de saída fornecido.
resumo int
getOutputTensorCount ()
Obtém o número de tensores de saída.
vazio abstrato
resizeInput (int idx, int[] dims, boolean strict)
Redimensiona a entrada idx-th do modelo nativo para os dims fornecidos.
vazio abstrato
resizeInput (int idx, int[] dims)
Redimensiona a entrada idx-th do modelo nativo para os dims fornecidos.
vazio abstrato
run (entrada do objeto , saída do objeto )
Executa a inferência do modelo se o modelo receber apenas uma entrada e fornecer apenas uma saída.
vazio abstrato
runForMultipleInputsOutputs ( entradas Object[] , Map < Integer , Object > saídas)
Executa a inferência do modelo se o modelo receber várias entradas ou retornar várias saídas.

Métodos Herdados

Métodos públicos

public abstract void alocar Tensores ()

Atualiza explicitamente as alocações para todos os tensores, se necessário.

Isso propagará formas e alocações de memória para tensores dependentes usando a(s) forma(s) do tensor de entrada conforme fornecido.

Nota: Esta chamada é *puramente opcional*. A alocação de tensor ocorrerá automaticamente durante a execução se algum tensor de entrada tiver sido redimensionado. Essa chamada é mais útil para determinar as formas de qualquer tensor de saída antes de executar o gráfico, por exemplo,

 interpreter.resizeInput(0, new int[]{1, 4, 4, 3}));
 interpreter.allocateTensors();
 FloatBuffer input = FloatBuffer.allocate(interpreter.getInputTensor(0).numElements());
 // Populate inputs...
 FloatBuffer output = FloatBuffer.allocate(interpreter.getOutputTensor(0).numElements());
 interpreter.run(input, output)
 // Process outputs...

Nota: Alguns gráficos têm saídas com formato dinâmico, caso em que a forma de saída pode não se propagar totalmente até que a inferência seja executada.

Lança
IllegalStateException se os tensores do gráfico não puderam ser alocados com sucesso.

resumo público void fechar ()

Liberar recursos associados à instância InterpreterApi .

public static InterpreterApi create ( Opções de arquivo modelFile, InterpreterApi.Options )

Constrói uma instância InterpreterApi , usando o modelo e as opções especificados. O modelo será carregado a partir de um arquivo.

Parâmetros
modelFile Um arquivo contendo um modelo pré-treinado do TF Lite.
opções Um conjunto de opções para personalizar o comportamento do intérprete.
Lança
Exceção de argumento ilegal se modelFile não codificar um modelo válido do TensorFlow Lite.

public static InterpreterApi create (Opções ByteBuffer byteBuffer, InterpreterApi.Options )

Constrói uma instância InterpreterApi , usando o modelo e as opções especificados. O modelo será lido de um ByteBuffer .

Parâmetros
byteBuffer Um modelo TF Lite pré-treinado, em formato serializado binário. O ByteBuffer não deve ser modificado após a construção de uma instância InterpreterApi . O ByteBuffer pode ser um MappedByteBuffer que mapeia um arquivo de modelo na memória ou um ByteBuffer direto de nativeOrder() que contém o conteúdo de bytes de um modelo.
opções Um conjunto de opções para personalizar o comportamento do intérprete.
Lança
Exceção de argumento ilegal se byteBuffer não for um MappedByteBuffer nem um ByteBuffer direto de nativeOrder.

public abstract int getInputIndex ( String opName)

Obtém o índice de uma entrada dado o nome operacional da entrada.

Parâmetros
opName
Lança
Exceção de argumento ilegal se opName não corresponder a nenhuma entrada no modelo usado para inicializar o interpretador.

public abstract Tensor getInputTensor (int inputIndex)

Obtém o tensor associado ao índice de entrada fornecido.

Parâmetros
índice de entrada
Lança
Exceção de argumento ilegal se inputIndex for negativo ou não for menor que o número de entradas do modelo.

public abstract int getInputTensorCount ()

Obtém o número de tensores de entrada.

public abstract Long getLastNativeInferenceDurationNanoseconds ()

Retorna o tempo de inferência nativa.

Lança
Exceção de argumento ilegal se o modelo não for inicializado pelo interpretador.

public abstract int getOutputIndex ( String opName)

Obtém o índice de uma saída dado o nome operacional da saída.

Parâmetros
opName
Lança
Exceção de argumento ilegal se opName não corresponder a nenhuma saída no modelo usado para inicializar o interpretador.

public abstract Tensor getOutputTensor (int outputIndex)

Obtém o tensor associado ao índice de saída fornecido.

Nota: Os detalhes do tensor de saída (por exemplo, forma) podem não ser totalmente preenchidos até que a inferência seja executada. Se você precisar de detalhes atualizados *antes* de executar a inferência (por exemplo, após redimensionar um tensor de entrada, o que pode invalidar as formas do tensor de saída), use allocateTensors() para acionar explicitamente a alocação e a propagação da forma. Observe que, para gráficos com formas de saída dependentes de *valores* de entrada, a forma de saída pode não ser totalmente determinada até a execução da inferência.

Parâmetros
índice de saída
Lança
Exceção de argumento ilegal se outputIndex for negativo ou não for menor que o número de saídas do modelo.

public abstract int getOutputTensorCount ()

Obtém o número de tensores de saída.

public abstract void resizeInput (int idx, int[] dims, boolean strict)

Redimensiona a entrada idx-th do modelo nativo para os dims fornecidos.

Quando `strict` for True, somente dimensões desconhecidas podem ser redimensionadas. Dimensões desconhecidas são indicadas como `-1` no array retornado por `Tensor.shapeSignature()`.

Parâmetros
idx
escurece
estrito
Lança
Exceção de argumento ilegal se idx for negativo ou não for menor que o número de entradas do modelo; ou se ocorrer erro ao redimensionar a entrada idx-th. Além disso, o erro ocorre ao tentar redimensionar um tensor com dimensões fixas quando `strict` for True.

public abstract void resizeInput (int idx, int[] dims)

Redimensiona a entrada idx-th do modelo nativo para os dims fornecidos.

Parâmetros
idx
escurece
Lança
Exceção de argumento ilegal se idx for negativo ou não for menor que o número de entradas do modelo; ou se ocorrer erro ao redimensionar a entrada idx-th.

execução void abstrata pública (entrada de objeto , saída de objeto )

Executa a inferência do modelo se o modelo receber apenas uma entrada e fornecer apenas uma saída.

Aviso: A API é mais eficiente se um Buffer (de preferência direto, mas não obrigatório) for usado como tipo de dados de entrada/saída. Considere usar o Buffer para alimentar e buscar dados primitivos para um melhor desempenho. Os seguintes tipos de Buffer de concreto são suportados:

  • ByteBuffer - compatível com qualquer tipo de tensor primitivo subjacente.
  • FloatBuffer - compatível com tensores flutuantes.
  • IntBuffer - compatível com tensores int32.
  • LongBuffer - compatível com tensores int64.
Observe que os tipos booleanos são suportados apenas como arrays, não como Buffer s ou como entradas escalares.

Parâmetros
entrada um array ou array multidimensional, ou um Buffer de tipos primitivos incluindo int, float, long e byte. Buffer é a maneira preferida de passar dados de entrada grandes para tipos primitivos, enquanto os tipos de string requerem o uso do caminho de entrada de array (multidimensional). Quando um Buffer é usado, seu conteúdo deve permanecer inalterado até que a inferência do modelo seja feita, e o chamador deve garantir que o Buffer esteja na posição de leitura apropriada. Um valor null é permitido somente se o chamador estiver usando um Delegate que permite a interoperabilidade do identificador de buffer e esse buffer tiver sido associado ao Tensor de entrada.
saída um array multidimensional de dados de saída, ou um Buffer de tipos primitivos incluindo int, float, long e byte. Quando um Buffer é usado, o chamador deve garantir que ele esteja configurado na posição de gravação apropriada. Um valor nulo é permitido e é útil para certos casos, por exemplo, se o chamador estiver usando um Delegate que permite a interoperabilidade de manipulação de buffer, e esse buffer foi vinculado ao Tensor de saída (consulte também Interpreter.Options#setAllowBufferHandleOutput(boolean) ), ou se o gráfico tiver saídas de forma dinâmica e o chamador precisar consultar a forma do Tensor de saída após a inferência ser invocada, buscando os dados diretamente do tensor de saída (via Tensor.asReadOnlyBuffer() ).
Lança
Exceção de argumento ilegal se input for nula ou vazia, ou se ocorrer um erro ao executar a inferência.
Exceção de argumento ilegal (EXPERIMENTAL, sujeito a alterações) se a inferência for interrompida por setCancelled(true) .

public abstract void runForMultipleInputsOutputs ( entradas Object[] , Map < Integer , Object > saídas)

Executa a inferência do modelo se o modelo receber várias entradas ou retornar várias saídas.

Aviso: A API é mais eficiente se Buffer s (de preferência direto, mas não obrigatório) for usado como os tipos de dados de entrada/saída. Considere usar o Buffer para alimentar e buscar dados primitivos para um melhor desempenho. Os seguintes tipos de Buffer de concreto são suportados:

  • ByteBuffer - compatível com qualquer tipo de tensor primitivo subjacente.
  • FloatBuffer - compatível com tensores flutuantes.
  • IntBuffer - compatível com tensores int32.
  • LongBuffer - compatível com tensores int64.
Observe que os tipos booleanos são suportados apenas como arrays, não como Buffer s ou como entradas escalares.

Nota: valores null para elementos individuais de inputs e outputs são permitidos somente se o chamador estiver usando um Delegate que permite a interoperabilidade de manipulação de buffer e esse buffer foi vinculado ao(s) Tensor (es) de entrada ou saída correspondente.

Parâmetros
entradas uma matriz de dados de entrada. As entradas devem estar na mesma ordem que as entradas do modelo. Cada entrada pode ser um array ou array multidimensional, ou um Buffer de tipos primitivos incluindo int, float, long e byte. O Buffer é a maneira preferida de passar dados de entrada grandes, enquanto os tipos de string exigem o uso do caminho de entrada do array (multidimensional). Quando o Buffer é usado, seu conteúdo deve permanecer inalterado até que a inferência do modelo seja feita, e o chamador deve garantir que o Buffer esteja na posição de leitura apropriada.
saídas um mapa mapeando índices de saída para matrizes multidimensionais de dados de saída ou Buffer s de tipos primitivos, incluindo int, float, long e byte. Ele só precisa manter as entradas para as saídas a serem usadas. Quando um Buffer é usado, o chamador deve garantir que ele esteja configurado na posição de gravação apropriada. O mapa pode estar vazio para casos em que os identificadores de buffer são usados ​​para dados do tensor de saída ou casos em que as saídas são moldadas dinamicamente e o chamador deve consultar a forma do Tensor de saída após a inferência ter sido invocada, buscando os dados diretamente do tensor de saída ( via Tensor.asReadOnlyBuffer() ).
Lança
Exceção de argumento ilegal se as inputs forem nulas ou vazias, se as outputs forem nulas ou se ocorrer um erro ao executar a inferência.