Model

Modello di classe pubblica

La classe wrapper per un modello TFLite e un interprete TFLite.

Nota: un Model può contenere solo 1 modello TFLite alla volta e contiene sempre un'istanza dell'interprete TFLite per eseguirlo.

Classi nidificate

classe Model.Builder Questa classe è deprecata. Si prega di utilizzare Model.createModel(Context, String, Options) .
enum Modello.Dispositivo Il tipo di dispositivo runtime utilizzato per eseguire la classificazione.
classe Opzioni.modello Opzioni per l'esecuzione del modello.

Metodi pubblici

vuoto
vicino ()
Modello statico
createModel (contesto contesto, stringa modelPath, opzioni Model.Options )
Carica un modello dalle risorse e inizializza l'interprete TFLite con le opzioni specificate.
Modello statico
createModel (Contesto contesto, String modelPath)
Carica un modello dalle risorse e inizializza l'interprete TFLite.
MappedByteBuffer
getData ()
Restituisce i dati del modello mappato in memoria.
Tensore
getInputTensor (int inputIndex)
Ottiene il tensore associato all'indice di input fornito.
Tensore
getOutputTensor (int outputIndex)
Ottiene il tensore associato all'indice di output fornito.
int[]
getOutputTensorShape (int outputIndex)
Restituisce la forma dell'output.
Corda
getPath ()
Restituisce il percorso del file del modello archiviato in Assets.
vuoto
run ( input Object[] , output Map < Integer , Object >)
Esegue l'inferenza del modello su più input e restituisce più output.

Metodi ereditati

Metodi pubblici

pubblico vuoto chiudi ()

Modello statico pubblico createModel (contesto di contesto, stringa modelPath, opzioni Model.Options )

Carica un modello dalle risorse e inizializza l'interprete TFLite con le opzioni specificate.

Parametri
contesto Il contesto dell'app.
modelPath Il percorso del file del modello.
opzioni Le opzioni per l'esecuzione del modello.
Lancia
IOException se si verifica un'eccezione quando si apre il file del modello.
Guarda anche

Modello statico pubblico createModel (contesto di contesto, stringa modelPath)

Carica un modello dalle risorse e inizializza l'interprete TFLite.

Le opzioni predefinite sono: (1) dispositivo CPU; (2) un filo.

Parametri
contesto Il contesto dell'app.
modelPath Il percorso del file del modello.
Lancia
IOException se si verifica un'eccezione quando si apre il file del modello.

pubblico MappedByteBuffer getData ()

Restituisce i dati del modello mappato in memoria.

Tensore pubblico getInputTensor (int inputIndex)

Ottiene il tensore associato all'indice di input fornito.

Parametri
inputIndex
Lancia
IllegalStateException se l'interprete è chiuso.

Tensore pubblico getOutputTensor (int outputIndex)

Ottiene il tensore associato all'indice di output fornito.

Parametri
outputIndice
Lancia
IllegalStateException se l'interprete è chiuso.

public int[] getOutputTensorShape (int outputIndex)

Restituisce la forma dell'output. Utile se la forma dell'output viene determinata solo al momento della creazione del grafico.

Parametri
outputIndice
Lancia
IllegalStateException se l'interprete è chiuso.

stringa pubblica getPath ()

Restituisce il percorso del file del modello archiviato in Assets.

public void run ( input Object[] , Map < Integer , Object > output)

Esegue l'inferenza del modello su più input e restituisce più output.

Parametri
input una matrice di dati di input. Gli input dovrebbero essere nello stesso ordine degli input del modello. Ogni input può essere un array o un array multidimensionale oppure un ByteBuffer di tipi primitivi tra cui int, float, long e byte. ByteBuffer è il modo preferito per passare dati di input di grandi dimensioni, mentre i tipi di stringa richiedono l'utilizzo del percorso di input dell'array (multidimensionale). Quando viene utilizzato ByteBuffer , il suo contenuto dovrebbe rimanere invariato finché non viene eseguita l'inferenza del modello.
uscite una mappa che mappa gli indici di output su array multidimensionali di dati di output o ByteBuffer di tipi primitivi tra cui int, float, long e byte. È sufficiente conservare le voci relative agli output da utilizzare.