Model

Modèle de classe publique

La classe wrapper pour un modèle TFLite et un interpréteur TFLite.

Remarque : Un Model ne peut contenir qu'un seul modèle TFLite à la fois et contient toujours une instance d'interpréteur TFLite pour l'exécuter.

Classes imbriquées

classe Modèle.Builder Cette classe est obsolète. Veuillez utiliser Model.createModel(Context, String, Options) .
énumération Modèle.Appareil Type de périphérique d'exécution utilisé pour exécuter la classification.
classe Modèle.Options Options d'exécution du modèle.

Méthodes publiques

vide
fermer ()
Modèle statique
createModel (contexte de contexte, String modelPath, options Model.Options )
Charge un modèle à partir des actifs et initialise l'interpréteur TFLite avec les options données.
Modèle statique
createModel (contexte contextuel, String modelPath)
Charge un modèle à partir des actifs et initialise l'interpréteur TFLite.
MappedByteBuffer
obtenir des données ()
Renvoie les données du modèle mappées en mémoire.
Tenseur
getInputTensor (int inputIndex)
Obtient le Tensor associé à l'index d'entrée fourni.
Tenseur
getOutputTensor (int outputIndex)
Obtient le Tensor associé à l'index de sortie fourni.
int[]
getOutputTensorShape (int outputIndex)
Renvoie la forme de sortie.
Chaîne
getPath ()
Renvoie le chemin du fichier modèle stocké dans Assets.
vide
run ( entrées Object[] , Map < Integer , Object > sorties)
Exécute l'inférence de modèle sur plusieurs entrées et renvoie plusieurs sorties.

Méthodes héritées

Méthodes publiques

public vide fermer ()

Modèle statique public createModel (contexte de contexte, String modelPath, options Model.Options )

Charge un modèle à partir des actifs et initialise l'interpréteur TFLite avec les options données.

Paramètres
contexte Le contexte de l'application.
modèleChemin Le chemin du fichier modèle.
choix Les options d'exécution du modèle.
Jetés
IOException si une exception se produit lors de l’ouverture du fichier modèle.
Voir également

Modèle statique public createModel (contexte contextuel, String modelPath)

Charge un modèle à partir des actifs et initialise l'interpréteur TFLite.

Les options par défaut sont : (1) périphérique CPU ; (2) un fil.

Paramètres
contexte Le contexte de l'application.
modèleChemin Le chemin du fichier modèle.
Jetés
IOException si une exception se produit lors de l’ouverture du fichier modèle.

public MappedByteBuffer getData ()

Renvoie les données du modèle mappées en mémoire.

Tensor public getInputTensor (int inputIndex)

Obtient le Tensor associé à l'index d'entrée fourni.

Paramètres
Indice d'entrée
Jetés
IllegalStateException si l'interprète est fermé.

Tensor public getOutputTensor (int outputIndex)

Obtient le Tensor associé à l'index de sortie fourni.

Paramètres
Indice de sortie
Jetés
IllegalStateException si l'interprète est fermé.

public int[] getOutputTensorShape (int outputIndex)

Renvoie la forme de sortie. Utile si la forme de sortie est déterminée uniquement lors de la création du graphique.

Paramètres
Indice de sortie
Jetés
IllegalStateException si l'interprète est fermé.

chaîne publique getPath ()

Renvoie le chemin du fichier modèle stocké dans Assets.

public void run (entrées Object[] , Map < Integer , Object > sorties)

Exécute l'inférence de modèle sur plusieurs entrées et renvoie plusieurs sorties.

Paramètres
contributions un tableau de données d’entrée. Les entrées doivent être dans le même ordre que les entrées du modèle. Chaque entrée peut être un tableau ou un tableau multidimensionnel, ou un ByteBuffer de types primitifs, notamment int, float, long et byte. ByteBuffer est le moyen préféré pour transmettre des données d'entrée volumineuses, alors que les types de chaîne nécessitent l'utilisation du chemin d'entrée du tableau (multidimensionnel). Lorsque ByteBuffer est utilisé, son contenu doit rester inchangé jusqu'à ce que l'inférence du modèle soit effectuée.
les sorties une carte mappant les indices de sortie à des tableaux multidimensionnels de données de sortie ou à des ByteBuffer de types primitifs, notamment int, float, long et byte. Il lui suffit de conserver les entrées pour les sorties à utiliser.