Sous-classes indirectes connues |
Interface avec l'interpréteur de modèles TensorFlow Lite, à l'exclusion des méthodes expérimentales.
Une instance InterpreterApi
encapsule un modèle TensorFlow Lite pré-entraîné, dans lequel des opérations sont exécutées pour l'inférence de modèle.
Par exemple, si un modèle ne prend qu'une seule entrée et ne renvoie qu'une seule sortie :
try (InterpreterApi interpreter =
new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
interpreter.run(input, output);
}
Si un modèle prend plusieurs entrées ou sorties :
Object[] inputs = {input0, input1, ...};
Map<Integer, Object> map_of_indices_to_outputs = new HashMap<>();
FloatBuffer ith_output = FloatBuffer.allocateDirect(3 * 2 * 4); // Float tensor, shape 3x2x4.
ith_output.order(ByteOrder.nativeOrder());
map_of_indices_to_outputs.put(i, ith_output);
try (InterpreterApi interpreter =
new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
interpreter.runForMultipleInputsOutputs(inputs, map_of_indices_to_outputs);
}
Si un modèle prend ou produit des tenseurs de corde :
String[] input = {"foo", "bar"}; // Input tensor shape is [2].
String[][] output = new String[3][2]; // Output tensor shape is [3, 2].
try (InterpreterApi interpreter =
new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
interpreter.runForMultipleInputsOutputs(input, output);
}
Notez qu'il existe une distinction entre shape [] et shape[1]. Pour les sorties de tenseur de chaîne scalaire :
String[] input = {"foo"}; // Input tensor shape is [1].
ByteBuffer outputBuffer = ByteBuffer.allocate(OUTPUT_BYTES_SIZE); // Output tensor shape is [].
try (Interpreter interpreter = new Interpreter(file_of_a_tensorflowlite_model)) {
interpreter.runForMultipleInputsOutputs(input, outputBuffer);
}
byte[] outputBytes = new byte[outputBuffer.remaining()];
outputBuffer.get(outputBytes);
// Below, the `charset` can be StandardCharsets.UTF_8.
String output = new String(outputBytes, charset);
Les ordres d'entrées et de sorties sont déterminés lors de la conversion du modèle TensorFlow en modèle TensorFlowLite avec Toco, tout comme les formes par défaut des entrées.
Lorsque les entrées sont fournies sous forme de tableaux (multidimensionnels), le ou les tenseurs d'entrée correspondants seront implicitement redimensionnés en fonction de la forme de ce tableau. Lorsque les entrées sont fournies en tant que types Buffer
, aucun redimensionnement implicite n'est effectué ; l'appelant doit s'assurer que la taille en octets Buffer
correspond à celle du tenseur correspondant ou qu'il redimensionne d'abord le tenseur via resizeInput(int, int[])
. Les informations sur la forme et le type du tenseur peuvent être obtenues via la classe Tensor
, disponible via getInputTensor(int)
et getOutputTensor(int)
.
AVERTISSEMENT : les instances InterpreterApi
ne sont pas thread-safe.
AVERTISSEMENT : une instance InterpreterApi
possède des ressources qui doivent être explicitement libérées en appelant close()
La bibliothèque TFLite est construite avec l'API NDK 19. Elle peut fonctionner pour les niveaux d'API Android inférieurs à 19, mais n'est pas garantie.
Classes imbriquées
classe | InterpreterApi.OptionsInterpreterApi.Options | Une classe d'options pour contrôler le comportement de l'interpréteur d'exécution. |
Méthodes publiques
vide abstrait | allouerTensors () Met à jour explicitement les allocations pour tous les Tensors, si nécessaire. |
vide abstrait | fermer () Libérez les ressources associées à l'instance InterpreterApi . |
statique InterpreterApi | créer ( fichier modèleFichier, options InterpreterApi.Options ) Construit une instance InterpreterApi , en utilisant le modèle et les options spécifiés. |
statique InterpreterApi | créer (options ByteBuffer byteBuffer, InterpreterApi.Options ) Construit une instance InterpreterApi , en utilisant le modèle et les options spécifiés. |
entier abstrait | getInputIndex ( String opName) Obtient l'index d'une entrée en fonction du nom d'opération de l'entrée. |
Tenseur abstrait | getInputTensor (int inputIndex) Obtient le Tensor associé à l'index d'entrée fourni. |
entier abstrait | getInputTensorCount () Obtient le nombre de Tensors d'entrée. |
abstrait Longue | getLastNativeInferenceDurationNanosecondes () Renvoie la synchronisation d'inférence native. |
entier abstrait | getOutputIndex ( String opName) Obtient l'index d'une sortie en fonction du nom d'opération de la sortie. |
Tenseur abstrait | getOutputTensor (int index de sortie) Obtient le Tensor associé à l'index de sortie fourni. |
entier abstrait | getOutputTensorCount () Obtient le nombre de Tensors de sortie. |
vide abstrait | resizeInput (int idx, int[] dims, boolean strict) Redimensionne la idx-ième entrée du modèle natif aux dimensions données. |
vide abstrait | resizeInput (int idx, int[] dims) Redimensionne la idx-ième entrée du modèle natif aux dimensions données. |
vide abstrait | |
vide abstrait | runForMultipleInputsOutputs ( entrées Object[] , Map < Integer , Object > sorties) Exécute l'inférence de modèle si le modèle prend plusieurs entrées ou renvoie plusieurs sorties. |
Méthodes héritées
Méthodes publiques
public abstract void allowTensors ()
Met à jour explicitement les allocations pour tous les Tensors, si nécessaire.
Cela propagera les formes et les allocations de mémoire pour les tenseurs dépendants en utilisant la ou les formes de tenseur d'entrée comme indiqué.
Remarque : Cet appel est *purement facultatif*. L'allocation de tenseurs se produira automatiquement pendant l'exécution si des tenseurs d'entrée ont été redimensionnés. Cet appel est très utile pour déterminer les formes de tous les tenseurs de sortie avant d'exécuter le graphique, par exemple,
interpreter.resizeInput(0, new int[]{1, 4, 4, 3}));
interpreter.allocateTensors();
FloatBuffer input = FloatBuffer.allocate(interpreter.getInputTensor(0).numElements());
// Populate inputs...
FloatBuffer output = FloatBuffer.allocate(interpreter.getOutputTensor(0).numElements());
interpreter.run(input, output)
// Process outputs...
Remarque : Certains graphiques ont des sorties de forme dynamique, auquel cas la forme de sortie peut ne pas se propager complètement tant que l'inférence n'est pas exécutée.
Lance
IllegalStateException | si les tenseurs du graphe n'ont pas pu être alloués avec succès. |
---|
résumé public vide fermer ()
Libérez les ressources associées à l'instance InterpreterApi
.
public static InterpreterApi create ( File modelFile, InterpreterApi.Options options)
Construit une instance InterpreterApi
, en utilisant le modèle et les options spécifiés. Le modèle sera chargé à partir d'un fichier.
Paramètres
modèleFichier | Un fichier contenant un modèle TF Lite pré-formé. |
---|---|
options | Un ensemble d'options pour personnaliser le comportement de l'interpréteur. |
Lance
Exception d'argument illégal | si modelFile n'encode pas un modèle TensorFlow Lite valide. |
---|
public static InterpreterApi create ( ByteBuffer byteBuffer, options InterpreterApi.Options )
Construit une instance InterpreterApi
, en utilisant le modèle et les options spécifiés. Le modèle sera lu à partir d'un ByteBuffer
.
Paramètres
byteBuffer | Un modèle TF Lite pré-formé, sous forme sérialisée binaire. Le ByteBuffer ne doit pas être modifié après la construction d'une instance InterpreterApi . Le ByteBuffer peut être soit un MappedByteBuffer qui mappe en mémoire un fichier de modèle, soit un ByteBuffer direct de nativeOrder() qui contient le contenu en octets d'un modèle. |
---|---|
choix | Un ensemble d'options pour personnaliser le comportement de l'interpréteur. |
Lance
Exception d'argument illégal | si byteBuffer n'est pas un MappedByteBuffer ni un ByteBuffer direct de nativeOrder. |
---|
public abstract int getInputIndex ( String opName)
Obtient l'index d'une entrée en fonction du nom d'opération de l'entrée.
Paramètres
opName |
---|
Lance
Exception d'argument illégal | si opName ne correspond à aucune entrée du modèle utilisé pour initialiser l'interpréteur. |
---|
public abstract Tensor getInputTensor (int inputIndex)
Obtient le Tensor associé à l'index d'entrée fourni.
Paramètres
index d'entrée |
---|
Lance
Exception d'argument illégal | si inputIndex est négatif ou n'est pas inférieur au nombre d'entrées du modèle. |
---|
public abstract int getInputTensorCount ()
Obtient le nombre de Tensors d'entrée.
public abstract Long getLastNativeInferenceDurationNanoseconds ()
Renvoie la synchronisation d'inférence native.
Lance
Exception d'argument illégal | si le modèle n'est pas initialisé par l'interpréteur. |
---|
public abstract int getOutputIndex ( String opName)
Obtient l'index d'une sortie en fonction du nom d'opération de la sortie.
Paramètres
opName |
---|
Lance
Exception d'argument illégal | si opName ne correspond à aucune sortie du modèle utilisé pour initialiser l'interpréteur. |
---|
public abstract Tensor getOutputTensor (int outputIndex)
Obtient le Tensor associé à l'index de sortie fourni.
Remarque : Les détails du tenseur de sortie (par exemple, la forme) peuvent ne pas être entièrement renseignés avant l'exécution de l'inférence. Si vous avez besoin de détails mis à jour * avant * d'exécuter l'inférence (par exemple, après avoir redimensionné un tenseur d'entrée, ce qui peut invalider les formes de tenseur de sortie), utilisez allocateTensors()
pour déclencher explicitement l'allocation et la propagation de la forme. Notez que, pour les graphiques dont les formes de sortie dépendent des *valeurs* d'entrée, la forme de sortie peut ne pas être entièrement déterminée avant l'exécution de l'inférence.
Paramètres
index de sortie |
---|
Lance
Exception d'argument illégal | si outputIndex est négatif ou n'est pas inférieur au nombre de sorties du modèle. |
---|
public abstract int getOutputTensorCount ()
Obtient le nombre de Tensors de sortie.
public abstract void resizeInput (int idx, int[] dims, boolean strict)
Redimensionne la idx-ième entrée du modèle natif aux dimensions données.
Lorsque `strict` vaut True, seules les dimensions inconnues peuvent être redimensionnées. Les dimensions inconnues sont indiquées par `-1` dans le tableau renvoyé par `Tensor.shapeSignature()`.
Paramètres
idx | |
---|---|
assombrit | |
strict |
Lance
Exception d'argument illégal | si idx est négatif ou n'est pas inférieur au nombre d'entrées du modèle ; ou si une erreur se produit lors du redimensionnement de l'entrée idx-th. De plus, l'erreur se produit lors de la tentative de redimensionnement d'un tenseur avec des dimensions fixes lorsque `strict` est True. |
---|
public abstract void resizeInput (int idx, int[] dims)
Redimensionne la idx-ième entrée du modèle natif aux dimensions données.
Paramètres
idx | |
---|---|
assombrit |
Lance
Exception d'argument illégal | si idx est négatif ou n'est pas inférieur au nombre d'entrées du modèle ; ou si une erreur se produit lors du redimensionnement de l'entrée idx-th. |
---|
public abstract void run (entrée d'objet , sortie d'objet )
Exécute l'inférence de modèle si le modèle ne prend qu'une seule entrée et ne fournit qu'une seule sortie.
Avertissement : L'API est plus efficace si un Buffer
(de préférence direct, mais pas obligatoire) est utilisé comme type de données d'entrée/sortie. Veuillez envisager d'utiliser Buffer
pour alimenter et récupérer des données primitives pour de meilleures performances. Les types Buffer
concrets suivants sont pris en charge :
-
ByteBuffer
- compatible avec tout type Tensor primitif sous-jacent. -
FloatBuffer
- compatible avec les tenseurs flottants. -
IntBuffer
- compatible avec les tenseurs int32. -
LongBuffer
- compatible avec les tenseurs int64.
Buffer
s, ou en tant qu'entrées scalaires. Paramètres
saisir | un tableau ou un tableau multidimensionnel, ou un Buffer de types primitifs comprenant int, float, long et byte. Buffer est le moyen préféré pour transmettre des données d'entrée volumineuses pour les types primitifs, tandis que les types de chaîne nécessitent l'utilisation du chemin d'entrée du tableau (multidimensionnel). Lorsqu'un Buffer est utilisé, son contenu doit rester inchangé jusqu'à ce que l'inférence du modèle soit effectuée, et l'appelant doit s'assurer que le Buffer est à la position de lecture appropriée. Une valeur null autorisée que si l'appelant utilise un Delegate qui autorise l'interopérabilité du handle de tampon, et qu'un tel tampon a été lié à l'entrée Tensor . |
---|---|
sortir | un tableau multidimensionnel de données de sortie ou un Buffer de types primitifs, notamment int, float, long et byte. Lorsqu'un Buffer est utilisé, l'appelant doit s'assurer qu'il est défini sur la position d'écriture appropriée. Une valeur nulle est autorisée et est utile dans certains cas, par exemple, si l'appelant utilise un Delegate qui permet l'interopérabilité du gestionnaire de tampon et qu'un tel tampon a été lié au Tensor de sortie (voir aussi Interpreter.Options#setAllowBufferHandleOutput(boolean) ), ou si le graphique a des sorties de forme dynamique et que l'appelant doit interroger la forme Tensor sortie après l'appel de l'inférence, en récupérant les données directement à partir du tenseur de sortie (via Tensor.asReadOnlyBuffer() ). |
Lance
Exception d'argument illégal | si input est nulle ou vide, ou si une erreur se produit lors de l'exécution de l'inférence. |
---|---|
Exception d'argument illégal | (EXPERIMENTAL, sujet à changement) si l'inférence est interrompue par setCancelled(true) . |
public abstract void runForMultipleInputsOutputs ( entrées Object[] , Map < Integer , Object > sorties)
Exécute l'inférence de modèle si le modèle prend plusieurs entrées ou renvoie plusieurs sorties.
Avertissement : L'API est plus efficace si Buffer
s (de préférence directs, mais pas obligatoires) sont utilisés comme types de données d'entrée/sortie. Veuillez envisager d'utiliser Buffer
pour alimenter et récupérer des données primitives pour de meilleures performances. Les types Buffer
concrets suivants sont pris en charge :
-
ByteBuffer
- compatible avec tout type Tensor primitif sous-jacent. -
FloatBuffer
- compatible avec les tenseurs flottants. -
IntBuffer
- compatible avec les tenseurs int32. -
LongBuffer
- compatible avec les tenseurs int64.
Buffer
s, ou en tant qu'entrées scalaires. Remarque : les valeurs null
pour les éléments individuels des inputs
et outputs
ne sont autorisées que si l'appelant utilise un Delegate
qui autorise l'interopérabilité du gestionnaire de tampon, et qu'un tel tampon a été lié au(x) Tensor
(s) d'entrée ou de sortie correspondant(s).
Paramètres
contributions | un tableau de données d'entrée. Les entrées doivent être dans le même ordre que les entrées du modèle. Chaque entrée peut être un tableau ou un tableau multidimensionnel, ou un Buffer de types primitifs, notamment int, float, long et byte. Buffer est le moyen préféré pour transmettre des données d'entrée volumineuses, tandis que les types de chaîne nécessitent l'utilisation du chemin d'entrée du tableau (multidimensionnel). Lorsque Buffer est utilisé, son contenu doit rester inchangé jusqu'à ce que l'inférence du modèle soit effectuée, et l'appelant doit s'assurer que le Buffer est à la position de lecture appropriée. |
---|---|
les sorties | une carte mappant les indices de sortie sur des tableaux multidimensionnels de données de sortie ou Buffer de types primitifs, notamment int, float, long et byte. Il doit uniquement conserver les entrées des sorties à utiliser. Lorsqu'un Buffer est utilisé, l'appelant doit s'assurer qu'il est défini sur la position d'écriture appropriée. La carte peut être vide pour les cas où les poignées de tampon sont utilisées pour les données de tenseur de sortie, ou les cas où les sorties sont formées dynamiquement et l'appelant doit interroger la forme Tensor de sortie après l'appel de l'inférence, en récupérant les données directement à partir du tenseur de sortie ( via Tensor.asReadOnlyBuffer() ). |
Lance
Exception d'argument illégal | si inputs sont nulles ou vides, si outputs sont nulles ou si une erreur se produit lors de l'exécution de l'inférence. |
---|