パブリッククラスモデル
TFLite モデルおよび TFLite インタープリターのラッパー クラス。
注: Model
一度に 1 つの TFLite モデルのみを保持でき、それを実行するための TFLite インタープリター インスタンスを常に保持します。
ネストされたクラス
クラス | モデル.ビルダー | このクラスは廃止されました。 Model.createModel(Context, String, Options) を使用してください。 | |
列挙型 | モデル.デバイス | 分類の実行に使用されるランタイムデバイスのタイプ。 | |
クラス | モデル.オプション | モデルを実行するためのオプション。 |
パブリックメソッド
空所 | 近い() |
静的モデル | createModel (Context コンテキスト、 String modelPath、 Model.Optionsオプション) アセットからモデルをロードし、指定されたオプションを使用して TFLite インタープリターを初期化します。 |
静的モデル | |
マップされたバイトバッファ | getData () メモリマップされたモデルデータを返します。 |
テンソル | getInputTensor (int inputIndex) 指定された入力インデックスに関連付けられた Tensor を取得します。 |
テンソル | getOutputTensor (int OutputIndex) 指定された出力インデックスに関連付けられた Tensor を取得します。 |
int[] | getOutputTensorShape (int OutputIndex) 出力形状を返します。 |
弦 | getPath () Assets に保存されているモデル ファイルのパスを返します。 |
空所 |
継承されたメソッド
パブリックメソッド
public void close ()
public static Model createModel (コンテキストコンテキスト、文字列モデルパス、 Model.Optionsオプション)
アセットからモデルをロードし、指定されたオプションを使用して TFLite インタープリターを初期化します。
パラメーター
コンテクスト | アプリのコンテキスト。 |
---|---|
モデルパス | モデルファイルのパス。 |
オプション | モデルを実行するためのオプション。 |
投げる
IO例外 | モデル ファイルを開くときに例外が発生した場合。 |
---|
関連項目
public static Model createModel (コンテキスト context, String modelPath)
アセットからモデルをロードし、TFLite インタープリターを初期化します。
デフォルトのオプションは次のとおりです: (1) CPU デバイス。 (2) 1 つのスレッド。
パラメーター
コンテクスト | アプリのコンテキスト。 |
---|---|
モデルパス | モデルファイルのパス。 |
投げる
IO例外 | モデル ファイルを開くときに例外が発生した場合。 |
---|
public Tensor getInputTensor (int inputIndex)
public Tensor getOutputTensor (int OutputIndex)
public int[] getOutputTensorShape (int OutputIndex)
public void run ( Object[]入力、 Map < Integer 、 Object > 出力)
複数の入力に対してモデル推論を実行し、複数の出力を返します。
パラメーター
入力 | 入力データの配列。入力はモデルの入力と同じ順序である必要があります。各入力は、配列または多次元配列、または int、float、long、byte などのプリミティブ型のByteBuffer にすることができます。 ByteBuffer は大きな入力データを渡すための推奨される方法ですが、文字列型では (多次元) 配列入力パスを使用する必要があります。 ByteBuffer が使用される場合、モデル推論が完了するまでその内容は変更されないはずです。 |
---|---|
出力 | 出力インデックスを出力データの多次元配列、または int、float、long、byte などのプリミティブ型のByteBuffer にマッピングするマップ。使用する出力のエントリを保持するだけで済みます。 |