Interpreter.Options

Interpreter.Options kelas statis publik

Kelas opsi untuk mengontrol perilaku juru runtime.

Konstruktor Publik

Opsi ()

Metode Publik

Interpreter.Options
addDelegate ( Delegasi delegasi)
Menambahkan Delegate untuk diterapkan selama pembuatan juru bahasa.
Interpreter.Options
setAllowBufferHandleOutput (izinkan boolean)
Lanjutan: Setel jika output pegangan buffer diizinkan.
Interpreter.Options
setAllowFp16PrecisionForFp32 (izinkan boolean)
Metode ini tidak digunakan lagi. Lebih suka menggunakan NnApiDelegate.Options#setAllowFp16(aktifkan boolean) .
Interpreter.Options
setCancellable (izinkan boolean)
Lanjutan: Setel jika juru bahasa dapat dibatalkan.
Interpreter.Options
setNumThreads (int numThreads)
Menetapkan jumlah thread yang akan digunakan untuk operasi yang mendukung multi-threading.
Interpreter.Options
setRuntime ( InterpreterApi.Options.TfLiteRuntime runtime)
Tentukan dari mana mendapatkan implementasi runtime TF Lite.
Interpreter.Options
setUseNNAPI (penggunaan booleanNNAPI)
Menyetel apakah akan menggunakan NN API (jika tersedia) untuk eksekusi operasi.
Interpreter.Options
setUseXNNPACK (penggunaan booleanXNNPACK)
Eksperimental: Nonaktifkan satu set kernel CPU yang dioptimalkan (disediakan oleh XNNPACK).

Metode yang Diwarisi

Konstruktor Publik

Opsi publik ()

Opsi publik (opsi InterpreterApi.Options )

Parameter
pilihan

Metode Publik

public Interpreter.Options addDelegate ( Delegasi delegasi)

Menambahkan Delegate untuk diterapkan selama pembuatan juru bahasa.

Parameter
melimpahkan

Interpreter.Options publik setAllowBufferHandleOutput (izinkan boolean)

Lanjutan: Setel jika output pegangan buffer diizinkan.

Saat Delegate mendukung akselerasi perangkat keras, interpreter akan membuat data tensor keluaran tersedia di buffer tensor yang dialokasikan CPU secara default. Jika klien dapat menggunakan pegangan buffer secara langsung (misalnya membaca output dari tekstur OpenGL), klien dapat menyetel tanda ini ke false, menghindari salinan data ke buffer CPU. Dokumentasi delegasi harus menunjukkan apakah ini didukung dan bagaimana itu dapat digunakan.

PERINGATAN: Ini adalah antarmuka eksperimental yang dapat berubah.

Parameter
mengizinkan

Interpreter.Options publik setAllowFp16PrecisionForFp32 (izinkan boolean)

Metode ini tidak digunakan lagi .
Lebih suka menggunakan NnApiDelegate.Options#setAllowFp16(aktifkan boolean) .

Menyetel apakah akan mengizinkan presisi float16 untuk penghitungan FP32 jika memungkinkan. Default ke false (larang).

Parameter
mengizinkan

public Interpreter.Options setCancellable (izinkan boolean)

Lanjutan: Setel jika juru bahasa dapat dibatalkan.

Interpreter mungkin memiliki API eksperimental setCancelled(boolean) . Jika penerjemah ini dapat dibatalkan dan metode seperti itu dipanggil, tanda pembatalan akan disetel ke true. Interpreter akan memeriksa flag di antara pemanggilan Op, dan jika true , interpreter akan menghentikan eksekusi. Penerjemah akan tetap dalam status dibatalkan hingga secara eksplisit "dibatalkan" oleh setCancelled(false) .

Parameter
mengizinkan

Interpreter.Options publik setNumThreads (int numThreads)

Menetapkan jumlah thread yang akan digunakan untuk operasi yang mendukung multi-threading.

numThreads harus >= -1 . Menyetel numThreads ke 0 memiliki efek menonaktifkan multithreading, yang setara dengan menyetel numThreads ke 1. Jika tidak ditentukan, atau disetel ke nilai -1, jumlah utas yang digunakan akan ditentukan oleh implementasi dan bergantung pada platform.

Parameter
numThreads

setRuntime Interpreter.Options publik ( InterpreterApi.Options.TfLiteRuntime runtime)

Tentukan dari mana mendapatkan implementasi runtime TF Lite.

Parameter
waktu berjalan

Interpreter.Options publik setUseNNAPI (boolean useNNAPI)

Menyetel apakah akan menggunakan NN API (jika tersedia) untuk eksekusi operasi. Default ke false (dinonaktifkan).

Parameter
gunakanNNAPI

Interpreter.Options publik setUseXNNPACK (penggunaan booleanXNNPACK)

Eksperimental: Nonaktifkan satu set kernel CPU yang dioptimalkan (disediakan oleh XNNPACK).

Menonaktifkan tanda ini akan menonaktifkan penggunaan set kernel CPU yang sangat dioptimalkan yang disediakan melalui delegasi XNNPACK. Saat ini, ini terbatas pada subset operasi floating point. Lihat https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/delegates/xnnpack/README.md untuk detail selengkapnya.

PERINGATAN: Ini adalah antarmuka eksperimental yang dapat berubah.

Parameter
gunakanXNNPACK