Pustaka Tugas TensorFlow Lite menyediakan API bawaan/Android/iOS bawaan di atas infrastruktur yang sama yang mengabstraksi TensorFlow. Anda dapat memperluas infrastruktur API Tugas untuk membuat API yang disesuaikan jika model Anda tidak didukung oleh pustaka Tugas yang ada.
Ringkasan
Infrastruktur Task API memiliki struktur dua lapisan: lapisan C++ bawah yang merangkum runtime TFLite asli dan lapisan Java/ObjC atas yang berkomunikasi dengan lapisan C++ melalui JNI atau pembungkus asli.
Menerapkan semua logika TensorFlow hanya dalam C++ akan meminimalkan biaya, memaksimalkan kinerja inferensi, dan menyederhanakan keseluruhan alur kerja di seluruh platform.
Untuk membuat kelas Tugas, perluas BaseTaskApi untuk menyediakan logika konversi antara antarmuka model TFLite dan antarmuka Task API, lalu gunakan utilitas Java/ObjC untuk membuat API yang sesuai. Dengan semua detail TensorFlow disembunyikan, Anda dapat menerapkan model TFLite di aplikasi Anda tanpa pengetahuan machine learning apa pun.
TensorFlow Lite menyediakan beberapa API bawaan untuk tugas Vision dan NLP paling populer . Anda dapat membangun API Anda sendiri untuk tugas lain menggunakan infrastruktur API Tugas.
Bangun API Anda sendiri dengan infra . API Tugas
C++ API
Semua detail TFLite diimplementasikan di API asli. Buat objek API dengan menggunakan salah satu fungsi pabrik dan dapatkan hasil model dengan memanggil fungsi yang ditentukan di antarmuka.
Contoh penggunaan
Berikut adalah contoh menggunakan C++ BertQuestionAnswerer
untuk MobileBert .
char kBertModelPath[] = "path/to/model.tflite";
// Create the API from a model file
std::unique_ptr<BertQuestionAnswerer> question_answerer =
BertQuestionAnswerer::CreateFromFile(kBertModelPath);
char kContext[] = ...; // context of a question to be answered
char kQuestion[] = ...; // question to be answered
// ask a question
std::vector<QaAnswer> answers = question_answerer.Answer(kContext, kQuestion);
// answers[0].text is the best answer
Membangun API
Untuk membangun objek API, Anda harus memberikan informasi berikut dengan memperluas BaseTaskApi
Tentukan I/O API - API Anda harus mengekspos input/output serupa di berbagai platform. misalnya
BertQuestionAnswerer
mengambil dua string(std::string& context, std::string& question)
sebagai input dan output vektor kemungkinan jawaban dan probabilitas sebagaistd::vector<QaAnswer>
. Ini dilakukan dengan menentukan jenis yang sesuai dalam parameter templateBaseTaskApi
. Dengan parameter template yang ditentukan, fungsiBaseTaskApi::Infer
akan memiliki tipe input/output yang benar. Fungsi ini dapat dipanggil secara langsung oleh klien API, tetapi merupakan praktik yang baik untuk membungkusnya di dalam fungsi khusus model, dalam hal ini,BertQuestionAnswerer::Answer
.class BertQuestionAnswerer : public BaseTaskApi< std::vector<QaAnswer>, // OutputType const std::string&, const std::string& // InputTypes > { // Model specific function delegating calls to BaseTaskApi::Infer std::vector<QaAnswer> Answer(const std::string& context, const std::string& question) { return Infer(context, question).value(); } }
Menyediakan logika konversi antara API I/O dan tensor input/output model - Dengan tipe input dan output yang ditentukan, subclass juga perlu mengimplementasikan fungsi yang diketik
BaseTaskApi::Preprocess
danBaseTaskApi::Postprocess
. Kedua fungsi tersebut memberikan input dan output dari TFLiteFlatBuffer
. Subclass bertanggung jawab untuk menetapkan nilai dari API I/O ke tensor I/O. Lihat contoh implementasi lengkap diBertQuestionAnswerer
.class BertQuestionAnswerer : public BaseTaskApi< std::vector<QaAnswer>, // OutputType const std::string&, const std::string& // InputTypes > { // Convert API input into tensors absl::Status BertQuestionAnswerer::Preprocess( const std::vector<TfLiteTensor*>& input_tensors, // input tensors of the model const std::string& context, const std::string& query // InputType of the API ) { // Perform tokenization on input strings ... // Populate IDs, Masks and SegmentIDs to corresponding input tensors PopulateTensor(input_ids, input_tensors[0]); PopulateTensor(input_mask, input_tensors[1]); PopulateTensor(segment_ids, input_tensors[2]); return absl::OkStatus(); } // Convert output tensors into API output StatusOr<std::vector<QaAnswer>> // OutputType BertQuestionAnswerer::Postprocess( const std::vector<const TfLiteTensor*>& output_tensors, // output tensors of the model ) { // Get start/end logits of prediction result from output tensors std::vector<float> end_logits; std::vector<float> start_logits; // output_tensors[0]: end_logits FLOAT[1, 384] PopulateVector(output_tensors[0], &end_logits); // output_tensors[1]: start_logits FLOAT[1, 384] PopulateVector(output_tensors[1], &start_logits); ... std::vector<QaAnswer::Pos> orig_results; // Look up the indices from vocabulary file and build results ... return orig_results; } }
Buat fungsi pabrik dari API - File model dan
OpResolver
diperlukan untuk menginisialisasitflite::Interpreter
.TaskAPIFactory
menyediakan fungsi utilitas untuk membuat instance BaseTaskApi.Anda juga harus menyediakan file apa pun yang terkait dengan model. misalnya,
BertQuestionAnswerer
juga dapat memiliki file tambahan untuk kosakata tokenizer-nya.class BertQuestionAnswerer : public BaseTaskApi< std::vector<QaAnswer>, // OutputType const std::string&, const std::string& // InputTypes > { // Factory function to create the API instance StatusOr<std::unique_ptr<QuestionAnswerer>> BertQuestionAnswerer::CreateBertQuestionAnswerer( const std::string& path_to_model, // model to passed to TaskApiFactory const std::string& path_to_vocab // additional model specific files ) { // Creates an API object by calling one of the utils from TaskAPIFactory std::unique_ptr<BertQuestionAnswerer> api_to_init; ASSIGN_OR_RETURN( api_to_init, core::TaskAPIFactory::CreateFromFile<BertQuestionAnswerer>( path_to_model, absl::make_unique<tflite::ops::builtin::BuiltinOpResolver>(), kNumLiteThreads)); // Perform additional model specific initializations // In this case building a vocabulary vector from the vocab file. api_to_init->InitializeVocab(path_to_vocab); return api_to_init; } }
Android API
Buat Android API dengan mendefinisikan antarmuka Java/Kotlin dan mendelegasikan logika ke lapisan C++ melalui JNI. Android API membutuhkan API asli untuk dibangun terlebih dahulu.
Contoh penggunaan
Berikut adalah contoh penggunaan Java BertQuestionAnswerer
untuk MobileBert .
String BERT_MODEL_FILE = "path/to/model.tflite";
String VOCAB_FILE = "path/to/vocab.txt";
// Create the API from a model file and vocabulary file
BertQuestionAnswerer bertQuestionAnswerer =
BertQuestionAnswerer.createBertQuestionAnswerer(
ApplicationProvider.getApplicationContext(), BERT_MODEL_FILE, VOCAB_FILE);
String CONTEXT = ...; // context of a question to be answered
String QUESTION = ...; // question to be answered
// ask a question
List<QaAnswer> answers = bertQuestionAnswerer.answer(CONTEXT, QUESTION);
// answers.get(0).text is the best answer
Membangun API
Mirip dengan Native API, untuk membangun objek API, klien perlu memberikan informasi berikut dengan memperluas BaseTaskApi
, yang menyediakan penanganan JNI untuk semua Java Task API.
Tentukan I/O API - Ini biasanya mencerminkan antarmuka asli. misalnya
BertQuestionAnswerer
mengambil(String context, String question)
sebagai input dan outputList<QaAnswer>
. Implementasinya memanggil fungsi asli pribadi dengan tanda tangan yang serupa, kecuali ia memiliki parameter tambahanlong nativeHandle
, yang merupakan pointer yang dikembalikan dari C++.class BertQuestionAnswerer extends BaseTaskApi { public List<QaAnswer> answer(String context, String question) { return answerNative(getNativeHandle(), context, question); } private static native List<QaAnswer> answerNative( long nativeHandle, // C++ pointer String context, String question // API I/O ); }
Buat fungsi pabrik API - Ini juga mencerminkan fungsi pabrik asli, kecuali fungsi pabrik Android juga perlu mengambil
Context
untuk akses file. Implementasinya memanggil salah satu utilitas diTaskJniUtils
untuk membangun objek C++ API yang sesuai dan meneruskan penunjuknya ke konstruktorBaseTaskApi
.class BertQuestionAnswerer extends BaseTaskApi { private static final String BERT_QUESTION_ANSWERER_NATIVE_LIBNAME = "bert_question_answerer_jni"; // Extending super constructor by providing the // native handle(pointer of corresponding C++ API object) private BertQuestionAnswerer(long nativeHandle) { super(nativeHandle); } public static BertQuestionAnswerer createBertQuestionAnswerer( Context context, // Accessing Android files String pathToModel, String pathToVocab) { return new BertQuestionAnswerer( // The util first try loads the JNI module with name // BERT_QUESTION_ANSWERER_NATIVE_LIBNAME, then opens two files, // converts them into ByteBuffer, finally ::initJniWithBertByteBuffers // is called with the buffer for a C++ API object pointer TaskJniUtils.createHandleWithMultipleAssetFilesFromLibrary( context, BertQuestionAnswerer::initJniWithBertByteBuffers, BERT_QUESTION_ANSWERER_NATIVE_LIBNAME, pathToModel, pathToVocab)); } // modelBuffers[0] is tflite model file buffer, and modelBuffers[1] is vocab file buffer. // returns C++ API object pointer casted to long private static native long initJniWithBertByteBuffers(ByteBuffer... modelBuffers); }
Menerapkan modul JNI untuk fungsi asli - Semua metode asli Java diimplementasikan dengan memanggil fungsi asli yang sesuai dari modul JNI. Fungsi pabrik akan membuat objek API asli dan mengembalikan penunjuknya sebagai tipe panjang ke Java. Dalam panggilan selanjutnya ke Java API, penunjuk tipe panjang diteruskan kembali ke JNI dan dilemparkan kembali ke objek API asli. Hasil API asli kemudian dikonversi kembali ke hasil Java.
Misalnya, ini adalah bagaimana bert_question_answerer_jni diterapkan.
// Implements BertQuestionAnswerer::initJniWithBertByteBuffers extern "C" JNIEXPORT jlong JNICALL Java_org_tensorflow_lite_task_text_qa_BertQuestionAnswerer_initJniWithBertByteBuffers( JNIEnv* env, jclass thiz, jobjectArray model_buffers) { // Convert Java ByteBuffer object into a buffer that can be read by native factory functions absl::string_view model = GetMappedFileBuffer(env, env->GetObjectArrayElement(model_buffers, 0)); // Creates the native API object absl::StatusOr<std::unique_ptr<QuestionAnswerer>> status = BertQuestionAnswerer::CreateFromBuffer( model.data(), model.size()); if (status.ok()) { // converts the object pointer to jlong and return to Java. return reinterpret_cast<jlong>(status->release()); } else { return kInvalidPointer; } } // Implements BertQuestionAnswerer::answerNative extern "C" JNIEXPORT jobject JNICALL Java_org_tensorflow_lite_task_text_qa_BertQuestionAnswerer_answerNative( JNIEnv* env, jclass thiz, jlong native_handle, jstring context, jstring question) { // Convert long to native API object pointer QuestionAnswerer* question_answerer = reinterpret_cast<QuestionAnswerer*>(native_handle); // Calls the native API std::vector<QaAnswer> results = question_answerer->Answer(JStringToString(env, context), JStringToString(env, question)); // Converts native result(std::vector<QaAnswer>) to Java result(List<QaAnswerer>) jclass qa_answer_class = env->FindClass("org/tensorflow/lite/task/text/qa/QaAnswer"); jmethodID qa_answer_ctor = env->GetMethodID(qa_answer_class, "<init>", "(Ljava/lang/String;IIF)V"); return ConvertVectorToArrayList<QaAnswer>( env, results, [env, qa_answer_class, qa_answer_ctor](const QaAnswer& ans) { jstring text = env->NewStringUTF(ans.text.data()); jobject qa_answer = env->NewObject(qa_answer_class, qa_answer_ctor, text, ans.pos.start, ans.pos.end, ans.pos.logit); env->DeleteLocalRef(text); return qa_answer; }); } // Implements BaseTaskApi::deinitJni by delete the native object extern "C" JNIEXPORT void JNICALL Java_task_core_BaseTaskApi_deinitJni( JNIEnv* env, jobject thiz, jlong native_handle) { delete reinterpret_cast<QuestionAnswerer*>(native_handle); }
API iOS
Buat API iOS dengan membungkus objek API asli menjadi objek API ObjC. Objek API yang dibuat dapat digunakan di ObjC atau Swift. iOS API membutuhkan API asli untuk dibuat terlebih dahulu.
Contoh penggunaan
Berikut adalah contoh menggunakan ObjC TFLBertQuestionAnswerer
untuk MobileBert di Swift.
static let mobileBertModelPath = "path/to/model.tflite";
// Create the API from a model file and vocabulary file
let mobileBertAnswerer = TFLBertQuestionAnswerer.mobilebertQuestionAnswerer(
modelPath: mobileBertModelPath)
static let context = ...; // context of a question to be answered
static let question = ...; // question to be answered
// ask a question
let answers = mobileBertAnswerer.answer(
context: TFLBertQuestionAnswererTest.context, question: TFLBertQuestionAnswererTest.question)
// answers.[0].text is the best answer
Membangun API
iOS API adalah pembungkus ObjC sederhana di atas API asli. Bangun API dengan mengikuti langkah-langkah di bawah ini:
Tentukan pembungkus ObjC - Tentukan kelas ObjC dan delegasikan implementasinya ke objek API asli yang sesuai. Perhatikan bahwa dependensi asli hanya dapat muncul dalam file .mm karena Swift tidak dapat melakukan interop dengan C++.
- file .h
@interface TFLBertQuestionAnswerer : NSObject // Delegate calls to the native BertQuestionAnswerer::CreateBertQuestionAnswerer + (instancetype)mobilebertQuestionAnswererWithModelPath:(NSString*)modelPath vocabPath:(NSString*)vocabPath NS_SWIFT_NAME(mobilebertQuestionAnswerer(modelPath:vocabPath:)); // Delegate calls to the native BertQuestionAnswerer::Answer - (NSArray<TFLQAAnswer*>*)answerWithContext:(NSString*)context question:(NSString*)question NS_SWIFT_NAME(answer(context:question:)); }
- file .mm
using BertQuestionAnswererCPP = ::tflite::task::text::BertQuestionAnswerer; @implementation TFLBertQuestionAnswerer { // define an iVar for the native API object std::unique_ptr<QuestionAnswererCPP> _bertQuestionAnswerwer; } // Initialize the native API object + (instancetype)mobilebertQuestionAnswererWithModelPath:(NSString *)modelPath vocabPath:(NSString *)vocabPath { absl::StatusOr<std::unique_ptr<QuestionAnswererCPP>> cQuestionAnswerer = BertQuestionAnswererCPP::CreateBertQuestionAnswerer(MakeString(modelPath), MakeString(vocabPath)); _GTMDevAssert(cQuestionAnswerer.ok(), @"Failed to create BertQuestionAnswerer"); return [[TFLBertQuestionAnswerer alloc] initWithQuestionAnswerer:std::move(cQuestionAnswerer.value())]; } // Calls the native API and converts C++ results into ObjC results - (NSArray<TFLQAAnswer *> *)answerWithContext:(NSString *)context question:(NSString *)question { std::vector<QaAnswerCPP> results = _bertQuestionAnswerwer->Answer(MakeString(context), MakeString(question)); return [self arrayFromVector:results]; } }
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2023-09-07 UTC.