NLClassifier
API ของไลบรารีงานจัดประเภทข้อความอินพุตเป็นหมวดหมู่ต่างๆ และเป็น API ที่ใช้งานได้หลากหลายและกำหนดค่าได้ ซึ่งสามารถจัดการโมเดลการจัดประเภทข้อความส่วนใหญ่ได้
คุณสมบัติหลักของ NLClassifier API
รับสตริงเดียวเป็นอินพุต ทำการจำแนกประเภทด้วยสตริงและเอาต์พุต
ตัวเลือก Regex Tokenization สำหรับข้อความที่ป้อน
กำหนดค่าได้เพื่อปรับโมเดลการจำแนกประเภทต่างๆ
รุ่น NLClassifier ที่รองรับ
รับประกันว่ารุ่นต่อไปนี้จะเข้ากันได้กับ NLClassifier
API
โมเดลที่มี
average_word_vec
สร้างโดย TensorFlow Lite Model Maker สำหรับการจำแนกข้อความโมเดลแบบกำหนดเองที่ตรงตาม ข้อกำหนดความเข้ากันได้ ของโมเดล
เรียกใช้การอนุมานใน Java
ดู แอปอ้างอิงการจัดประเภทข้อความ สำหรับตัวอย่างวิธีใช้ NLClassifier
ในแอป Android
ขั้นตอนที่ 1: นำเข้าการพึ่งพา Gradle และการตั้งค่าอื่นๆ
คัดลอกไฟล์โมเดล .tflite
ไปยังไดเร็กทอรีทรัพย์สินของโมดูล Android ที่จะเรียกใช้โมเดล ระบุว่าไม่ควรบีบอัดไฟล์ และเพิ่มไลบรารี TensorFlow Lite ลงในไฟล์ build.gradle
ของโมดูล:
android {
// Other settings
// Specify tflite file should not be compressed for the app apk
aaptOptions {
noCompress "tflite"
}
}
dependencies {
// Other dependencies
// Import the Task Vision Library dependency (NNAPI is included)
implementation 'org.tensorflow:tensorflow-lite-task-text:0.3.0'
// Import the GPU delegate plugin Library for GPU inference
implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.3.0'
}
ขั้นตอนที่ 2: เรียกใช้การอนุมานโดยใช้ API
// Initialization, use NLClassifierOptions to configure input and output tensors
NLClassifierOptions options =
NLClassifierOptions.builder()
.setBaseOptions(BaseOptions.builder().useGpu().build())
.setInputTensorName(INPUT_TENSOR_NAME)
.setOutputScoreTensorName(OUTPUT_SCORE_TENSOR_NAME)
.build();
NLClassifier classifier =
NLClassifier.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<Category> results = classifier.classify(input);
ดู ซอร์สโค้ด สำหรับตัวเลือกเพิ่มเติมในการกำหนดค่า NLClassifier
เรียกใช้การอนุมานใน Swift
ขั้นตอนที่ 1: นำเข้า CocoaPods
เพิ่มพ็อด TensorFlowLiteTaskText ใน Podfile
target 'MySwiftAppWithTaskAPI' do
use_frameworks!
pod 'TensorFlowLiteTaskText', '~> 0.2.0'
end
ขั้นตอนที่ 2: เรียกใช้การอนุมานโดยใช้ API
// Initialization
var modelOptions:TFLNLClassifierOptions = TFLNLClassifierOptions()
modelOptions.inputTensorName = inputTensorName
modelOptions.outputScoreTensorName = outputScoreTensorName
let nlClassifier = TFLNLClassifier.nlClassifier(
modelPath: modelPath,
options: modelOptions)
// Run inference
let categories = nlClassifier.classify(text: input)
ดู ซอร์สโค้ด สำหรับรายละเอียดเพิ่มเติม
เรียกใช้การอนุมานใน C++
// Initialization
NLClassifierOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
std::unique_ptr<NLClassifier> classifier = NLClassifier::CreateFromOptions(options).value();
// Run inference with your input, `input_text`.
std::vector<core::Category> categories = classifier->Classify(input_text);
ดู ซอร์สโค้ด สำหรับรายละเอียดเพิ่มเติม
เรียกใช้การอนุมานใน Python
ขั้นตอนที่ 1: ติดตั้งแพ็คเกจ pip
pip install tflite-support
ขั้นตอนที่ 2: การใช้โมเดล
# Imports
from tflite_support.task import text
# Initialization
classifier = text.NLClassifier.create_from_file(model_path)
# Run inference
text_classification_result = classifier.classify(text)
ดู ซอร์สโค้ด สำหรับตัวเลือกเพิ่มเติมในการกำหนดค่า NLClassifier
ตัวอย่างผลลัพธ์
นี่คือตัวอย่างผลการจัดหมวดหมู่ของ รูปแบบการวิจารณ์ภาพยนตร์
ข้อมูลเข้า: "เสียเวลาเปล่า"
เอาท์พุท:
category[0]: 'Negative' : '0.81313'
category[1]: 'Positive' : '0.18687'
ลองใช้ เครื่องมือสาธิต CLI อย่างง่ายสำหรับ NLClassifier ด้วยแบบจำลองและข้อมูลทดสอบของคุณเอง
ข้อกำหนดความเข้ากันได้ของรุ่น
ขึ้นอยู่กับกรณีการใช้งาน NLClassifier
API สามารถโหลดโมเดล TFLite โดยมีหรือไม่มี TFLite Model Metadata ดูตัวอย่างการสร้างข้อมูลเมตาสำหรับตัวแยกประเภทภาษาธรรมชาติโดยใช้ TensorFlow Lite Metadata Writer API
รุ่นที่รองรับควรเป็นไปตามข้อกำหนดต่อไปนี้:
เทนเซอร์อินพุต: (kTfLiteString/kTfLiteInt32)
- อินพุตของโมเดลควรเป็นสตริงอินพุตดิบเทนเซอร์ kTfLiteString หรือเมตริกซ์ kTfLiteInt32 สำหรับดัชนีโทเค็น regex ของสตริงอินพุตดิบ
- หากประเภทอินพุตเป็น kTfLiteString ไม่จำเป็นต้องใช้ ข้อมูลเมตา สำหรับโมเดล
- หากประเภทอินพุตคือ
RegexTokenizer
จำเป็นต้องตั้งค่า RegexTokenizer ในข้อมูล เมตา ของเทนเซอร์อินพุต
เทนเซอร์คะแนนเอาท์พุต: (kTfLiteUInt8/kTfLiteInt8/kTfLiteInt16/kTfLiteFloat32/kTfLiteFloat64)
เทนเซอร์เอาต์พุตบังคับสำหรับคะแนนของแต่ละหมวดหมู่ที่จำแนก
หากประเภทเป็นหนึ่งในประเภท Int ให้ลดปริมาณลงเป็นสองเท่า/ลอยไปยังแพลตฟอร์มที่เกี่ยวข้อง
สามารถมีไฟล์ที่เกี่ยวข้องซึ่งเป็นทางเลือกใน ข้อมูลเมตา ที่สอดคล้องกันของเทนเซอร์เอาต์พุตสำหรับป้ายกำกับหมวดหมู่ ไฟล์ควรเป็นไฟล์ข้อความธรรมดาที่มีหนึ่งป้ายกำกับต่อบรรทัด และจำนวนป้ายกำกับควรตรงกับจำนวนหมวดหมู่เป็นเอาต์พุตของโมเดล ดู ตัวอย่างไฟล์ป้ายกำกับ
เทนเซอร์ป้ายกำกับเอาต์พุต: (kTfLiteString/kTfLiteInt32)
เมตริกซ์เอาต์พุตที่เลือกได้สำหรับป้ายกำกับสำหรับแต่ละหมวดหมู่ ควรมีความยาวเท่ากับเมตริกซ์คะแนนเอาต์พุต หากไม่มีเทนเซอร์นี้ API จะใช้ดัชนีคะแนนเป็นชื่อคลาส
จะถูกละเว้นหากไฟล์ป้ายกำกับที่เกี่ยวข้องมีอยู่ในข้อมูลเมตาของเทนเซอร์คะแนนเอาต์พุต