Поиск изображений позволяет искать похожие изображения в базе данных изображений. Он работает путем встраивания поискового запроса в многомерный вектор, представляющий семантическое значение запроса, с последующим поиском сходства в предварительно определенном пользовательском индексе с использованием ScaNN (масштабируемые ближайшие соседи).
В отличие от классификации изображений , увеличение количества распознаваемых элементов не требует повторного обучения всей модели. Новые элементы можно добавлять, просто перестраивая индекс. Это также позволяет работать с большими (более 100 тыс. элементов) базами данных изображений.
Используйте API-интерфейс ImageSearcher
библиотеки задач, чтобы развернуть свой пользовательский поиск изображений в мобильных приложениях.
Основные возможности API ImageSearcher
Принимает одно изображение в качестве входных данных, выполняет извлечение встраивания и поиск ближайшего соседа в индексе.
Обработка исходного изображения, включая поворот, изменение размера и преобразование цветового пространства.
Область интереса входного изображения.
Предпосылки
Прежде чем использовать ImageSearcher
API, необходимо создать индекс на основе пользовательского набора изображений для поиска. Этого можно добиться с помощью Model Maker Searcher API , следуя и адаптируя руководство .
Для этого вам понадобится:
- модель встраивания изображений TFLite, например mobilenet v3 . См. другие предварительно обученные модели для встраивания (также известные как векторные модели признаков) из коллекции Google Image Modules на TensorFlow Hub .
- ваш корпус изображений.
После этого шага у вас должна быть автономная модель поисковика TFLite (например, mobilenet_v3_searcher.tflite
), которая является исходной моделью встраивания изображений с индексом, прикрепленным к метаданным модели TFLite .
Выполнить вывод в Java
Шаг 1: Импорт зависимости Gradle и других настроек
Скопируйте файл модели поисковика .tflite
в каталог assets модуля Android, где будет запускаться модель. Укажите, что файл не должен быть сжат, и добавьте библиотеку TensorFlow Lite в файл build.gradle
модуля:
android {
// Other settings
// Specify tflite index file should not be compressed for the app apk
aaptOptions {
noCompress "tflite"
}
}
dependencies {
// Other dependencies
// Import the Task Vision Library dependency (NNAPI is included)
implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.0'
// Import the GPU delegate plugin Library for GPU inference
implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.0'
}
Шаг 2: Использование модели
// Initialization
ImageSearcherOptions options =
ImageSearcherOptions.builder()
.setBaseOptions(BaseOptions.builder().useGpu().build())
.setSearcherOptions(
SearcherOptions.builder().setL2Normalize(true).build())
.build();
ImageSearcher imageSearcher =
ImageSearcher.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<NearestNeighbor> results = imageSearcher.search(image);
Дополнительные параметры настройки ImageSearcher
см. в исходном коде и javadoc .
Запустить вывод на C++
// Initialization
ImageSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<ImageSearcher> image_searcher = ImageSearcher::CreateFromOptions(options).value();
// Create input frame_buffer from your inputs, `image_data` and `image_dimension`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer = CreateFromRgbRawBuffer(
image_data, image_dimension);
// Run inference
const SearchResult result = image_searcher->Search(*frame_buffer).value();
Дополнительные параметры настройки ImageSearcher
см. в исходном коде .
Запустить вывод в Python
Шаг 1: Установите пакет поддержки TensorFlow Lite Pypi.
Вы можете установить пакет Pypi для поддержки TensorFlow Lite, используя следующую команду:
pip install tflite-support
Шаг 2: Использование модели
from tflite_support.task import vision
# Initialization
image_searcher = vision.ImageSearcher.create_from_file(model_path)
# Run inference
image = vision.TensorImage.create_from_file(image_file)
result = image_searcher.search(image)
Дополнительные параметры настройки ImageSearcher
см. в исходном коде .
Пример результатов
Results:
Rank#0:
metadata: burger
distance: 0.13452
Rank#1:
metadata: car
distance: 1.81935
Rank#2:
metadata: bird
distance: 1.96617
Rank#3:
metadata: dog
distance: 2.05610
Rank#4:
metadata: cat
distance: 2.06347
Попробуйте простой демонстрационный инструмент CLI для ImageSearcher с собственной моделью и тестовыми данными.