Интеграция текстовых поисковиков

Оптимизируйте свои подборки Сохраняйте и классифицируйте контент в соответствии со своими настройками.

Текстовый поиск позволяет искать семантически похожий текст в корпусе. Он работает путем встраивания поискового запроса в многомерный вектор, представляющий семантическое значение запроса, с последующим поиском сходства в предварительно определенном пользовательском индексе с использованием ScaNN (масштабируемые ближайшие соседи).

В отличие от текстовой классификации (например , классификатор естественного языка Берта ), увеличение количества распознаваемых элементов не требует повторного обучения всей модели. Новые элементы можно добавлять, просто перестраивая индекс. Это также позволяет работать с большими (более 100 000 элементов) корпусами.

Используйте API TextSearcher библиотеки задач, чтобы развернуть свой пользовательский текстовый поиск в мобильных приложениях.

Основные возможности API TextSearcher

  • Принимает на вход одну строку, выполняет извлечение встраивания и поиск ближайшего соседа в индексе.

  • Обработка входного текста, включая токенизацию Wordpiece или Sentencepiece в графе или вне графа во входном тексте.

Предпосылки

Прежде чем использовать TextSearcher API, необходимо создать индекс на основе пользовательского набора текстов для поиска. Этого можно добиться с помощью Model Maker Searcher API , следуя и адаптируя руководство .

Для этого вам понадобится:

  • модель встраивания текста TFLite, например универсальный кодировщик предложений. Например,
    • тот, кто прошел переобучение в этом Colab , который оптимизирован для логического вывода на устройстве. Для запроса текстовой строки на Pixel 6 требуется всего 6 мс.
    • квантованный , который меньше, чем приведенный выше, но занимает 38 мс для каждого встраивания.
  • ваш корпус текста.

После этого шага у вас должна быть автономная модель поисковика TFLite (например, mobilenet_v3_searcher.tflite ), которая является исходной моделью встраивания текста с индексом, прикрепленным к метаданным модели TFLite .

Выполнить вывод в Java

Шаг 1: Импорт зависимости Gradle и других настроек

Скопируйте файл модели поисковика .tflite в каталог assets модуля Android, где будет запускаться модель. Укажите, что файл не должен быть сжат, и добавьте библиотеку TensorFlow Lite в файл build.gradle модуля:

android {
    // Other settings

    // Specify tflite index file should not be compressed for the app apk
    aaptOptions {
        noCompress "tflite"
    }

}

dependencies {
    // Other dependencies

    // Import the Task Vision Library dependency (NNAPI is included)
    implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.0'
    // Import the GPU delegate plugin Library for GPU inference
    implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.0'
}

Шаг 2: Использование модели

// Initialization
TextSearcherOptions options =
    TextSearcherOptions.builder()
        .setBaseOptions(BaseOptions.builder().useGpu().build())
        .setSearcherOptions(
            SearcherOptions.builder().setL2Normalize(true).build())
        .build();
TextSearcher textSearcher =
    textSearcher.createFromFileAndOptions(context, modelFile, options);

// Run inference
List<NearestNeighbor> results = textSearcher.search(text);

Дополнительные параметры для настройки TextSearcher см. в исходном коде и javadoc .

Запустить вывод на C++

// Initialization
TextSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<TextSearcher> text_searcher = TextSearcher::CreateFromOptions(options).value();

// Run inference with your input, `input_text`.
const SearchResult result = text_searcher->Search(input_text).value();

Дополнительные параметры настройки TextSearcher см. в исходном коде .

Запустить вывод в Python

Шаг 1: Установите пакет поддержки TensorFlow Lite Pypi.

Вы можете установить пакет Pypi для поддержки TensorFlow Lite, используя следующую команду:

pip install tflite-support

Шаг 2: Использование модели

from tflite_support.task import text

# Initialization
text_searcher = text.TextSearcher.create_from_file(model_path)

# Run inference
result = text_searcher.search(text)

Дополнительные параметры настройки TextSearcher см. в исходном коде .

Пример результатов

Results:
 Rank#0:
  metadata: The sun was shining on that day.
  distance: 0.04618
 Rank#1:
  metadata: It was a sunny day.
  distance: 0.10856
 Rank#2:
  metadata: The weather was excellent.
  distance: 0.15223
 Rank#3:
  metadata: The cat is chasing after the mouse.
  distance: 0.34271
 Rank#4:
  metadata: He was very happy with his newly bought car.
  distance: 0.37703

Попробуйте простой демонстрационный инструмент CLI для TextSearcher с собственной моделью и тестовыми данными.