TensorFlow Lite w usługach Google Play

TensorFlow Lite jest dostępny w środowisku wykonawczym usług Google Play dla wszystkich urządzeń z Androidem, na których działa aktualna wersja usług Play. To środowisko wykonawcze umożliwia uruchamianie modeli uczenia maszynowego (ML) bez statycznego dołączania bibliotek TensorFlow Lite do aplikacji.

Dzięki interfejsowi API usług Google Play możesz zmniejszyć rozmiar swoich aplikacji i uzyskać lepszą wydajność dzięki najnowszej stabilnej wersji bibliotek. TensorFlow Lite w usługach Google Play to zalecany sposób korzystania z TensorFlow Lite na Androidzie.

Możesz rozpocząć korzystanie ze środowiska uruchomieniowego usług Play za pomocą przewodnika Szybki start , który zawiera przewodnik krok po kroku dotyczący implementacji przykładowej aplikacji. Jeśli używasz już autonomicznego TensorFlow Lite w swojej aplikacji, zapoznaj się z sekcją Migracja z autonomicznego TensorFlow Lite, aby zaktualizować istniejącą aplikację, aby korzystała ze środowiska wykonawczego usług Play. Więcej informacji o usługach Google Play znajdziesz na stronie usług Google Play .

Korzystanie ze środowiska uruchomieniowego usług Play

TensorFlow Lite w usługach Google Play jest dostępny za pośrednictwem następującego interfejsu API języka programowania:

Ograniczenia

TensorFlow Lite w usługach Google Play ma następujące ograniczenia:

  • Obsługa delegatów akceleracji sprzętowej jest ograniczona do delegatów wymienionych w sekcji Akceleracja sprzętowa . Żadne inne delegaty przyspieszenia nie są obsługiwane.
  • Eksperymentalne lub przestarzałe interfejsy API TensorFlow Lite, w tym niestandardowe operacje, nie są obsługiwane.

Wsparcie i informacje zwrotne

Możesz przekazać opinię i uzyskać pomoc za pośrednictwem narzędzia do śledzenia problemów TensorFlow. Zgłaszaj problemy i prośby o pomoc, korzystając z szablonu problemu dla TensorFlow Lite w usługach Google Play.

Warunki usługi

Korzystanie z TensorFlow Lite w interfejsach API usług Google Play podlega Warunkom korzystania z usług API Google .

Prywatność i gromadzenie danych

Gdy używasz TensorFlow Lite w interfejsach API usług Google Play, przetwarzanie danych wejściowych, takich jak obrazy, wideo, tekst, odbywa się w całości na urządzeniu, a TensorFlow Lite w interfejsach API usług Google Play nie wysyła tych danych do serwerów Google. Dzięki temu możesz skorzystać z naszych API do przetwarzania danych, które nie powinny opuszczać urządzenia.

Interfejsy API TensorFlow Lite w usługach Google Play mogą od czasu do czasu kontaktować się z serwerami Google, aby otrzymać poprawki błędów, zaktualizowane modele i informacje o zgodności akceleratorów sprzętowych. TensorFlow Lite w interfejsach API usług Google Play wysyła również do Google metryki dotyczące wydajności i wykorzystania interfejsów API w Twojej aplikacji. Google wykorzystuje te dane do pomiaru wydajności, debugowania, utrzymywania i ulepszania interfejsów API oraz wykrywania nadużyć lub nadużyć, zgodnie z opisem w naszej Polityce prywatności .

Odpowiadasz za informowanie użytkowników Twojej aplikacji o przetwarzaniu przez Google danych dotyczących danych metryk TensorFlow Lite w interfejsach API usług Google Play zgodnie z wymogami obowiązującego prawa.

Gromadzone przez nas dane obejmują:

  • Informacje o urządzeniu (takie jak producent, model, wersja i kompilacja systemu operacyjnego) oraz dostępne akceleratory sprzętowe ML (GPU i DSP). Używany do diagnostyki i analizy użytkowania.
  • Identyfikator urządzenia używany do diagnostyki i analizy użytkowania.
  • Informacje o aplikacji (nazwa pakietu, wersja aplikacji). Używany do diagnostyki i analizy użytkowania.
  • Konfiguracja interfejsu API (na przykład, którzy delegaci są używani). Używany do diagnostyki i analizy użytkowania.
  • Typ zdarzenia (taki jak utworzenie interpretera, wnioskowanie). Używany do diagnostyki i analizy użytkowania.
  • Kody błędów. Używany do diagnostyki.
  • Wskaźniki wydajności. Używany do diagnostyki.

Następne kroki

Aby uzyskać więcej informacji na temat wdrażania uczenia maszynowego w aplikacji mobilnej za pomocą TensorFlow Lite, zobacz Przewodnik programisty TensorFlow Lite . Dodatkowe modele TensorFlow Lite do klasyfikacji obrazów, wykrywania obiektów i innych aplikacji można znaleźć w TensorFlow Hub .