Odpowiedz już dziś na lokalne wydarzenie TensorFlow Everywhere!
Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

Zacznij od optymalizacji modelu TensorFlow

1. Wybierz najlepszy model do zadania

W zależności od zadania będziesz musiał dokonać kompromisu między złożonością modelu a rozmiarem. Jeśli Twoje zadanie wymaga dużej dokładności, możesz potrzebować dużego i złożonego modelu. W przypadku zadań wymagających mniejszej precyzji lepiej jest użyć mniejszego modelu, ponieważ nie tylko zużywają mniej miejsca na dysku i pamięci, ale są również generalnie szybsze i bardziej energooszczędne.

2. Modele wstępnie zoptymalizowane

Sprawdź, czy jakiekolwiek istniejące wstępnie zoptymalizowane modele TensorFlow Lite zapewniają wydajność wymaganą przez Twoją aplikację.

3. Oprzyrządowanie po treningu

Jeśli nie możesz użyć wstępnie wytrenowanego modelu dla swojej aplikacji, spróbuj użyć narzędzi kwantyzacji po szkoleniu TensorFlow Lite podczas konwersji TensorFlow Lite , które mogą zoptymalizować już wyszkolony model TensorFlow.

Zobacz samouczek dotyczący kwantyzacji po szkoleniu, aby dowiedzieć się więcej.

Kolejne kroki: Oprzyrządowanie w czasie szkolenia

Jeśli powyższe proste rozwiązania nie spełniają Twoich potrzeb, może być konieczne zastosowanie technik optymalizacji czasu szkolenia. Optymalizuj dalej dzięki naszym narzędziom do szkolenia i kop głębiej.