Weź udział w sympozjum Women in ML 7 grudnia Zarejestruj się teraz

Zacznij od optymalizacji modelu TensorFlow

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

1. Wybierz najlepszy model do zadania

W zależności od zadania będziesz musiał dokonać kompromisu między złożonością modelu a rozmiarem. Jeśli Twoje zadanie wymaga dużej dokładności, możesz potrzebować dużego i złożonego modelu. W przypadku zadań wymagających mniejszej precyzji lepiej jest użyć mniejszego modelu, ponieważ nie tylko zajmują mniej miejsca na dysku i mniej pamięci, ale są też generalnie szybsze i bardziej energooszczędne.

2. Wstępnie zoptymalizowane modele

Sprawdź, czy jakiekolwiek istniejące wstępnie zoptymalizowane modele TensorFlow Lite zapewniają wydajność wymaganą przez Twoją aplikację.

3. Oprzyrządowanie poszkoleniowe

Jeśli nie możesz użyć wstępnie wytrenowanego modelu dla swojej aplikacji, spróbuj użyć narzędzi do kwantyzacji po szkoleniu TensorFlow Lite podczas konwersji TensorFlow Lite , które mogą zoptymalizować Twój już wytrenowany model TensorFlow.

Zobacz samouczek kwantyzacji po szkoleniu , aby dowiedzieć się więcej.

Kolejne kroki: Oprzyrządowanie czasu szkolenia

Jeśli powyższe proste rozwiązania nie spełniają Twoich potrzeb, być może będziesz musiał skorzystać z technik optymalizacji czasu szkolenia. Kontynuuj optymalizację dzięki naszym narzędziom do szkolenia i pracuj głębiej.