Czym jest uczenie transferowe?

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Zaawansowane modele uczenia głębokiego mają miliony parametrów (wagi), a uczenie ich od podstaw często wymaga dużej ilości danych zasobów obliczeniowych. Transfer uczenia się to technika, która znacznie skraca ten proces, biorąc fragment modelu, który został już przeszkolony w odniesieniu do powiązanego zadania, i ponownie wykorzystując go w nowym modelu.

Na przykład w następnym samouczku w tej sekcji pokazano, jak zbudować własny aparat rozpoznawania obrazów, który wykorzystuje model, który został już przeszkolony do rozpoznawania tysięcy różnych rodzajów obiektów w obrazach. Możesz dostosować istniejącą wiedzę we wstępnie wytrenowanym modelu, aby wykrywać własne klasy obrazów przy użyciu znacznie mniej danych szkoleniowych niż wymagany oryginalny model.

Jest to przydatne do szybkiego opracowywania nowych modeli, a także dostosowywania modeli w środowiskach o ograniczonych zasobach, takich jak przeglądarki i urządzenia mobilne.

Najczęściej podczas uczenia transferowego nie dostosowujemy wag oryginalnego modelu. Zamiast tego usuwamy ostatnią warstwę i trenujemy nowy (często dość płytki) model na podstawie danych wyjściowych modelu obciętego. Jest to technika, którą zademonstrujesz w samouczkach w tej sekcji.