Zobacz nowe #MadeWithTFJS dema na naszym następnym Show & Tell żywo w dniu paź 1, 9AM PT Oglądaj na YouTube

Co to jest uczenie się transferowe?

Wyrafinowane modele głębokiego uczenia mają miliony parametrów (wag), a ich uczenie od podstaw często wymaga dużych ilości danych zasobów obliczeniowych. Uczenie się transferowe to technika, która w znacznym stopniu skraca ten proces, biorąc fragment modelu, który został już przeszkolony w zakresie powiązanego zadania, i wykorzystując go ponownie w nowym modelu.

Na przykład następny samouczek w tej sekcji pokaże, jak zbudować własny aparat rozpoznawania obrazów, który korzysta z modelu, który został już przeszkolony w rozpoznawaniu tysięcy różnych rodzajów obiektów na obrazach. Możesz dostosować istniejącą wiedzę we wstępnie wytrenowanym modelu, aby wykryć własne klasy obrazu przy użyciu znacznie mniej danych szkoleniowych niż wymagany model oryginalny.

Jest to przydatne do szybkiego opracowywania nowych modeli, a także dostosowywania modeli w środowiskach o ograniczonych zasobach, takich jak przeglądarki i urządzenia mobilne.

Najczęściej podczas uczenia transferowego nie dostosowujemy wag oryginalnego modelu. Zamiast tego usuwamy ostatnią warstwę i trenujemy nowy (często dość płytki) model na wyjściu modelu obciętego. Jest to technika, którą zobaczysz w samouczkach w tej sekcji.