Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

Co to jest uczenie się transferowe?

Wyrafinowane modele głębokiego uczenia mają miliony parametrów (wag), a ich uczenie od podstaw często wymaga dużych ilości danych zasobów obliczeniowych. Uczenie się transferowe to technika, która w znacznym stopniu upraszcza ten proces, biorąc fragment modelu, który został już przeszkolony w zakresie powiązanego zadania, i wykorzystując go ponownie w nowym modelu.

Na przykład następny samouczek w tej sekcji pokaże, jak zbudować własny aparat rozpoznawania obrazów, który wykorzystuje model, który został już przeszkolony w rozpoznawaniu tysięcy różnych rodzajów obiektów na obrazach. Możesz dostosować istniejącą wiedzę we wstępnie wytrenowanym modelu, aby wykryć własne klasy obrazu przy użyciu znacznie mniej danych szkoleniowych niż wymagany model oryginalny.

Jest to przydatne do szybkiego opracowywania nowych modeli, a także dostosowywania modeli w środowiskach o ograniczonych zasobach, takich jak przeglądarki i urządzenia mobilne.

Najczęściej podczas uczenia transferowego nie dostosowujemy wag oryginalnego modelu. Zamiast tego usuwamy ostatnią warstwę i trenujemy nowy (często dość płytki) model na wyjściu modelu obciętego. Jest to technika, którą zobaczysz w samouczkach w tej sekcji.