Google I/O to frajda! Nadrobić zaległości w sesjach TensorFlow Zobacz sesje

TensorFlow Hub to kompleksowe repozytorium wstępnie przeszkolonych modeli gotowych do dostrojenia i wdrażania w dowolnym miejscu. Pobierz najnowsze wytrenowane modele z minimalną ilością kodu za pomocą biblioteki tensorflow_hub .

Poniższe samouczki powinny pomóc w rozpoczęciu korzystania z modeli z TF Hub i ich stosowania zgodnie z własnymi potrzebami. Interaktywne samouczki pozwalają je modyfikować i wykonywać wraz ze zmianami. Kliknij przycisk Uruchom w Google Colab u góry interaktywnego samouczka, aby przy nim majstrować.

Jeśli nie jesteś zaznajomiony z uczeniem maszynowym i TensorFlow, możesz zacząć od przeglądu sposobów klasyfikowania obrazów i tekstu, wykrywania obiektów na obrazach lub stylizowania własnych obrazów, takich jak znane dzieła sztuki:

Zbuduj model Keras na podstawie wstępnie wyszkolonego klasyfikatora obrazów, aby rozróżniać kwiaty.
Użyj BERT, aby zbudować model Keras, aby rozwiązać zadanie analizy sentymentów klasyfikacji tekstu.
Pozwól sieci neuronowej przerysować obraz w stylu Picassa, van Gogha lub jak twój własny styl.
Wykrywaj obiekty na obrazach za pomocą modeli takich jak FasterRCNN lub SSD.

Zapoznaj się z bardziej zaawansowanymi samouczkami dotyczącymi korzystania z NLP, modeli obrazów, audio i wideo z TensorFlow Hub.

Rozwiązuj typowe zadania NLP za pomocą modeli z TensorFlow Hub. Wyświetl wszystkie dostępne samouczki NLP w lewym panelu nawigacyjnym.

Klasyfikuj i porównuj semantycznie zdania za pomocą Universal Sentence Encoder.
Użyj BERT, aby rozwiązać zadania testowe GLUE działające na TPU.
Odpowiadaj na wielojęzyczne pytania ze zbioru danych SQuAD, używając wielojęzycznego uniwersalnego modelu pytań i odpowiedzi do kodera zdań.

Dowiedz się, jak korzystać z sieci GAN, modeli o super rozdzielczości i nie tylko. Wyświetl wszystkie dostępne samouczki dotyczące obrazów w lewym panelu nawigacyjnym.

Generuj sztuczne twarze i interpoluj między nimi za pomocą GAN.
Zwiększ rozdzielczość próbkowanych w dół obrazów.
Wypełnij zamaskowaną część podanych obrazków.

Zapoznaj się z samouczkami używającymi wytrenowanych modeli do danych dźwiękowych, w tym rozpoznawania wysokości tonu i klasyfikacji dźwięku.

Nagraj swój śpiew i wykryj tonację swojego głosu za pomocą modelu SPICE.
Użyj modelu YAMNet, aby sklasyfikować dźwięki jako klasy zdarzeń audio 521 z korpusu AudioSet-YouTube.

Wypróbuj wyszkolone modele ML dla danych wideo do rozpoznawania akcji, interpolacji wideo i nie tylko.

Wykryj jedno z 400 działań w filmie za pomocą modelu Infflated 3D ConvNet.
Interpolacja między klatkami wideo za pomocą funkcji Inbetweening i 3D Convolutions.
Znajdź filmy, które są najbardziej związane z zapytaniem tekstowym.