O TensorFlow Hub é um repositório completo de modelos pré-treinados prontos para ajustes finais e implantação em qualquer lugar. Faça o download dos últimos modelos de treinamento com uma quantidade mínima de código com a biblioteca tensorflow_hub.

Os seguintes tutoriais ajudarão você a começar a usar e aplicar modelos do TF Hub de acordo com suas necessidades. Os tutoriais interativos permitem modificá-los e executá-los com suas mudanças. Clique no botão Executar no Google Colab na parte superior de um tutorial para interagir com ele.

Se você não estiver familiarizado com o machine learning e o TensorFlow, comece com uma visão geral de como classificar imagens e texto, detectar objetos em imagens ou estilizando suas próprias imagens como obras famosas:

Crie um modelo da Keras com base em um classificador de imagens pré-treinado para distinguir flores.
Use o BERT para construir um modelo Keras para resolver uma tarefa de análise de sentimento de classificação de texto.
Deixe uma rede neural redesenhar uma imagem no estilo Picasso, Van Gogh ou no seu próprio estilo de imagem.
Detecte objetos em imagens usando modelos como FasterRCNN ou SSD.

Confira tutoriais avançados sobre como usar modelos NLP, de imagem, áudio e vídeo no TensorFlow Hub.

Resolva tarefas comuns de PLN com modelos do TensorFlow Hub. Veja todos os tutoriais de PLN disponíveis na navegação à esquerda.

Classifique e compare de forma semântica as frases com o codificador multilíngue de frases universais.
Use BERT para resolver tarefas de comparação GLUE sendo executadas na TPU.
Responda perguntas em vários idiomas do conjunto de dados SQuAD usando o modelo de perguntas e respostas do codificador de frases universais multilíngue.

Explore o uso de GANs, modelos de super-resolução e muito mais. Veja todos os tutoriais de imagem disponíveis na navegação à esquerda.

Gere rostos artificiais e faça a interpolação deles usando as redes adversárias generativas (GANs, na sigla em inglês).
Aumente a resolução de imagens reduzidas.
Preencha a parte mascarada de determinadas imagens.

Explore tutoriais usando modelos treinados para dados de áudio, incluindo reconhecimento de tom e classificação de som.

Grave-se cantando e detecte o tom da sua voz usando o modelo SPICE.
Use o modelo YAMNet para classificar sons em 521 classes de evento de áudio do corpus do AudioSet do YouTube.

Teste modelos de ML treinados por dados de vídeos para reconhecimento de ação, interpolação de vídeo e muito mais.

Detecte uma das 400 ações em um vídeo usando o modelo ConvNet 3D inflado.
Interpole entre frames de vídeo usando Inbetweening com convoluções 3D.
Encontre os vídeos mais relacionados a uma consulta de texto.