Formatos de modelo

tfhub.dev hospeda os seguintes formatos de modelo: TF2 SavedModel, formato TF1 Hub, TF.js e TFLite. Esta página fornece uma visão geral de cada formato de modelo.

O conteúdo publicado em tfhub.dev pode ser automaticamente espelhado em outros hubs modelo, desde que siga um formato especificado e seja permitido por nossos Termos ( https://tfhub.dev/terms ). Consulte nossa documentação de publicação para obter mais detalhes e nossa documentação de contribuição se desejar cancelar o espelhamento.

Formatos do TensorFlow

tfhub.dev hospeda modelos do TensorFlow no formato TF2 SavedModel e no formato TF1 Hub. Recomendamos usar modelos no formato TF2 SavedModel padronizado em vez do formato obsoleto TF1 Hub quando possível.

Modelo salvo

TF2 SavedModel é o formato recomendado para compartilhar modelos do TensorFlow. Você pode aprender mais sobre o formato SavedModel no guia TensorFlow SavedModel .

Você pode navegar pelos SavedModels em tfhub.dev usando o filtro de versão do TF2 na página de navegação tfhub.dev ou seguindo este link .

Você pode usar SavedModels de tfhub.dev sem depender da biblioteca tensorflow_hub , já que esse formato faz parte do núcleo do TensorFlow.

Saiba mais sobre SavedModels no TF Hub:

Formato TF1 Hub

O formato TF1 Hub é um formato de serialização personalizado usado pela biblioteca TF Hub. O formato TF1 Hub é semelhante ao formato SavedModel do TensorFlow 1 em um nível sintático (mesmos nomes de arquivos e mensagens de protocolo), mas semanticamente diferente para permitir a reutilização, composição e novo treinamento do módulo (por exemplo, armazenamento diferente de inicializadores de recursos, marcação diferente convenções para metagráficos). A maneira mais fácil de diferenciá-los no disco é a presença ou ausência do arquivo tfhub_module.pb .

Você pode procurar modelos no formato TF1 Hub em tfhub.dev usando o filtro de versão TF1 na página de navegação tfhub.dev ou seguindo este link .

Saiba mais sobre modelos no formato TF1 Hub no TF Hub:

Formato TFLite

O formato TFLite é usado para inferência no dispositivo. Você pode aprender mais na documentação do TFLite .

Você pode navegar pelos modelos TF Lite em tfhub.dev usando o filtro de formato de modelo TF Lite na página de navegação tfhub.dev ou seguindo este link .

Formato TFJS

O formato TF.js é usado para ML no navegador. Você pode aprender mais na documentação do TF.js.

Você pode navegar pelos modelos TF.js em tfhub.dev usando o filtro de formato de modelo TF.js na página de navegação tfhub.dev ou seguindo este link .