Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

Tensorflow estesa (TFX) è una piattaforma end-to-end per la distribuzione di produzione ML condutture

Quando si è pronti a spostare i modelli dalla ricerca alla produzione, l'uso TFX per creare e gestire una pipeline di produzione.

Run Colab

Questo tutorial interattivo guida attraverso ogni componente integrato di TFX.

Vedi tutorial

Esercitazioni mostrano come utilizzare TFX con completi, esempi end-to-end.

Consultare la guida

Guide spiegano i concetti e componenti di TFX.

Come funziona

Quando si è pronti ad andare oltre la formazione di un unico modello, o pronti a mettere il vostro modello di stupefacente al lavoro e spostarlo alla produzione, TFX è lì per aiutare a costruire una completa pipeline di ML.

Un TFX pipeline è una sequenza di componenti che implementano un oleodotto ML che è specificamente progettato per la macchina scalabile, ad alte prestazioni di apprendimento compiti. Che include modellazione, la formazione, che serve l'inferenza, e la gestione delle implementazioni di linea, mobili native, e gli obiettivi JavaScript. Per ulteriori informazioni, leggere la nostra TFX Guida per l'utente .

I componenti della pipeline sono costruiti utilizzando le librerie TFX che possono anche essere utilizzati singolarmente. Ecco una panoramica di queste librerie sottostanti.

Tensorflow convalida dei dati

Tensorflow Data Validation (TFDV) aiuta gli sviluppatori a capire, convalidare e controllare i loro dati ML su larga scala. TFDV viene utilizzato per analizzare e convalidare petabyte di dati a Google ogni giorno, ed ha una comprovata esperienza nell'aiutare gli utenti TFX mantenere la salute dei loro pipeline ML.

tensorflow Transform

Quando si applica l'apprendimento automatico di set di dati del mondo reale, un grande sforzo è necessario per i dati pre-elaborazione in un formato adatto. Questo include la conversione tra formati, creazione di token e derivanti testo e formando vocabolari, ed eseguendo una serie di operazioni numeriche quali la normalizzazione. Si può fare tutto con tf.Transform.

Tensorflow Modello di analisi

Tensorflow modello di analisi (TFMA) consente agli sviluppatori di calcolare e metriche di valutazione visualizza i per i loro modelli. Prima di distribuire qualsiasi modello di apprendimento automatico (ML), gli sviluppatori hanno bisogno di ML per valutare le prestazioni del modello per garantire che soddisfi le soglie e si comporta specifiche di qualità come previsto per tutte le sezioni rilevanti di dati. Ad esempio, un modello può avere un'AUC accettabile sull'intero insieme di dati Eval, ma underperform su fette specifici. TFMA offre agli sviluppatori gli strumenti per creare una profonda comprensione delle loro prestazioni modello.

tensorflow Serving

Machine Learning (ML) sistemi che servono bisogno di modello di supporto delle versioni (per gli aggiornamenti del modello con opzione di ripristino) e modelli multipli (per la sperimentazione tramite il test A / B), garantendo nel contempo che i modelli concorrenti a raggiungere un throughput elevato su acceleratori hardware (GPU e TPU) con bassa latenza. Tensorflow Serving ha dimostrato la manipolazione decine di milioni di inferenze al secondo a Google prestazioni.

Le soluzioni ai problemi più comuni

Esplora tutorial step-by-step per aiutarvi con i vostri progetti.

Intermedio
Treno e servire un modello tensorflow con tensorflow Serving

Questa guida si allena un modello di rete neurale per immagini Classificare di abbigliamento, come scarpe da ginnastica e camicie, salva il modello addestrato, e poi lo serve con tensorflow servizio. Il focus è sulla tensorflow Serve, piuttosto che la modellazione e la formazione in tensorflow.

Intermedio
Creare condutture TFX ospitati su Google Cloud

Un'introduzione alla tensorflow estesa (TFX) e Cloud Platform AI Pipelines per creare il proprio pipeline di machine learning su Google Cloud. Seguire un tipico processo di sviluppo ML, partendo esaminando il set di dati, e finendo con una pipeline di lavoro completo.

Intermedio
Utilizzare TFX con tensorflow Lite per l'inferenza on-device

Scopri come tensorflow estesa (TFX) in grado di creare e valutare modelli di apprendimento automatico che verranno distribuite on-device. TFX fornisce ora supporto nativo per TFLite, che rende possibile l'esecuzione inferenza altamente efficiente su dispositivi mobili.

Come le aziende stanno utilizzando TFX

Notizie e annunci

Controlla il nostro blog e YouTube playlist per i contenuti TFX aggiuntivo,
e iscriviti alla nostra newsletter mensile tensorflow per ottenere il
ultimi annunci inviati direttamente alla tua casella di posta.

8 giugno 2020  
Veloce, scalabile e NLP preciso: Perché TFX è un partner perfetto per la distribuzione BERT

Scopri come SAP Labs Concur semplificato l'implementazione di modelli BERT attraverso le biblioteche e le estensioni tensorflow in questa due parti blog.

Mar 11, 2020  
L'introduzione di cloud AI Piattaforma Pipelines

Annunciando il lancio della versione beta del Cloud Platform AI Pipelines, una, facile da installare, ambiente di esecuzione protetto enterprise-ready per il vostro ML flussi di lavoro.

Mar 11, 2020  
TFX: ML Produzione con tensorflow nel 2020 (TF Dev Summit '20)

Ulteriori informazioni su come la piattaforma di produzione ML Google, TFX, sta cambiando nel 2020. Visualizza un caso interessante di come Airbus utilizza TFX.

Continua
Mar 9, 2020
Native Keras in TFX

Il rilascio di tensorflow 2.0 ha portato molte nuove funzionalità e miglioramenti, tra cui la stretta integrazione con Keras. Scopri come TFX componenti supporto nativo Keras.