Unisciti alla community di SIG TFX-Addons e aiutaci a rendere TFX ancora migliore! Iscriviti a SIG TFX-Addons

La guida per l'utente di TFX

introduzione

TFX è una piattaforma di machine learning (ML) su scala di produzione di Google basata su TensorFlow. Fornisce un framework di configurazione e librerie condivise per integrare i componenti comuni necessari per definire, avviare e monitorare il tuo sistema di machine learning.

TFX 1.0

Siamo lieti di annunciare la disponibilità del TFX 1.0.0 . Questa è la versione post-beta iniziale di TFX, che fornisce API e artefatti pubblici stabili. Si può essere certi che il vostro futuro condutture TFX potranno continuare a lavorare dopo un aggiornamento nell'ambito di applicazione compatibilità definito in questo RFC .

Installazione

PitonePyPI

pip install tfx

Pacchetti notturni

TFX ospita anche pacchetti serale presso https://pypi-nightly.tensorflow.org su Google Cloud. Per installare l'ultimo pacchetto notturno, utilizzare il seguente comando:

pip install -i https://pypi-nightly.tensorflow.org/simple --pre tfx

Questo installerà i pacchetti notturni per le principali dipendenze di TFX come TensorFlow Model Analysis (TFMA), TensorFlow Data Validation (TFDV), TensorFlow Transform (TFT), TFX Basic Shared Libraries (TFX-BSL), ML Metadata (MLMD).

Informazioni su TFX

TFX è una piattaforma per la creazione e la gestione di flussi di lavoro ML in un ambiente di produzione. TFX fornisce quanto segue:

  • Un toolkit per la creazione di pipeline ML. Le pipeline TFX ti consentono di orchestrare il tuo flusso di lavoro ML su diverse piattaforme, come: Apache Airflow, Apache Beam e Kubeflow Pipelines.

    Ulteriori informazioni sulla pipeline TFX .

  • Un insieme di componenti standard che puoi usare come parte di una pipeline o come parte dello script di training ML. I componenti standard TFX forniscono funzionalità comprovate per aiutarti a iniziare a creare facilmente un processo di machine learning.

    Scopri di più su componenti standard TFX .

  • Librerie che forniscono la funzionalità di base per molti dei componenti standard. Puoi utilizzare le librerie TFX per aggiungere questa funzionalità ai tuoi componenti personalizzati o usarli separatamente.

    Ulteriori informazioni sulle librerie TFX .

TFX è un toolkit di machine learning su scala di produzione di Google basato su TensorFlow. Fornisce un framework di configurazione e librerie condivise per integrare i componenti comuni necessari per definire, avviare e monitorare il tuo sistema di machine learning.

Componenti standard TFX

Un TFX pipeline è una sequenza di componenti che implementano un oleodotto ML che è specificamente progettato per la macchina scalabile, ad alte prestazioni di apprendimento compiti. Ciò include la modellazione, la formazione, l'elaborazione dell'inferenza e la gestione delle distribuzioni su target online, mobili nativi e JavaScript.

Una pipeline TFX include in genere i seguenti componenti:

  • ExampleGen è il componente di ingresso iniziale di un oleodotto che ingerisce e divide opzionalmente il set di dati di ingresso.

  • StatisticsGen di calcolare le statistiche per il set di dati.

  • SchemaGen esamina le statistiche e crea uno schema di dati.

  • ExampleValidator cerca anomalie e valori mancanti nel set di dati.

  • Trasforma esegue funzionalità di ingegneria sul set di dati.

  • Trainer allena il modello.

  • Sintonizzatore sintonizza le iperparametri del modello.

  • Evaluator esegue l'analisi in profondità dei risultati della formazione e ti aiuta a convalidare i tuoi modelli esportati, assicurando che siano "abbastanza buono" per essere spinto alla produzione.

  • InfraValidator controlli il modello è in realtà servibile dall'infrastruttura e impedisce cattivo modello di essere spinto.

  • Pusher distribuisce il modello su un'infrastruttura di servire.

  • BulkInferrer l'elaborazione in batch esegue su un modello con le richieste di inferenza non etichettati.

Questo diagramma illustra il flusso di dati tra questi componenti:

Flusso dei componenti

Librerie TFX

TFX include sia le librerie che i componenti della pipeline. Questo diagramma illustra le relazioni tra le librerie TFX e i componenti della pipeline:

Librerie e componenti

TFX fornisce diversi pacchetti Python che sono le librerie utilizzate per creare componenti della pipeline. Utilizzerai queste librerie per creare i componenti delle tue pipeline in modo che il tuo codice possa concentrarsi sugli aspetti unici della tua pipeline.

Le librerie TFX includono:

  • Tensorflow Data Validation (TFDV) è una libreria per l'analisi e la validazione dei dati di apprendimento automatico. È progettato per essere altamente scalabile e per funzionare bene con TensorFlow e TFX. TFDV include:

    • Calcolo scalabile di statistiche riassuntive dei dati di allenamento e test.
    • Integrazione con un visualizzatore per distribuzioni di dati e statistiche, nonché confronto sfaccettato di coppie di set di dati (Facets).

    • Generazione automatizzata di schemi di dati per descrivere le aspettative sui dati come valori richiesti, intervalli e vocabolari.

    • Un visualizzatore di schemi per aiutarti a ispezionare lo schema.

    • Rilevamento di anomalie per identificare anomalie, come caratteristiche mancanti, valori fuori intervallo o tipi di caratteristiche errate, solo per citarne alcune.

    • Un visualizzatore di anomalie in modo che tu possa vedere quali caratteristiche hanno anomalie e saperne di più per correggerle.

  • Tensorflow Transform (TFT) è una libreria per la pre-elaborazione dei dati con tensorflow. TensorFlow Transform è utile per i dati che richiedono un passaggio completo, ad esempio:

    • Normalizzare un valore di input mediante media e deviazione standard.
    • Converti le stringhe in numeri interi generando un vocabolario su tutti i valori di input.
    • Converti i float in interi assegnandoli ai bucket in base alla distribuzione dei dati osservata.
  • Tensorflow viene utilizzato per la formazione modelli con TFX. Ingerisce i dati di training e il codice di modellazione e crea un risultato SavedModel. Integra inoltre una pipeline di progettazione delle funzionalità creata da TensorFlow Transform per la preelaborazione dei dati di input.

    KerasTuner viene utilizzato per iperparametri di tuning per il modello.

  • Tensorflow modello di analisi (TFMA) è una libreria per valutare modelli tensorflow. Viene utilizzato insieme a TensorFlow per creare un EvalSavedModel, che diventa la base per la sua analisi. Consente agli utenti di valutare i propri modelli su grandi quantità di dati in modo distribuito, utilizzando le stesse metriche definite nel proprio trainer. Queste metriche possono essere calcolate su diverse sezioni di dati e visualizzate nei notebook Jupyter.

  • Tensorflow metadati (TFMD) fornisce rappresentazioni standard per i metadati che sono utili quando la macchina di formazione modelli di apprendimento con tensorflow. I metadati possono essere prodotti manualmente o automaticamente durante l'analisi dei dati di input e possono essere utilizzati per la convalida, l'esplorazione e la trasformazione dei dati. I formati di serializzazione dei metadati includono:

    • Uno schema che descrive i dati tabulari (ad es. tf.Examples).
    • Una raccolta di statistiche riassuntive su tali set di dati.
  • ML metadati (MLMD) è una libreria per la registrazione e il recupero dei metadati associati con flussi di lavoro ML sviluppatori e scienziato dei dati. Molto spesso i metadati utilizzano rappresentazioni TFMD. MLMD gestisce la persistenza utilizzando SQL-Lite , MySQL , e altri archivi dati simili.

Tecnologie di supporto

Necessario

  • Apache fascio è una fonte aperta, modello unificato per definire sia in batch e lo streaming pipeline di elaborazione dati paralleli. TFX utilizza Apache Beam per implementare pipeline parallele ai dati. Il gasdotto viene quindi eseguita da uno dei supportate distribuiti di elaborazione back-end del fascio, che includono Apache Flink, Apache Spark, Google Cloud flusso di dati , e altri.

Opzionale

Gli orchestratori come Apache Airflow e Kubeflow semplificano la configurazione, il funzionamento, il monitoraggio e la manutenzione di una pipeline ML.

  • Apache Il flusso d'aria è una piattaforma a livello di programmazione autore, pianificare e monitorare i flussi di lavoro. TFX utilizza Airflow per creare flussi di lavoro come grafici aciclici diretti (DAG) di attività. Lo scheduler Airflow esegue le attività su un array di worker seguendo le dipendenze specificate. Le ricche utilità della riga di comando semplificano l'esecuzione di interventi chirurgici complessi sui DAG. La ricca interfaccia utente semplifica la visualizzazione delle pipeline in esecuzione in produzione, il monitoraggio dei progressi e la risoluzione dei problemi quando necessario. Quando i flussi di lavoro sono definiti come codice, diventano più manutenibili, modificabili, testabili e collaborativi.

  • Kubeflow è dedicato a rendere le implementazioni di apprendimento automatico (ML) i flussi di lavoro su kubernetes semplice, portatile e scalabile. L'obiettivo di Kubeflow non è ricreare altri servizi, ma fornire un modo semplice per distribuire i migliori sistemi open source per il machine learning a diverse infrastrutture. Kubeflow Condotte abilitare la composizione ed esecuzione di flussi di lavoro riproducibili su Kubeflow, integrati con esperienze basate sperimentazione e notebook. I servizi Kubeflow Pipelines su Kubernetes includono l'archivio dei metadati ospitato, il motore di orchestrazione basato su container, il server notebook e l'interfaccia utente per aiutare gli utenti a sviluppare, eseguire e gestire pipeline ML complesse su larga scala. Kubeflow Pipelines SDK consente la creazione e la condivisione di componenti e la composizione di pipeline in modo programmatico.

Portabilità e interoperabilità

TFX è stato progettato per essere portabile su più ambienti e framework di orchestrazione, tra cui Apache del flusso d'aria , Apache Trave e Kubeflow . E 'anche portatile per diverse piattaforme di calcolo, tra cui on-premise e piattaforme cloud, come il Cloud Platform di Google (GCP) . In particolare, interagisce con i servizi TFX GCP gestiti serveral, come AI Cloud Platform per la formazione e la previsione , e cloud Dataflow per i dati distribuiti di elaborazione per molti altri aspetti del ciclo di vita ML.

Modello vs. Modello salvato

Modello

Un modello è l'output del processo di formazione. È il record serializzato dei pesi che sono stati appresi durante il processo di addestramento. Questi pesi possono essere successivamente utilizzati per calcolare le previsioni per nuovi esempi di input. Per TFX e TensorFlow, "modello" si riferisce ai checkpoint contenenti i pesi appresi fino a quel punto.

Nota che "modello" potrebbe anche fare riferimento alla definizione del grafico di calcolo TensorFlow (cioè un file Python) che esprime come verrà calcolata una previsione. I due sensi possono essere usati in modo intercambiabile in base al contesto.

Modello salvato

  • Che cosa è un SavedModel : un universale, indipendente dal linguaggio, ermetica, la serializzazione recuperabile di un modello tensorflow.
  • Perché è importante: Permette sistemi di livello superiore di produrre, trasformare e consumare modelli tensorflow utilizzando un unico astrazione.

SavedModel è il formato di serializzazione consigliato per servire un modello TensorFlow in produzione o esportare un modello addestrato per un'applicazione mobile o JavaScript nativa. Ad esempio, per trasformare un modello in un servizio REST per effettuare previsioni, è possibile serializzare il modello come SavedModel e servirlo utilizzando TensorFlow Serving. Vedere Serve un modello tensorflow per ulteriori informazioni.

Schema

Alcuni componenti TFX utilizzano una descrizione dei dati di input chiamati uno schema. Lo schema è un esempio di schema.proto . Schemi sono un tipo di buffer del protocollo , più generalmente noto come "protobuf". Lo schema può specificare i tipi di dati per i valori delle caratteristiche, se una caratteristica deve essere presente in tutti gli esempi, gli intervalli di valori consentiti e altre proprietà. Uno dei vantaggi dell'utilizzo di TensorFlow Data Validation (TFDV) è che genererà automaticamente uno schema deducendo tipi, categorie e intervalli dai dati di addestramento.

Ecco un estratto da un protobuf dello schema:

...
feature {
  name: "age"
  value_count {
    min: 1
    max: 1
  }
  type: FLOAT
  presence {
    min_fraction: 1
    min_count: 1
  }
}
feature {
  name: "capital-gain"
  value_count {
    min: 1
    max: 1
  }
  type: FLOAT
  presence {
    min_fraction: 1
    min_count: 1
  }
}
...

I seguenti componenti utilizzano lo schema:

  • Convalida dei dati TensorFlow
  • Trasformazione TensorFlow

In una tipica pipeline TFX, TensorFlow Data Validation genera uno schema, che viene utilizzato dagli altri componenti.

Sviluppare con TFX

TFX fornisce una potente piattaforma per ogni fase di un progetto di machine learning, dalla ricerca, sperimentazione e sviluppo sulla tua macchina locale, fino alla distribuzione. Al fine di codice di evitare duplicazioni e di eliminare il rischio di formazione / porzione skew si consiglia vivamente di implementare pipeline TFX sia per la formazione e l'impiego di modelli addestrati modello, e l'uso Transform componenti che sfruttano la tensorflow Transform biblioteca sia per la formazione e l'inferenza. In questo modo utilizzerai lo stesso codice di pre-elaborazione e analisi in modo coerente ed eviterai differenze tra i dati utilizzati per il training e i dati inviati ai modelli addestrati in produzione, oltre a trarre vantaggio dalla scrittura di quel codice una volta.

Esplorazione, visualizzazione e pulizia dei dati

Esplorazione, visualizzazione e pulizia dei dati

Condotte TFX tipicamente iniziano con un ExampleGen componente, che accetta dati di input e formati esso come tf.Examples. Spesso questo viene fatto dopo che i dati sono stati suddivisi in set di dati di addestramento e valutazione in modo che ci siano effettivamente due copie dei componenti di ExampleGen, uno ciascuno per l'addestramento e la valutazione. Questo è in genere seguito da uno StatisticsGen componenti e uno SchemaGen componente, che esaminerà i dati e dedurre uno schema dati e alle statistiche. Lo schema e le statistiche saranno consumati da un ExampleValidator componente, che cercherà anomalie, valori mancanti, ei tipi di dati non corretti nei dati. Tutti questi componenti sfruttare le capacità del tensorflow Data Validation biblioteca.

Tensorflow Data Validation (TFDV) è uno strumento prezioso quando si fa prima esplorazione, la visualizzazione e la pulizia del vostro set di dati. TFDV esamina i tuoi dati e deduce i tipi di dati, le categorie e gli intervalli, quindi aiuta automaticamente a identificare anomalie e valori mancanti. Fornisce inoltre strumenti di visualizzazione che possono aiutarti a esaminare e comprendere il tuo set di dati. Dopo le tue Completa di tubazioni è possibile leggere i metadati da MLMD e utilizzare gli strumenti di visualizzazione di TFDV in un quaderno Jupyter per analizzare i dati.

Dopo l'addestramento e l'implementazione del modello iniziale, TFDV può essere utilizzato per monitorare i nuovi dati dalle richieste di inferenza ai modelli implementati e cercare anomalie e/o deviazioni. Ciò è particolarmente utile per i dati di serie temporali che cambiano nel tempo a causa di tendenze o stagionalità e può aiutare a informare quando si verificano problemi con i dati o quando i modelli devono essere riaddestrati su nuovi dati.

Visualizzazione dati

Dopo aver completato la prima esecuzione dei dati attraverso la sezione della pipeline che utilizza TFDV (tipicamente StatisticsGen, SchemaGen e ExampleValidator) puoi visualizzare i risultati in un notebook in stile Jupyter. Per ulteriori esecuzioni è possibile confrontare questi risultati man mano che si apportano modifiche, fino a quando i dati non sono ottimali per il modello e l'applicazione.

Per prima cosa interrogare ML metadati (MLMD) per individuare i risultati di queste esecuzioni di questi componenti, e quindi utilizzare l'API di supporto visualizzazione in TFDV per creare le visualizzazioni nel vostro notebook. Questo include tfdv.load_statistics () e tfdv.visualize_statistics () Usando questa visualizzazione si può meglio comprendere le caratteristiche del set di dati, e se necessario, modifica, come richiesto.

Sviluppo e formazione di modelli

Ingegneria delle caratteristiche

Un tipico gasdotto TFX includerà un Transform componente, che eseguirà l'ingegneria funzionalità sfruttando le capacità del tensorflow Transform (TFT) biblioteca. Una trasformazione consuma componenti lo schema creato da una componente SchemaGen, e si applica trasformazioni di dati per creare, unire, e trasformare le caratteristiche che verranno utilizzati per addestrare il vostro modello. La pulizia dei valori mancanti e la conversione dei tipi dovrebbero essere eseguite anche nel componente Trasforma se esiste la possibilità che questi siano presenti anche nei dati inviati per le richieste di inferenza. Ci sono alcune considerazioni importanti quando si progetta il codice tensorflow per la formazione in TFX.

Modellazione e Formazione

Il risultato di un componente di trasformazione è un SavedModel che verrà importato e utilizzato nel codice di modellazione in tensorflow, nel corso di un allenatore componente. Questo SavedModel include tutte le trasformazioni di ingegneria dei dati che sono state create nel componente Transform, in modo che le trasformazioni identiche vengano eseguite utilizzando lo stesso identico codice durante l'addestramento e l'inferenza. Utilizzando il codice di modellazione, incluso il SavedModel dal componente Transform, puoi utilizzare i tuoi dati di addestramento e valutazione e addestrare il tuo modello.

Quando si lavora con modelli basati su Estimator, l'ultima sezione del codice di modellazione dovrebbe salvare il modello sia come SavedModel che come EvalSavedModel. Il salvataggio come EvalSavedModel garantisce che le metriche utilizzate durante l'addestramento siano disponibili anche durante la valutazione (si noti che ciò non è richiesto per i modelli basati su Keras). Salvataggio di un EvalSavedModel richiede che si importa il tensorflow modello di analisi (TFMA) biblioteca nel componente Trainer.

import tensorflow_model_analysis as tfma
...

tfma.export.export_eval_savedmodel(
        estimator=estimator,
        export_dir_base=eval_model_dir,
        eval_input_receiver_fn=receiver_fn)

Un optional Tuner componente può essere aggiunto prima Trainer per sintonizzare le iperparametri (per esempio, numero di strati) per il modello. Con il modello dato e lo spazio di ricerca degli iperparametri, l'algoritmo di ottimizzazione troverà i migliori iperparametri in base all'obiettivo.

Analisi e comprensione delle prestazioni del modello

Analisi del modello

Dopo lo sviluppo e l'addestramento iniziali del modello, è importante analizzare e comprendere realmente le prestazioni del modello. Un tipico gasdotto TFX includerà un'Evaluator componente, che sfrutta le capacità del tensorflow Modello di analisi (TFMA) biblioteca, che fornisce una serie di strumenti di potere per questa fase di sviluppo. Componente un valutatore consuma il modello che è stato esportato al di sopra, e consente di specificare un elenco di tfma.SlicingSpec che è possibile utilizzare quando la visualizzazione e l'analisi delle prestazioni del modello. Ogni SlicingSpec definisce una fetta dei tuoi dati di allenamento che si desidera esaminare, come ad esempio particolari categorie di funzioni categoriali, o particolari gamme per caratteristiche numeriche.

Ad esempio, questo sarebbe importante per cercare di comprendere le prestazioni del modello per i diversi segmenti dei clienti, che potrebbero essere segmentati per acquisti annuali, dati geografici, fascia di età o sesso. Ciò può essere particolarmente importante per i set di dati con code lunghe, in cui le prestazioni di un gruppo dominante possono mascherare prestazioni inaccettabili per gruppi importanti ma più piccoli. Ad esempio, il tuo modello potrebbe funzionare bene per i dipendenti medi ma fallire miseramente per il personale dirigente e potrebbe essere importante per te saperlo.

Analisi e visualizzazione del modello

Dopo aver completato il primo giro dei dati attraverso la formazione il vostro modello e l'esecuzione del Valutatore componente (che fa leva TFMA ) sui risultati della formazione, è possibile visualizzare i risultati in un notebook stile Jupyter. Per ulteriori esecuzioni è possibile confrontare questi risultati man mano che si apportano modifiche, fino a quando i risultati non saranno ottimali per il modello e l'applicazione.

Per prima cosa interrogare ML metadati (MLMD) per individuare i risultati di queste esecuzioni di questi componenti, e quindi utilizzare l'API di supporto visualizzazione in TFMA per creare le visualizzazioni nel vostro notebook. Questo include tfma.load_eval_results e tfma.view.render_slicing_metrics Utilizzando questa visualizzazione si può meglio comprendere le caratteristiche del modello, e se necessario, modifica, come richiesto.

Convalida delle prestazioni del modello

Come parte dell'analisi delle prestazioni di un modello, potresti voler convalidare le prestazioni rispetto a una linea di base (come il modello attualmente in uso). Validazione dei modelli viene eseguita facendo passare sia un candidato e il modello di riferimento per il valutatore componente. Il valutatore calcola le metriche (ad es. AUC, perdita) sia per il candidato che per la linea di base insieme a una serie corrispondente di metriche diff. Le soglie possono quindi essere applicate e utilizzate per portare i tuoi modelli in produzione.

Convalidare che un modello può essere servito

Convalida Infra

Prima di distribuire il modello addestrato, potresti voler convalidare se il modello è realmente utilizzabile nell'infrastruttura di servizio. Ciò è particolarmente importante negli ambienti di produzione per garantire che il modello appena pubblicato non impedisca al sistema di servire le previsioni. L'InfraValidator componente effettua una distribuzione canarino del modello in un ambiente sandbox, ed eventualmente inviare richieste reali per verificare che il modello funziona correttamente.

Obiettivi di distribuzione

Dopo aver sviluppato e addestrato un modello di cui sei soddisfatto, è il momento di distribuirlo su uno o più target di distribuzione in cui riceverà richieste di inferenza. TFX supporta la distribuzione su tre classi di destinazioni di distribuzione. I modelli addestrati che sono stati esportati come SavedModels possono essere distribuiti a una o tutte queste destinazioni di distribuzione.

Flusso dei componenti

Inferenza: servizio di TensorFlow

Tensorflow servizio (TFS) è un sistema che serve ad alte prestazioni per i modelli flessibili di apprendimento macchina, progettata per ambienti di produzione. Utilizza un SavedModel e accetterà richieste di inferenza su interfacce REST o gRPC. Funziona come un insieme di processi su uno o più server di rete, utilizzando una delle numerose architetture avanzate per gestire la sincronizzazione e il calcolo distribuito. Vedere la documentazione di TFS per ulteriori informazioni sullo sviluppo e distribuzione di soluzioni TFS.

In una pipeline tipico, un SavedModel che è stato addestrato in un Trainer componente dovrebbe prima essere infra-validato in un InfraValidator componente. InfraValidator avvia un server modello TFS canarino per servire effettivamente il modello salvato. Se la convalida è passato, un Pusher componente finalmente distribuire l'SavedModel per l'infrastruttura TFS. Ciò include la gestione di più versioni e aggiornamenti del modello.

Inferenza in applicazioni mobili e IoT native: TensorFlow Lite

Tensorflow Lite è una suite di strumenti che è dedicato agli sviluppatori di aiuto utilizzare i loro modelli tensorflow formati in applicazioni mobili e dell'Internet degli oggetti nativi. Utilizza gli stessi modelli salvati di TensorFlow Serving e applica ottimizzazioni come la quantizzazione e l'eliminazione per ottimizzare le dimensioni e le prestazioni dei modelli risultanti per le sfide dell'esecuzione su dispositivi mobili e IoT. Consultare la documentazione di TensorFlow Lite per ulteriori informazioni sull'utilizzo di TensorFlow Lite.

Inferenza in JavaScript: TensorFlow JS

Tensorflow JS è una libreria JavaScript per la formazione e la distribuzione di modelli ML nel browser e su Node.js. Utilizza gli stessi SavedModel di TensorFlow Serving e TensorFlow Lite e li converte nel formato Web TensorFlow.js. Consulta la documentazione di TensorFlow JS per maggiori dettagli sull'utilizzo di TensorFlow JS.

Creazione di una pipeline TFX con flusso d'aria

Controllare il flusso d'aria laboratorio per i dettagli

Creazione di una pipeline TFX con Kubeflow

Impostare

Kubeflow richiede un cluster Kubernetes per eseguire le pipeline su larga scala. Vedere la linea guida dispiegamento Kubeflow che guida attraverso le opzioni per la distribuzione del cluster Kubeflow.

Configura ed esegui la pipeline TFX

Si prega di seguire il TFX su Cloud Platform AI Pipeline esercitazione per eseguire l'esempio gasdotto TFX su Kubeflow. I componenti TFX sono stati containerizzati per comporre la pipeline Kubeflow e l'esempio illustra la possibilità di configurare la pipeline per leggere set di dati pubblici di grandi dimensioni ed eseguire fasi di formazione ed elaborazione dati su larga scala nel cloud.

Interfaccia a riga di comando per le azioni della pipeline

TFX fornisce una CLI unificata che aiuta a eseguire una gamma completa di azioni della pipeline come creare, aggiornare, eseguire, elencare ed eliminare pipeline su vari orchestratori tra cui Apache Airflow, Apache Beam e Kubeflow. Per ulteriori informazioni, si prega di seguire le istruzioni .