Join the SIG TFX-Addons community and help make TFX even better!

TensorFlow Extended (TFX) 是端對端平台,用於部署生產環境中的機器學習管線

當你準備好將模型從研究投入到實際生產,可使用 TFX 來建立及管理生產環境管線。

執行 Colab

這個互動式教學課程會逐步介紹 TFX 的每個內建元件。

查看教學課程

教學課程會示範如何使用 TFX,內容包含完整的端對端範例。

參閱指南

說明 TFX 概念與元件的指南。

運作方式

TFX 管線是實作機器學習管線的一系列元件,專門用於可擴充的高效能機器學習工作,元件是使用 TFX 程式庫所打造,而這些程式庫也可以分開使用。

常見問題的解決方案

探索可協助你完成專案的逐步教學課程。

中等
使用 TensorFlow Serving 來訓練及提供 TensorFlow 模型

這份指南會訓練類神經網路模型將衣物 (例如運動鞋和襯衫) 的圖片分類、儲存經過訓練的模型,然後使用 TensorFlow Serving 來提供模型。指南內容側重於 TensorFlow Serving,而不是在 TensorFlow 中建立模型和進行訓練。

中等
建立 Google Cloud 託管的 TFX 管線

介紹 TensorFlow Extended (TFX) 和 Cloud AI 平台管道,讓你在 Google Cloud 上建立自己的機器學習管線。遵循一般機器學習開發流程,一開始先檢查資料集,最後產生完整的作業管線。

中等
搭配 TensorFlow Lite 使用 TFX,在裝置上執行推論

瞭解 TensorFlow Extended (TFX) 如何建立及評估將在裝置端部署的機器學習模型。TFX 現在原生支援 TFLite,因此可以在行動裝置上執行推論,而且成效相當卓越。

最新消息與公告

請前往我們的網誌YouTube 播放清單查看其他 TFX 內容,
並訂閱我們每月發行的 TensorFlow 電子報,
直接從你的收件匣收取最新公告。

May 19, 2021  
Check out the TFX 1.0 stable release

Many partners and developers have contributed to the project, and now TFX 1.0 is here! In addition to support for NLP, mobile and web applications, the new release provides stable public APIs and artifacts for TFX OSS users.

May 19, 2021  
Does your app use ML? Make it a product with TFX

Learn how Google creates ML products using TFX. TFX runs just about anywhere, including in Cloud AI Pipelines. Training your model is just the beginning, but you can go from zero to hero with Production ML by using TFX, and make your amazing application ready for the world!

Continue
May 18, 2021  
Speed-up your sites with web-page prefetching using ML

Improve website user experience by training a custom machine learning model with site navigation data to predict next pages, and use an Angular app to prefetch the content and improve site speed.

May 6, 2021  
Using TFX inference with Dataflow for large scale ML inference patterns

Learn how you can efficiently deploy a model using TFX RunInference API with Google Cloud Dataflow. This post provides a walkthrough of common scenarios, from standard inference, to post processing and the use of RunInference API in multiple locations in the pipeline.