TensorFlow Core API の概要

TensorFlow コア API は、高性能 (分散型および高速化された) 計算のための包括的で構成可能かつ拡張可能な低レベル API のセットを提供します。これは主に機械学習 (ML) モデルの構築と、ML ワークフロー ツールおよびフレームワークのオーサリングを目的としています。 TensorFlow プラットフォーム。これらの API は、きめ細かい制御と新しいフレームワークを備えた高度に構成可能なモデルをゼロから作成するための基盤を提供します。

Core API は、Keras のような高レベルの機械学習 API の代替として使用できます。これらの高レベル API は、一般的な機械学習のニーズに最適です。これらは、ML の複雑さを抽象化するさまざまなモジュールを提供すると同時に、サブクラス化によるカスタマイズのための機能も提供します。 Keras を使用した TensorFlow の概要を探している場合は、チュートリアルの「クイックスタート」セクションと「Keras」セクションを参照してください。

コア API を使用するのは誰ですか

TensorFlow コアの低レベル API は、次の ML 開発者を念頭に置いて設計されています。

  • 高レベルの構成可能性を備えた複雑なモデルを構築する研究者
  • TensorFlow を高性能科学コンピューティング プラットフォームとして使用することに興味のある開発者
  • TensorFlow プラットフォーム上にツールを構築するフレームワーク作成者
  • 高レベル API ユーザーは以下に興味があります:
    • カスタムレイヤー、損失、モデル、オプティマイザーなどの追加機能を機械学習ワークフローに追加する
    • モデルの内部動作について詳しく学ぶ

コア API アプリケーション

TensorFlow コア API は、TensorFlow エコシステム内の低レベルの機能へのアクセスを提供します。この API は、Keras などの高レベル API と比較して、ML モデル、アプリケーション、ツールを構築するためのより高い柔軟性と制御を提供します。

モデルとワークフローを構築する

コア API は、高度にカスタマイズ可能で最適化された機械学習モデルとワークフローを構築するために最も一般的に使用されます。 TensorFlow コア API が機械学習モデルとワークフロー開発を改善できる方法のいくつかを次に示します。

TensorFlow

  • 高レベル API でサポートされる構造に完全に適合しない非従来型のモデルまたはレイヤーを構築する
  • Keras 内でカスタム レイヤー、損失、モデル、オプティマイザーを構築する
  • トレーニング中の収束を促進するための新しい最適化手法の実装
  • パフォーマンス評価用のカスタム指標の作成
  • バッチ処理、相互検証、分散戦略などの機能をサポートする、高度に構成可能なトレーニング ループの設計

フレームワークとツールを構築する

TensorFlow コア API は、新しい高レベル フレームワークの構成要素としても機能します。低レベル API を使用して作成されたツールとフレームワークの例をいくつか示します。 TensorFlow

科学計算用に構築する

TensorFlow コア API は、機械学習の領域外にも適用できます。以下に、科学技術コンピューティングにおける TensorFlow の汎用ユースケースをいくつか示します。 TensorFlow

コア API コンポーネント

TensorFlow Core の低レベル API を構成する基本コンポーネントの一部を次に示します。これはすべてを網羅したリストではないことに注意してください。

TensorFlow

次のステップ

Build with Coreドキュメントでは、基本的な機械学習の概念をゼロから説明するチュートリアルが提供されます。このセクションのチュートリアルは、コア API を使用した低レベル コードの作成に慣れ、その後、独自のより複雑なユース ケースに適用できるようにするのに役立ちます。

Core API の使用を開始し、さらに学習するには、 「TensorFlow Core のクイックスタート」を確認してください。