このページは Cloud Translation API によって翻訳されました。
Switch to English

テンソルの概要

TensorFlow.orgで見る Google Colabで実行 GitHubでソースを表示する ノートブックをダウンロード
 import tensorflow as tf
import numpy as np
 

テンソルは、均一なタイプ( dtypeと呼ばれる)の多次元配列です。サポートdtypesれているすべてのdtypestf.dtypes.DTypeで確認できます。

NumPyに精通している場合、テンソルはnp.arraysようなものnp.arrays

すべてのテンソルはPythonの数値や文字列のように不変です。テンソルの内容を更新することはできず、新しいテンソルを作成するだけです。

基本

基本的なテンソルをいくつか作成しましょう。

これが「スカラー」または「ランク0」テンソルです。スカラーには単一の値が含まれ、「軸」は含まれません。

 # This will be an int32 tensor by default; see "dtypes" below.
rank_0_tensor = tf.constant(4)
print(rank_0_tensor)
 
tf.Tensor(4, shape=(), dtype=int32)

「ベクトル」または「ランク1」テンソルは、値のリストのようなものです。ベクトルには1軸があります。

 # Let's make this a float tensor.
rank_1_tensor = tf.constant([2.0, 3.0, 4.0])
print(rank_1_tensor)
 
tf.Tensor([2. 3. 4.], shape=(3,), dtype=float32)

「行列」または「ランク2」テンソルには2軸があります。

 # If we want to be specific, we can set the dtype (see below) at creation time
rank_2_tensor = tf.constant([[1, 2],
                             [3, 4],
                             [5, 6]], dtype=tf.float16)
print(rank_2_tensor)
 
tf.Tensor(
[[1. 2.]
 [3. 4.]
 [5. 6.]], shape=(3, 2), dtype=float16)

スカラー、形状: [] ベクトル、形状: [3] 行列、形状: [3, 2]
スカラー、数43つのセクションがあり、それぞれに番号が含まれている行。3x2グリッド。各セルに数値が含まれています。

テンソルにはより多くの軸がある場合があります。これは3軸のテンソルです。

 # There can be an arbitrary number of
# axes (sometimes called "dimensions")
rank_3_tensor = tf.constant([
  [[0, 1, 2, 3, 4],
   [5, 6, 7, 8, 9]],
  [[10, 11, 12, 13, 14],
   [15, 16, 17, 18, 19]],
  [[20, 21, 22, 23, 24],
   [25, 26, 27, 28, 29]],])
                    
print(rank_3_tensor)
 
tf.Tensor(
[[[ 0  1  2  3  4]
  [ 5  6  7  8  9]]

 [[10 11 12 13 14]
  [15 16 17 18 19]]

 [[20 21 22 23 24]
  [25 26 27 28 29]]], shape=(3, 2, 5), dtype=int32)

2軸を超えるテンソルを可視化する方法はたくさんあります。

3軸テンソル、形状: [3, 2, 5] 3、2、5 [3, 2, 5]

np.arrayまたはtensor.numpyメソッドを使用して、テンソルをNumPy配列に変換できます。

 np.array(rank_2_tensor)
 
array([[1., 2.],
       [3., 4.],
       [5., 6.]], dtype=float16)
 rank_2_tensor.numpy()
 
array([[1., 2.],
       [3., 4.],
       [5., 6.]], dtype=float16)

テンソルには浮動小数点数と整数が含まれていることがよくありますが、次のような他の多くのタイプがあります。

  • 複素数
  • 文字列

基本のtf.Tensorクラスでは、テンソルが「長方形」である必要があります。つまり、各軸に沿って、すべての要素は同じサイズです。ただし、さまざまな形状を処理できる特殊なタイプのTensorがあります。

加算、要素ごとの乗算、行列の乗算など、テンソルに関する基本的な計算を行うことができます。

 a = tf.constant([[1, 2],
                 [3, 4]])
b = tf.constant([[1, 1],
                 [1, 1]]) # Could have also said `tf.ones([2,2])`

print(tf.add(a, b), "\n")
print(tf.multiply(a, b), "\n")
print(tf.matmul(a, b), "\n")
 
tf.Tensor(
[[2 3]
 [4 5]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[1 2]
 [3 4]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[3 3]
 [7 7]], shape=(2, 2), dtype=int32) 


 print(a + b, "\n") # element-wise addition
print(a * b, "\n") # element-wise multiplication
print(a @ b, "\n") # matrix multiplication
 
tf.Tensor(
[[2 3]
 [4 5]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[1 2]
 [3 4]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[3 3]
 [7 7]], shape=(2, 2), dtype=int32) 


テンソルは、あらゆる種類の演算(op)で使用されます。

 c = tf.constant([[4.0, 5.0], [10.0, 1.0]])

# Find the largest value
print(tf.reduce_max(c))
# Find the index of the largest value
print(tf.argmax(c))
# Compute the softmax
print(tf.nn.softmax(c))
 
tf.Tensor(10.0, shape=(), dtype=float32)
tf.Tensor([1 0], shape=(2,), dtype=int64)
tf.Tensor(
[[2.6894143e-01 7.3105860e-01]
 [9.9987662e-01 1.2339458e-04]], shape=(2, 2), dtype=float32)

形状について

テンソルには形状があります。いくつかの語彙:

  • 形状 :テンソルの各次元の長さ(要素数)。
  • ランク :テンソル次元の数。スカラーのランクは0、ベクトルのランクは1、行列のランクは2です。
  • または次元 :テンソルの特定の次元。
  • サイズ :テンソル内のアイテムの総数、製品形状ベクトル

Tensorsおよびtf.TensorShapeオブジェクトには、これらにアクセスするための便利なプロパティがあります。

 rank_4_tensor = tf.zeros([3, 2, 4, 5])
 
ランク4のテンソル、形状: [3, 2, 4, 5] 3、2、4、5 [3, 2, 4, 5]
テンソル形状はベクトルのようなものです。4軸テンソル
 print("Type of every element:", rank_4_tensor.dtype)
print("Number of dimensions:", rank_4_tensor.ndim)
print("Shape of tensor:", rank_4_tensor.shape)
print("Elements along axis 0 of tensor:", rank_4_tensor.shape[0])
print("Elements along the last axis of tensor:", rank_4_tensor.shape[-1])
print("Total number of elements (3*2*4*5): ", tf.size(rank_4_tensor).numpy())
 
Type of every element: <dtype: 'float32'>
Number of dimensions: 4
Shape of tensor: (3, 2, 4, 5)
Elements along axis 0 of tensor: 3
Elements along the last axis of tensor: 5
Total number of elements (3*2*4*5):  120

軸はインデックスによって参照されることがよくありますが、それぞれの意味を常に追跡する必要があります。多くの場合、軸はグローバルからローカルに順序付けられます。最初にバッチ軸、次に空間ディメンション、最後に各場所のフィーチャが続きます。このように、特徴ベクトルはメモリの連続した領域です。

典型的な軸の順序
各軸が何であるかを追跡します。 4軸テンソルは、バッチ、幅、高さ、フレアになります。

索引付け

単軸割出し

TensorFlowは、Pythonでのリストまたは文字列のインデックス作成と同様の標準のPythonインデックス作成ルール、およびNumPyインデックス作成の基本ルールに従います。

  • インデックスは0から始まります
  • 負のインデックスは最後から逆に数えます
  • コロン: 、スライスのstart:stop:step使用されます
 rank_1_tensor = tf.constant([0, 1, 1, 2, 3, 5, 8, 13, 21, 34])
print(rank_1_tensor.numpy())
 
[ 0  1  1  2  3  5  8 13 21 34]

スカラーを使用してインデックスを作成すると、次元が削除されます。

 print("First:", rank_1_tensor[0].numpy())
print("Second:", rank_1_tensor[1].numpy())
print("Last:", rank_1_tensor[-1].numpy())
 
First: 0
Second: 1
Last: 34

:スライスを使用したインデックス付けは、次元を保持します。

 print("Everything:", rank_1_tensor[:].numpy())
print("Before 4:", rank_1_tensor[:4].numpy())
print("From 4 to the end:", rank_1_tensor[4:].numpy())
print("From 2, before 7:", rank_1_tensor[2:7].numpy())
print("Every other item:", rank_1_tensor[::2].numpy())
print("Reversed:", rank_1_tensor[::-1].numpy())
 
Everything: [ 0  1  1  2  3  5  8 13 21 34]
Before 4: [0 1 1 2]
From 4 to the end: [ 3  5  8 13 21 34]
From 2, before 7: [1 2 3 5 8]
Every other item: [ 0  1  3  8 21]
Reversed: [34 21 13  8  5  3  2  1  1  0]

多軸インデックス

上位のテンソルは、複数のインデックスを渡すことでインデックス化されます。

単軸の場合とまったく同じ規則が、各軸に個別に適用されます。

 print(rank_2_tensor.numpy())
 
[[1. 2.]
 [3. 4.]
 [5. 6.]]

各インデックスに整数を渡すと、結果はスカラーになります。

 # Pull out a single value from a 2-rank tensor
print(rank_2_tensor[1, 1].numpy())
 
4.0

整数とスライスの任意の組み合わせを使用してインデックスを作成できます。

 # Get row and column tensors
print("Second row:", rank_2_tensor[1, :].numpy())
print("Second column:", rank_2_tensor[:, 1].numpy())
print("Last row:", rank_2_tensor[-1, :].numpy())
print("First item in last column:", rank_2_tensor[0, -1].numpy())
print("Skip the first row:")
print(rank_2_tensor[1:, :].numpy(), "\n")
 
Second row: [3. 4.]
Second column: [2. 4. 6.]
Last row: [5. 6.]
First item in last column: 2.0
Skip the first row:
[[3. 4.]
 [5. 6.]] 


以下は、3軸テンソルの例です。

 print(rank_3_tensor[:, :, 4])
 
tf.Tensor(
[[ 4  9]
 [14 19]
 [24 29]], shape=(3, 2), dtype=int32)

バッチ内の各例のすべての場所で最後の機能を選択する
最後に選択した軸のインデックス4にあるすべての値を含む3x2x5テンソル。選択した値は2軸テンソルにパックされます。

形状を操作する

テンソルの形状を変更することは非常に便利です。

基になるデータを複製する必要がないため、 tf.reshape操作は高速で安価です。

 # Shape returns a `TensorShape` object that shows the size on each dimension
var_x = tf.Variable(tf.constant([[1], [2], [3]]))
print(var_x.shape)
 
(3, 1)

 # You can convert this object into a Python list, too
print(var_x.shape.as_list())
 
[3, 1]

テンソルを新しい形状に変形できます。基礎となるデータを複製する必要がないため、再形成は高速で安価です。

 # We can reshape a tensor to a new shape.
# Note that we're passing in a list
reshaped = tf.reshape(var_x, [1, 3])
 
 print(var_x.shape)
print(reshaped.shape)
 
(3, 1)
(1, 3)

データはそのレイアウトをメモリに保持し、要求された形状で同じデータを指す新しいテンソルが作成されます。 TensorFlowは、Cスタイルの「行優先」メモリ順序を使用します。右端のインデックスの増加は、メモリ内の1つのステップに対応します。

 print(rank_3_tensor)
 
tf.Tensor(
[[[ 0  1  2  3  4]
  [ 5  6  7  8  9]]

 [[10 11 12 13 14]
  [15 16 17 18 19]]

 [[20 21 22 23 24]
  [25 26 27 28 29]]], shape=(3, 2, 5), dtype=int32)

テンソルをフラット化すると、メモリに配置された順序を確認できます。

 # A `-1` passed in the `shape` argument says "Whatever fits".
print(tf.reshape(rank_3_tensor, [-1]))
 
tf.Tensor(
[ 0  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
 24 25 26 27 28 29], shape=(30,), dtype=int32)

通常、 tf.reshape唯一の妥当な使用tf.reshapeは、隣接する軸を結合または分割する(または1追加/削除する)ことです。

この3x2x5テンソルの場合、スライスが混在しないため、(3x2)x5または3x(2x5)に再形成することはどちらも妥当なことです。

 print(tf.reshape(rank_3_tensor, [3*2, 5]), "\n")
print(tf.reshape(rank_3_tensor, [3, -1]))
 
tf.Tensor(
[[ 0  1  2  3  4]
 [ 5  6  7  8  9]
 [10 11 12 13 14]
 [15 16 17 18 19]
 [20 21 22 23 24]
 [25 26 27 28 29]], shape=(6, 5), dtype=int32) 

tf.Tensor(
[[ 0  1  2  3  4  5  6  7  8  9]
 [10 11 12 13 14 15 16 17 18 19]
 [20 21 22 23 24 25 26 27 28 29]], shape=(3, 10), dtype=int32)

いくつかの良い形。
3x2x5テンソル同じデータを(3x2)x5に再形成同じデータを3x(2x5)に再形成

形状変更は、要素の総数が同じである新しい形状に対しては「機能」しますが、軸の順序を尊重しないと何も役に立ちません。

tf.reshape軸の入れ替えはtf.reshapeしません。そのためにはtf.transposeが必要です。

 # Bad examples: don't do this

# You can't reorder axes with reshape.
print(tf.reshape(rank_3_tensor, [2, 3, 5]), "\n") 

# This is a mess
print(tf.reshape(rank_3_tensor, [5, 6]), "\n")

# This doesn't work at all
try:
  tf.reshape(rank_3_tensor, [7, -1])
except Exception as e:
  print(f"{type(e).__name__}: {e}")
 
tf.Tensor(
[[[ 0  1  2  3  4]
  [ 5  6  7  8  9]
  [10 11 12 13 14]]

 [[15 16 17 18 19]
  [20 21 22 23 24]
  [25 26 27 28 29]]], shape=(2, 3, 5), dtype=int32) 

tf.Tensor(
[[ 0  1  2  3  4  5]
 [ 6  7  8  9 10 11]
 [12 13 14 15 16 17]
 [18 19 20 21 22 23]
 [24 25 26 27 28 29]], shape=(5, 6), dtype=int32) 

InvalidArgumentError: Input to reshape is a tensor with 30 values, but the requested shape requires a multiple of 7 [Op:Reshape]

いくつかの悪い形作り。
軸を並べ替えることはできません。tf.transposeを使用してくださいデータのスライスを混ぜ合わせるものはおそらく間違っています。新しい形状は正確にフィットする必要があります。

完全に指定されていない形状にまたがることがあります。形状にNone (次元の長さが不明)が含まれるか、形状がNone (テンソルのランクが不明)のいずれかです。

tf.RaggedTensorを除いて、これはTensorFlowのシンボリックなグラフ作成APIのコンテキストでのみ発生します。

DTypes詳細

tf.Tensorのデータ型を検査するには、 Tensor.dtypeプロパティを使用します。

Pythonオブジェクトからtf.Tensorを作成する場合、オプションでデータ型を指定できます。

そうでない場合、TensorFlowはデータを表すことができるデータ型を選択します。 TensorFlowはPythonの整数に変換tf.int32に浮動小数点数とPython tf.float32 。それ以外の場合、TensorFlowは配列への変換時にNumPyが使用するのと同じルールを使用します。

タイプからタイプにキャストできます。

 the_f64_tensor = tf.constant([2.2, 3.3, 4.4], dtype=tf.float64)
the_f16_tensor = tf.cast(the_f64_tensor, dtype=tf.float16)
# Now, let's cast to an uint8 and lose the decimal precision
the_u8_tensor = tf.cast(the_f16_tensor, dtype=tf.uint8)
print(the_u8_tensor)
 
tf.Tensor([2 3 4], shape=(3,), dtype=uint8)

放送

ブロードキャストは、 NumPyの同等の機能から借用した概念です。つまり、特定の条件下では、小さいテンソルが自動的に「引き伸ばされ」、それらに対して複合演算を実行すると、大きいテンソルがフィットします。

最も単純で最も一般的なケースは、テンソルを乗算またはスカラーに追加しようとする場合です。その場合、スカラーは他の引数と同じ形状になるようにブロードキャストされます。

 x = tf.constant([1, 2, 3])

y = tf.constant(2)
z = tf.constant([2, 2, 2])
# All of these are the same computation
print(tf.multiply(x, 2))
print(x * y)
print(x * z)
 
tf.Tensor([2 4 6], shape=(3,), dtype=int32)
tf.Tensor([2 4 6], shape=(3,), dtype=int32)
tf.Tensor([2 4 6], shape=(3,), dtype=int32)

同様に、1サイズの寸法は、他の引数と一致するように引き伸ばすことができます。両方の引数を同じ計算で引き伸ばすことができます。

この場合、3x1マトリックスは、要素ごとに1x4マトリックスで乗算され、3x4マトリックスが生成されます。先頭の1がオプションであることに注意してください。yの形状は[4]です。

 # These are the same computations
x = tf.reshape(x,[3,1])
y = tf.range(1, 5)
print(x, "\n")
print(y, "\n")
print(tf.multiply(x, y))
 
tf.Tensor(
[[1]
 [2]
 [3]], shape=(3, 1), dtype=int32) 

tf.Tensor([1 2 3 4], shape=(4,), dtype=int32) 

tf.Tensor(
[[ 1  2  3  4]
 [ 2  4  6  8]
 [ 3  6  9 12]], shape=(3, 4), dtype=int32)

放送追加[3, 1][1, 4]得られる[3,4]
3x1マトリックスを4x1マトリックスに追加すると、3x4マトリックスになります。

ブロードキャストなしの同じ操作は次のとおりです。

 x_stretch = tf.constant([[1, 1, 1, 1],
                         [2, 2, 2, 2],
                         [3, 3, 3, 3]])

y_stretch = tf.constant([[1, 2, 3, 4],
                         [1, 2, 3, 4],
                         [1, 2, 3, 4]])

print(x_stretch * y_stretch)  # Again, operator overloading
 
tf.Tensor(
[[ 1  2  3  4]
 [ 2  4  6  8]
 [ 3  6  9 12]], shape=(3, 4), dtype=int32)

ほとんどの場合、ブロードキャスト操作は時間とスペースの両方に効率的です。これは、ブロードキャスト操作によってメモリ内の拡張テンソルが実現されることはないためです。

tf.broadcast_toを使用すると、 tf.broadcast_toます。

 print(tf.broadcast_to(tf.constant([1, 2, 3]), [3, 3]))
 
tf.Tensor(
[[1 2 3]
 [1 2 3]
 [1 2 3]], shape=(3, 3), dtype=int32)

たとえば、数学的な演算とは異なり、 broadcast_toはメモリを節約するために特別なことは何もしません。ここでは、テンソルを具体化しています。

それはさらに複雑になる可能性があります。 Jake VanderPlasの著書「 Python Data Science Handbook」このセクションでは、さらにNumPyの放送トリックを紹介しています。

tf.convert_to_tensor

tf.matmultf.reshapeなどのほとんどのtf.reshapeは、クラスtf.Tensor引数を取ります。ただし、上記の場合は、テンソルのような形のPythonオブジェクトを頻繁に渡すことに気付くでしょう。

すべてではありませんが、ほとんどのopsは、テンソル以外の引数に対してconvert_to_tensorを呼び出しconvert_to_tensor 。そこの変換のレジストリがある、とnumpyののようなほとんどのオブジェクトクラスndarrayTensorShape 、Pythonのリスト、およびtf.Variableすべて自動的に変換されます。

詳細についてはtf.register_tensor_conversion_functionを参照してください。独自のタイプがある場合は、自動的にテンソルに変換する必要があります。

不規則テンソル

一部の軸に沿って可変数の要素を持つテンソルは、「不揃い」と呼ばれます。不規則なデータにはtf.ragged.RaggedTensorを使用します。

たとえば、これは通常のテンソルとして表すことはできません。

tf.RaggedTensor 、形状: [4, None]
2軸の不規則なテンソル。各行は異なる長さを持つことができます。
 ragged_list = [
    [0, 1, 2, 3],
    [4, 5],
    [6, 7, 8],
    [9]]
 
 try:
  tensor = tf.constant(ragged_list)
except Exception as e:
  print(f"{type(e).__name__}: {e}")
 
ValueError: Can't convert non-rectangular Python sequence to Tensor.

代わりに作成tf.RaggedTensor使用してtf.ragged.constant

 ragged_tensor = tf.ragged.constant(ragged_list)
print(ragged_tensor)
 
<tf.RaggedTensor [[0, 1, 2, 3], [4, 5], [6, 7, 8], [9]]>

tf.RaggedTensorの形状には未知の次元が含まれています。

 print(ragged_tensor.shape)
 
(4, None)

ストリングテンソル

tf.stringtf.stringです。 dtype 、データをテンソルの文字列(可変長バイト配列)として表すことができます。

文字列はアトミックであり、Python文字列のようにインデックスを付けることはできません。文字列の長さはテンソルの次元の1つではありません。それらを操作する関数については、 tf.stringsを参照してください。

これがスカラー文字列テンソルです:

 # Tensors can be strings, too here is a scalar string.
scalar_string_tensor = tf.constant("Gray wolf")
print(scalar_string_tensor)
 
tf.Tensor(b'Gray wolf', shape=(), dtype=string)

そして文字列のベクトル:

文字列のベクトル、形状: [3,]
文字列の長さはテンソルの軸の1つではありません。
 # If we have three string tensors of different lengths, this is OK.
tensor_of_strings = tf.constant(["Gray wolf",
                                 "Quick brown fox",
                                 "Lazy dog"])
# Note that the shape is (3,). The string length is not included.
print(tensor_of_strings)
 
tf.Tensor([b'Gray wolf' b'Quick brown fox' b'Lazy dog'], shape=(3,), dtype=string)

上記の出力では、 b接頭辞はtf.string dtypeがUnicode文字列ではなくバイト文字列であることを示しています。 TensorFlowでのUnicodeテキストの操作の詳細については、 Unicodeチュートリアルをご覧ください。

ユニコード文字を渡すと、それらはutf-8でエンコードされます。

 tf.constant("🥳👍")
 
<tf.Tensor: shape=(), dtype=string, numpy=b'\xf0\x9f\xa5\xb3\xf0\x9f\x91\x8d'>

文字列を使用するいくつかの基本的な関数は、 tf.stringsを含むtf.strings.splitます。

 # We can use split to split a string into a set of tensors
print(tf.strings.split(scalar_string_tensor, sep=" "))
 
tf.Tensor([b'Gray' b'wolf'], shape=(2,), dtype=string)

 # ...but it turns into a `RaggedTensor` if we split up a tensor of strings,
# as each string might be split into a different number of parts.
print(tf.strings.split(tensor_of_strings))
 
<tf.RaggedTensor [[b'Gray', b'wolf'], [b'Quick', b'brown', b'fox'], [b'Lazy', b'dog']]>

3つのストリングが分割され、形状: [3, None]
複数の文字列を分割すると、tf.RaggedTensorが返されます

そしてtf.string.to_number

 text = tf.constant("1 10 100")
print(tf.strings.to_number(tf.strings.split(text, " ")))
 
tf.Tensor([  1.  10. 100.], shape=(3,), dtype=float32)

tf.castを使用して文字列テンソルを数値に変換することはできませんが、それをバイトに変換してから数値に変換することができます。

 byte_strings = tf.strings.bytes_split(tf.constant("Duck"))
byte_ints = tf.io.decode_raw(tf.constant("Duck"), tf.uint8)
print("Byte strings:", byte_strings)
print("Bytes:", byte_ints)
 
Byte strings: tf.Tensor([b'D' b'u' b'c' b'k'], shape=(4,), dtype=string)
Bytes: tf.Tensor([ 68 117  99 107], shape=(4,), dtype=uint8)

 # Or split it up as unicode and then decode it
unicode_bytes = tf.constant("アヒル 🦆")
unicode_char_bytes = tf.strings.unicode_split(unicode_bytes, "UTF-8")
unicode_values = tf.strings.unicode_decode(unicode_bytes, "UTF-8")

print("\nUnicode bytes:", unicode_bytes)
print("\nUnicode chars:", unicode_char_bytes)
print("\nUnicode values:", unicode_values)
 

Unicode bytes: tf.Tensor(b'\xe3\x82\xa2\xe3\x83\x92\xe3\x83\xab \xf0\x9f\xa6\x86', shape=(), dtype=string)

Unicode chars: tf.Tensor([b'\xe3\x82\xa2' b'\xe3\x83\x92' b'\xe3\x83\xab' b' ' b'\xf0\x9f\xa6\x86'], shape=(5,), dtype=string)

Unicode values: tf.Tensor([ 12450  12498  12523     32 129414], shape=(5,), dtype=int32)

tf.string dtypeは、TensorFlowのすべての未加工バイトデータに使用されます。 tf.ioモジュールには、画像のデコードやcsvの解析など、データをバイト間で変換するための関数が含まれています。

スパーステンソル

非常に広い埋め込みスペースのように、データがまばらな場合があります。 TensorFlowはtf.sparse.SparseTensorおよびスパースデータを効率的に格納するための関連操作をサポートしています。

tf.SparseTensor 、形状: [3, 4]
2つのセルのみの値を持つ3x4グリッド。
 # Sparse tensors store values by index in a memory-efficient manner
sparse_tensor = tf.sparse.SparseTensor(indices=[[0, 0], [1, 2]],
                                       values=[1, 2],
                                       dense_shape=[3, 4])
print(sparse_tensor, "\n")

# We can convert sparse tensors to dense
print(tf.sparse.to_dense(sparse_tensor))
 
SparseTensor(indices=tf.Tensor(
[[0 0]
 [1 2]], shape=(2, 2), dtype=int64), values=tf.Tensor([1 2], shape=(2,), dtype=int32), dense_shape=tf.Tensor([3 4], shape=(2,), dtype=int64)) 

tf.Tensor(
[[1 0 0 0]
 [0 0 2 0]
 [0 0 0 0]], shape=(3, 4), dtype=int32)