このページは Cloud Translation API によって翻訳されました。
Switch to English

テンソルの紹介

TensorFlow.orgで表示 GoogleColabで実行GitHubでソースを表示ノートブックをダウンロード
import tensorflow as tf
import numpy as np

テンソルは、均一な型( dtypeと呼ばれる)を持つ多次元配列です。サポートdtypesれているすべてのdtypestf.dtypes.DTypeで確認できます。

NumPyに精通している場合、テンソルは(一種の) np.arraysようなものnp.arrays

すべてのテンソルはPythonの数値や文字列のように不変です。テンソルの内容を更新することはできず、新しいテンソルを作成するだけです。

基本

いくつかの基本的なテンソルを作成しましょう。

これが「スカラー」または「ランク0」のテンソルです。スカラーには単一の値が含まれ、「軸」は含まれません。

# This will be an int32 tensor by default; see "dtypes" below.
rank_0_tensor = tf.constant(4)
print(rank_0_tensor)
tf.Tensor(4, shape=(), dtype=int32)

「ベクトル」または「ランク1」テンソルは、値のリストのようなものです。ベクトルには1軸があります。

# Let's make this a float tensor.
rank_1_tensor = tf.constant([2.0, 3.0, 4.0])
print(rank_1_tensor)
tf.Tensor([2. 3. 4.], shape=(3,), dtype=float32)

「行列」または「ランク2」テンソルには2つの軸があります。

# If you want to be specific, you can set the dtype (see below) at creation time
rank_2_tensor = tf.constant([[1, 2],
                             [3, 4],
                             [5, 6]], dtype=tf.float16)
print(rank_2_tensor)
tf.Tensor(
[[1. 2.]
 [3. 4.]
 [5. 6.]], shape=(3, 2), dtype=float16)

スカラー、形状: []ベクトル、形状: [3]マトリックス、形状: [3, 2]
スカラー、数43つのセクションがあり、それぞれに番号が含まれている行。各セルに数値が含まれる3x2グリッド。

テンソルはより多くの軸を持つ可能性があります。これは3軸のテンソルです。

# There can be an arbitrary number of
# axes (sometimes called "dimensions")
rank_3_tensor = tf.constant([
  [[0, 1, 2, 3, 4],
   [5, 6, 7, 8, 9]],
  [[10, 11, 12, 13, 14],
   [15, 16, 17, 18, 19]],
  [[20, 21, 22, 23, 24],
   [25, 26, 27, 28, 29]],])

print(rank_3_tensor)
tf.Tensor(
[[[ 0  1  2  3  4]
  [ 5  6  7  8  9]]

 [[10 11 12 13 14]
  [15 16 17 18 19]]

 [[20 21 22 23 24]
  [25 26 27 28 29]]], shape=(3, 2, 5), dtype=int32)

2軸以上のテンソルを視覚化する方法はたくさんあります。

3軸テンソル、形状: [3, 2, 5] 3、2、5 [3, 2, 5]

np.arrayまたはtensor.numpyメソッドを使用して、テンソルをNumPy配列に変換できます。

np.array(rank_2_tensor)
array([[1., 2.],
       [3., 4.],
       [5., 6.]], dtype=float16)
rank_2_tensor.numpy()
array([[1., 2.],
       [3., 4.],
       [5., 6.]], dtype=float16)

テンソルにはfloatとintが含まれることがよくありますが、次のような他の多くのタイプがあります。

  • 複素数
  • 文字列

基本のtf.Tensorクラスでは、テンソルが「長方形」である必要があります---つまり、各軸に沿って、すべての要素が同じサイズです。ただし、さまざまな形状を処理できる特殊なタイプのテンサーがあります。

加算、要素ごとの乗算、行列の乗算など、テンソルの基本的な計算を行うことができます。

a = tf.constant([[1, 2],
                 [3, 4]])
b = tf.constant([[1, 1],
                 [1, 1]]) # Could have also said `tf.ones([2,2])`

print(tf.add(a, b), "\n")
print(tf.multiply(a, b), "\n")
print(tf.matmul(a, b), "\n")
tf.Tensor(
[[2 3]
 [4 5]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[1 2]
 [3 4]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[3 3]
 [7 7]], shape=(2, 2), dtype=int32) 


print(a + b, "\n") # element-wise addition
print(a * b, "\n") # element-wise multiplication
print(a @ b, "\n") # matrix multiplication
tf.Tensor(
[[2 3]
 [4 5]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[1 2]
 [3 4]], shape=(2, 2), dtype=int32) 

tf.Tensor(
[[3 3]
 [7 7]], shape=(2, 2), dtype=int32) 


テンソルはあらゆる種類の操作(ops)で使用されます。

c = tf.constant([[4.0, 5.0], [10.0, 1.0]])

# Find the largest value
print(tf.reduce_max(c))
# Find the index of the largest value
print(tf.argmax(c))
# Compute the softmax
print(tf.nn.softmax(c))
tf.Tensor(10.0, shape=(), dtype=float32)
tf.Tensor([1 0], shape=(2,), dtype=int64)
tf.Tensor(
[[2.6894143e-01 7.3105860e-01]
 [9.9987662e-01 1.2339458e-04]], shape=(2, 2), dtype=float32)

形について

テンソルには形があります。いくつかの語彙:

  • 形状:テンソルの各次元の長さ(要素の数)。
  • ランク:テンソル次元の数。スカラーのランクは0、ベクトルのランクは1、行列のランクは2です。
  • または次元:テンソルの特定の次元。
  • サイズ:テンソル内のアイテムの総数、製品の形状ベクトル

Tensorsおよびtf.TensorShapeオブジェクトには、これらにアクセスするための便利なプロパティがあります。

rank_4_tensor = tf.zeros([3, 2, 4, 5])
ランク4テンソル、形状: [3, 2, 4, 5] 3、2、4、5 [3, 2, 4, 5]
テンソル形状はベクトルのようなものです。4軸テンソル
print("Type of every element:", rank_4_tensor.dtype)
print("Number of dimensions:", rank_4_tensor.ndim)
print("Shape of tensor:", rank_4_tensor.shape)
print("Elements along axis 0 of tensor:", rank_4_tensor.shape[0])
print("Elements along the last axis of tensor:", rank_4_tensor.shape[-1])
print("Total number of elements (3*2*4*5): ", tf.size(rank_4_tensor).numpy())
Type of every element: <dtype: 'float32'>
Number of dimensions: 4
Shape of tensor: (3, 2, 4, 5)
Elements along axis 0 of tensor: 3
Elements along the last axis of tensor: 5
Total number of elements (3*2*4*5):  120

軸はインデックスによって参照されることがよくありますが、常にそれぞれの意味を追跡する必要があります。多くの場合、軸はグローバルからローカルの順に並べられます。最初にバッチ軸、次に空間ディメンション、最後に各場所のフィーチャが続きます。このように、特徴ベクトルはメモリの連続した領域です。

典型的な軸の順序
各軸が何であるかを追跡します。 4軸テンソルは次のようになります:バッチ、幅、高さ、温度

インデックス作成

単軸インデックス

TensorFlowは、Pythonのリストまたは文字列のインデックス作成と同様に、標準のPythonインデックス作成ルール、およびNumPyインデックス作成の基本ルールに従います。

  • インデックスは0から始まります
  • 負のインデックスは最後から逆方向にカウントされます
  • コロン、 : 、はスライスに使用されます: start:stop:step
rank_1_tensor = tf.constant([0, 1, 1, 2, 3, 5, 8, 13, 21, 34])
print(rank_1_tensor.numpy())
[ 0  1  1  2  3  5  8 13 21 34]

スカラーでインデックスを作成すると、ディメンションが削除されます。

print("First:", rank_1_tensor[0].numpy())
print("Second:", rank_1_tensor[1].numpy())
print("Last:", rank_1_tensor[-1].numpy())
First: 0
Second: 1
Last: 34

:スライスを使用してインデックスを作成すると、次元が維持されます。

print("Everything:", rank_1_tensor[:].numpy())
print("Before 4:", rank_1_tensor[:4].numpy())
print("From 4 to the end:", rank_1_tensor[4:].numpy())
print("From 2, before 7:", rank_1_tensor[2:7].numpy())
print("Every other item:", rank_1_tensor[::2].numpy())
print("Reversed:", rank_1_tensor[::-1].numpy())
Everything: [ 0  1  1  2  3  5  8 13 21 34]
Before 4: [0 1 1 2]
From 4 to the end: [ 3  5  8 13 21 34]
From 2, before 7: [1 2 3 5 8]
Every other item: [ 0  1  3  8 21]
Reversed: [34 21 13  8  5  3  2  1  1  0]

多軸インデックス

上位のテンソルは、複数のインデックスを渡すことによってインデックスが付けられます。

単軸の場合とまったく同じ規則が、各軸に個別に適用されます。

print(rank_2_tensor.numpy())
[[1. 2.]
 [3. 4.]
 [5. 6.]]

各インデックスに整数を渡すと、結果はスカラーになります。

# Pull out a single value from a 2-rank tensor
print(rank_2_tensor[1, 1].numpy())
4.0

整数とスライスの任意の組み合わせを使用してインデックスを作成できます。

# Get row and column tensors
print("Second row:", rank_2_tensor[1, :].numpy())
print("Second column:", rank_2_tensor[:, 1].numpy())
print("Last row:", rank_2_tensor[-1, :].numpy())
print("First item in last column:", rank_2_tensor[0, -1].numpy())
print("Skip the first row:")
print(rank_2_tensor[1:, :].numpy(), "\n")
Second row: [3. 4.]
Second column: [2. 4. 6.]
Last row: [5. 6.]
First item in last column: 2.0
Skip the first row:
[[3. 4.]
 [5. 6.]] 


3軸テンソルの例を次に示します。

print(rank_3_tensor[:, :, 4])
tf.Tensor(
[[ 4  9]
 [14 19]
 [24 29]], shape=(3, 2), dtype=int32)

バッチ内の各例のすべての場所で最後の機能を選択する
最後の軸のインデックス4のすべての値が選択された3x2x5テンソル。選択された値は2軸テンソルにパックされます。

形状の操作

テンソルの形状を変更することは非常に便利です。

# Shape returns a `TensorShape` object that shows the size on each dimension
x = tf.constant([[1], [2], [3]])
print(x.shape)
(3, 1)

# You can convert this object into a Python list, too
print(x.shape.as_list())
[3, 1]

テンソルを新しい形状に再形成できます。 tf.reshape操作は、基になるデータを複製する必要がないため、高速で安価です。

# You can reshape a tensor to a new shape.
# Note that you're passing in a list
reshaped = tf.reshape(x, [1, 3])
print(x.shape)
print(reshaped.shape)
(3, 1)
(1, 3)

データはメモリ内のレイアウトを維持し、同じデータを指す、要求された形状の新しいテンソルが作成されます。 TensorFlowは、Cスタイルの「行メジャー」メモリオーダリングを使用します。右端のインデックスの増分は、メモリ内の1つのステップに対応します。

print(rank_3_tensor)
tf.Tensor(
[[[ 0  1  2  3  4]
  [ 5  6  7  8  9]]

 [[10 11 12 13 14]
  [15 16 17 18 19]]

 [[20 21 22 23 24]
  [25 26 27 28 29]]], shape=(3, 2, 5), dtype=int32)

テンソルを平坦化すると、メモリ内でどのような順序で配置されているかを確認できます。

# A `-1` passed in the `shape` argument says "Whatever fits".
print(tf.reshape(rank_3_tensor, [-1]))
tf.Tensor(
[ 0  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
 24 25 26 27 28 29], shape=(30,), dtype=int32)

通常、 tf.reshape唯一の合理的な使用tf.reshapeは、隣接する軸を結合または分割する(または1秒を追加/削除する)ことです。

この3x2x5テンソルの場合、スライスが混合しないため、(3x2)x5または3x(2x5)に再形成することはどちらも合理的な方法です。

print(tf.reshape(rank_3_tensor, [3*2, 5]), "\n")
print(tf.reshape(rank_3_tensor, [3, -1]))
tf.Tensor(
[[ 0  1  2  3  4]
 [ 5  6  7  8  9]
 [10 11 12 13 14]
 [15 16 17 18 19]
 [20 21 22 23 24]
 [25 26 27 28 29]], shape=(6, 5), dtype=int32) 

tf.Tensor(
[[ 0  1  2  3  4  5  6  7  8  9]
 [10 11 12 13 14 15 16 17 18 19]
 [20 21 22 23 24 25 26 27 28 29]], shape=(3, 10), dtype=int32)

いくつかの良い形を変えます。
3x2x5テンソル同じデータが(3x2)x5に再形成されました同じデータが3x(2x5)に再形成されました

再形成は、要素の総数が同じである新しい形状に対して「機能」しますが、軸の順序を尊重しない場合は何の役にも立ちません。

tf.reshape軸のtf.reshapeは機能しません。そのためには、 tf.transposeが必要です。

# Bad examples: don't do this

# You can't reorder axes with reshape.
print(tf.reshape(rank_3_tensor, [2, 3, 5]), "\n") 

# This is a mess
print(tf.reshape(rank_3_tensor, [5, 6]), "\n")

# This doesn't work at all
try:
  tf.reshape(rank_3_tensor, [7, -1])
except Exception as e:
  print(f"{type(e).__name__}: {e}")
tf.Tensor(
[[[ 0  1  2  3  4]
  [ 5  6  7  8  9]
  [10 11 12 13 14]]

 [[15 16 17 18 19]
  [20 21 22 23 24]
  [25 26 27 28 29]]], shape=(2, 3, 5), dtype=int32) 

tf.Tensor(
[[ 0  1  2  3  4  5]
 [ 6  7  8  9 10 11]
 [12 13 14 15 16 17]
 [18 19 20 21 22 23]
 [24 25 26 27 28 29]], shape=(5, 6), dtype=int32) 

InvalidArgumentError: Input to reshape is a tensor with 30 values, but the requested shape requires a multiple of 7 [Op:Reshape]

いくつかの悪い形を変えます。
軸を並べ替えることはできません。そのためにtf.transposeを使用してくださいデータのスライスを一緒に混合するものはおそらく間違っています。新しい形状は正確にフィットする必要があります。

完全に指定されていない形状に遭遇する可能性があります。形状にNoneが含まれている(次元の長さが不明)か、形状がNone (テンソルのランクが不明)のいずれかです。

tf.RaggedTensorを除いて、このような形状はTensorFlowのシンボリックなグラフ構築APIのコンテキストでのみ発生します。

DTypes詳細

tf.Tensorのデータ型を検査するには、Tensor.dtypeプロパティを使用します。

Pythonオブジェクトからtf.Tensorを作成する場合、オプションでデータ型を指定できます。

そうでない場合、TensorFlowはデータを表すことができるデータ型を選択します。 TensorFlowはPythonの整数に変換tf.int32に浮動小数点数とPython tf.float32 。それ以外の場合、TensorFlowはNumPyが配列に変換するときに使用するのと同じルールを使用します。

タイプからタイプへキャストできます。

the_f64_tensor = tf.constant([2.2, 3.3, 4.4], dtype=tf.float64)
the_f16_tensor = tf.cast(the_f64_tensor, dtype=tf.float16)
# Now, cast to an uint8 and lose the decimal precision
the_u8_tensor = tf.cast(the_f16_tensor, dtype=tf.uint8)
print(the_u8_tensor)
tf.Tensor([2 3 4], shape=(3,), dtype=uint8)

放送

ブロードキャストは、 NumPyの同等の機能から借用した概念です。要するに、特定の条件下では、小さなテンソルは、それらに対して複合操作を実行するときに、大きなテンソルに合うように自動的に「引き伸ばされ」ます。

最も単純で最も一般的なケースは、スカラーにテンソルを乗算または追加しようとする場合です。その場合、スカラーは他の引数と同じ形状になるようにブロードキャストされます。

x = tf.constant([1, 2, 3])

y = tf.constant(2)
z = tf.constant([2, 2, 2])
# All of these are the same computation
print(tf.multiply(x, 2))
print(x * y)
print(x * z)
tf.Tensor([2 4 6], shape=(3,), dtype=int32)
tf.Tensor([2 4 6], shape=(3,), dtype=int32)
tf.Tensor([2 4 6], shape=(3,), dtype=int32)

同様に、1サイズの寸法は、他の引数と一致するように伸ばすことができます。両方の引数を同じ計算で拡張できます。

この場合、3x1行列に1x4行列を要素ごとに乗算して、3x4行列を生成します。先頭の1がオプションであることに注意してください。yの形状は[4]です。

# These are the same computations
x = tf.reshape(x,[3,1])
y = tf.range(1, 5)
print(x, "\n")
print(y, "\n")
print(tf.multiply(x, y))
tf.Tensor(
[[1]
 [2]
 [3]], shape=(3, 1), dtype=int32) 

tf.Tensor([1 2 3 4], shape=(4,), dtype=int32) 

tf.Tensor(
[[ 1  2  3  4]
 [ 2  4  6  8]
 [ 3  6  9 12]], shape=(3, 4), dtype=int32)

放送追加[3, 1][1, 4]得られる[3,4]
3x1マトリックスを4x1マトリックスに追加すると、3x4マトリックスになります。

ブロードキャストなしの同じ操作は次のとおりです。

x_stretch = tf.constant([[1, 1, 1, 1],
                         [2, 2, 2, 2],
                         [3, 3, 3, 3]])

y_stretch = tf.constant([[1, 2, 3, 4],
                         [1, 2, 3, 4],
                         [1, 2, 3, 4]])

print(x_stretch * y_stretch)  # Again, operator overloading
tf.Tensor(
[[ 1  2  3  4]
 [ 2  4  6  8]
 [ 3  6  9 12]], shape=(3, 4), dtype=int32)

ほとんどの場合、ブロードキャスト操作はメモリ内の拡張テンソルを実現しないため、ブロードキャストは時間とスペースの両方で効率的です。

tf.broadcast_toを使用すると、ブロードキャストがどのように見えるかがtf.broadcast_toます。

print(tf.broadcast_to(tf.constant([1, 2, 3]), [3, 3]))
tf.Tensor(
[[1 2 3]
 [1 2 3]
 [1 2 3]], shape=(3, 3), dtype=int32)

たとえば、数学的な操作とは異なり、 broadcast_toはメモリを節約するために特別なことは何もしません。ここでは、テンソルを具体化しています。

それはさらに複雑になる可能性があります。 JakeVanderPlasの本PythonData Science Handbookこのセクションでは、より多くのブロードキャストトリックを示しています(これもNumPyで)。

tf.convert_to_tensor

tf.matmultf.reshapeなどのほとんどのopsは、クラスtf.Tensor引数を取ります。ただし、上記の場合、テンソルのような形状のPythonオブジェクトが受け入れられることに気付くでしょう。

すべてではありませんが、ほとんどのopsは非テンソル引数でconvert_to_tensorを呼び出しconvert_to_tensor 。そこの変換のレジストリがある、とnumpyののようなほとんどのオブジェクトクラスndarrayTensorShape 、Pythonのリスト、およびtf.Variableすべて自動的に変換されます。

詳細については、 tf.register_tensor_conversion_functionを参照してください。独自の型がある場合は、自動的にテンソルに変換します。

不規則テンソル

ある軸に沿って要素の数が可変であるテンソルは、「不規則」と呼ばれます。不規則なデータにはtf.ragged.RaggedTensorを使用します。

たとえば、これは通常のテンソルとして表すことはできません。

tf.RaggedTensor 、形状: [4, None]
2軸の不規則テンソルで、各行の長さを変えることができます。
ragged_list = [
    [0, 1, 2, 3],
    [4, 5],
    [6, 7, 8],
    [9]]
try:
  tensor = tf.constant(ragged_list)
except Exception as e:
  print(f"{type(e).__name__}: {e}")
ValueError: Can't convert non-rectangular Python sequence to Tensor.

代わりに作成tf.RaggedTensor使用してtf.ragged.constant

ragged_tensor = tf.ragged.constant(ragged_list)
print(ragged_tensor)
<tf.RaggedTensor [[0, 1, 2, 3], [4, 5], [6, 7, 8], [9]]>

tf.RaggedTensorの形状に不明な次元が含まれています:

print(ragged_tensor.shape)
(4, None)

ストリングテンソル

tf.stringtf.stringです。 dtype 、データをテンソルの文字列(可変長バイト配列)として表すことができます。

文字列はアトミックであり、Python文字列のようにインデックスを付けることはできません。弦の長さはテンソルの寸法の1つではありません。それらを操作する関数については、 tf.stringsを参照してください。

スカラー文字列テンソルは次のとおりです。

# Tensors can be strings, too here is a scalar string.
scalar_string_tensor = tf.constant("Gray wolf")
print(scalar_string_tensor)
tf.Tensor(b'Gray wolf', shape=(), dtype=string)

そして文字列のベクトル:

文字列のベクトル、形状: [3,]
文字列の長さはテンソルの軸の1つではありません。
# If you have three string tensors of different lengths, this is OK.
tensor_of_strings = tf.constant(["Gray wolf",
                                 "Quick brown fox",
                                 "Lazy dog"])
# Note that the shape is (3,). The string length is not included.
print(tensor_of_strings)
tf.Tensor([b'Gray wolf' b'Quick brown fox' b'Lazy dog'], shape=(3,), dtype=string)

上記のプリントアウトでは、 bプレフィックスは、 tf.string dtypeがUnicode文字列ではなく、バイト文字列であることを示しています。 TensorFlowでのUnicodeテキストの操作の詳細については、 Unicodeチュートリアルを参照してください。

Unicode文字を渡すと、utf-8でエンコードされます。

tf.constant("🥳👍")
<tf.Tensor: shape=(), dtype=string, numpy=b'\xf0\x9f\xa5\xb3\xf0\x9f\x91\x8d'>

文字列を使用するいくつかの基本的な関数は、 tf.stringsを含むtf.strings.splitます。

# You can use split to split a string into a set of tensors
print(tf.strings.split(scalar_string_tensor, sep=" "))
tf.Tensor([b'Gray' b'wolf'], shape=(2,), dtype=string)

# ...but it turns into a `RaggedTensor` if you split up a tensor of strings,
# as each string might be split into a different number of parts.
print(tf.strings.split(tensor_of_strings))
<tf.RaggedTensor [[b'Gray', b'wolf'], [b'Quick', b'brown', b'fox'], [b'Lazy', b'dog']]>

3つのストリングが分割され、形状: [3, None]
複数の文字列を分割すると、tf.RaggedTensorが返されます

そしてtf.string.to_number

text = tf.constant("1 10 100")
print(tf.strings.to_number(tf.strings.split(text, " ")))
tf.Tensor([  1.  10. 100.], shape=(3,), dtype=float32)

tf.castを使用して文字列テンソルを数値に変換することはできませんが、バイトに変換してから数値に変換することはできます。

byte_strings = tf.strings.bytes_split(tf.constant("Duck"))
byte_ints = tf.io.decode_raw(tf.constant("Duck"), tf.uint8)
print("Byte strings:", byte_strings)
print("Bytes:", byte_ints)
Byte strings: tf.Tensor([b'D' b'u' b'c' b'k'], shape=(4,), dtype=string)
Bytes: tf.Tensor([ 68 117  99 107], shape=(4,), dtype=uint8)

# Or split it up as unicode and then decode it
unicode_bytes = tf.constant("アヒル 🦆")
unicode_char_bytes = tf.strings.unicode_split(unicode_bytes, "UTF-8")
unicode_values = tf.strings.unicode_decode(unicode_bytes, "UTF-8")

print("\nUnicode bytes:", unicode_bytes)
print("\nUnicode chars:", unicode_char_bytes)
print("\nUnicode values:", unicode_values)

Unicode bytes: tf.Tensor(b'\xe3\x82\xa2\xe3\x83\x92\xe3\x83\xab \xf0\x9f\xa6\x86', shape=(), dtype=string)

Unicode chars: tf.Tensor([b'\xe3\x82\xa2' b'\xe3\x83\x92' b'\xe3\x83\xab' b' ' b'\xf0\x9f\xa6\x86'], shape=(5,), dtype=string)

Unicode values: tf.Tensor([ 12450  12498  12523     32 129414], shape=(5,), dtype=int32)

tf.string dtypeは、TensorFlowのすべての生バイトデータに使用されます。 tf.ioモジュールには、画像のデコードやcsvの解析など、データをバイトとの間で変換するための関数が含まれています。

スパーステンソル

非常に広い埋め込みスペースのように、データがまばらな場合があります。 TensorFlowは、 tf.sparse.SparseTensorおよび関連する操作をサポートして、スパースデータを効率的に保存します。

tf.SparseTensor 、形状: [3, 4]
2つのセルのみに値がある3x4グリッド。
# Sparse tensors store values by index in a memory-efficient manner
sparse_tensor = tf.sparse.SparseTensor(indices=[[0, 0], [1, 2]],
                                       values=[1, 2],
                                       dense_shape=[3, 4])
print(sparse_tensor, "\n")

# You can convert sparse tensors to dense
print(tf.sparse.to_dense(sparse_tensor))
SparseTensor(indices=tf.Tensor(
[[0 0]
 [1 2]], shape=(2, 2), dtype=int64), values=tf.Tensor([1 2], shape=(2,), dtype=int32), dense_shape=tf.Tensor([3 4], shape=(2,), dtype=int64)) 

tf.Tensor(
[[1 0 0 0]
 [0 0 2 0]
 [0 0 0 0]], shape=(3, 4), dtype=int32)