このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.parallel_stack

TensorFlow 1つのバージョン GitHubの上のソースを表示

スタックrank-のリストR 1 rank-にテンソル(R+1)並列でテンソル。

入力の形状は、グラフ構築時に知られることを必要とします。

パックでのテンソルのリストvalues各テンソルよりも高いランク1とテンソルにvalues最初の次元に沿ってそれらを充填することにより、。長さのリストを指定するN形のテンソルの(A, B, C) outputテンソルの形状があります(N, A, B, C)

例えば:

 x = tf.constant([1, 4])
y = tf.constant([2, 5])
z = tf.constant([3, 6])
tf.parallel_stack([x, y, z])  # [[1, 4], [2, 5], [3, 6]]
 

stackparallel_stackつまりstack動作を開始する前に、すべての入力が算出される必要はなく、入力形状がグラフ構造中に知られることを必要としません。

parallel_stack 、彼らが利用可能になると、これはパフォーマンス上の利点を提供することができますいくつかの状況では、出力への入力の部分をコピーします。

異なりstackparallel_stackバックプロパゲーションをサポートしていません。

これは、スタック解除の反対です。 numpyのと等価です

 tf.parallel_stack([x, y, z]) = np.asarray([x, y, z])
 

values リストTensor同じ形状およびタイプのオブジェクト。
name この操作の名前(オプション)。

output Aは、積み重ねられたTensor同じタイプのvalues