TensorScatterSub

lớp cuối cùng công khai TensorScatterSub

Trừ `cập nhật` thưa thớt khỏi một tenxơ hiện có theo `chỉ số`.

Thao tác này tạo ra một tenxơ mới bằng cách trừ đi các `cập nhật` thưa thớt khỏi dữ liệu được truyền trong `tensor`. Thao tác này rất giống với `tf.scatter_nd_sub`, ngoại trừ việc các bản cập nhật được trừ khỏi một tenxơ hiện có (ngược lại với một biến). Nếu bộ nhớ dành cho tensor hiện có không thể được sử dụng lại thì một bản sao sẽ được tạo và cập nhật.

`chỉ số` là một tensor số nguyên chứa các chỉ số thành một tensor mới có hình dạng `shape`. Chiều cuối cùng của `chỉ số` tối đa có thể là cấp `hình dạng`:

chỉ số.shape[-1] <= hình dạng.rank

Chiều cuối cùng của `indices` tương ứng với các chỉ mục thành các phần tử (nếu `indices.shape[-1] = shape.rank`) hoặc lát cắt (nếu `indices.shape[-1] < shape.rank`) dọc theo chiều `indices .shape[-1]` của `shape`. `updates` là một tensor có hình dạng

index.shape[:-1] + hình dạng[indices.shape[-1]:]

Hình thức đơn giản nhất của tensor_scatter_sub là trừ các phần tử riêng lẻ khỏi một tensor theo chỉ số. Ví dụ: giả sử chúng ta muốn chèn 4 phần tử phân tán vào một tensor hạng 1 có 8 phần tử.

Trong Python, phép trừ phân tán này sẽ trông như thế này:

indices = tf.constant([[4], [3], [1], [7]])
     updates = tf.constant([9, 10, 11, 12])
     tensor = tf.ones([8], dtype=tf.int32)
     updated = tf.tensor_scatter_nd_sub(tensor, indices, updates)
     print(updated)
 
Tensor thu được sẽ trông như thế này:

[1, -10, 1, -9, -8, 1, 1, -11]

Chúng ta cũng có thể chèn toàn bộ các lát cắt của tensor cấp cao hơn cùng một lúc. Ví dụ: nếu chúng ta muốn chèn hai lát cắt vào chiều thứ nhất của tensor hạng 3 với hai ma trận có giá trị mới.

Trong Python, thao tác thêm phân tán này sẽ trông như thế này:

indices = tf.constant([[0], [2]])
     updates = tf.constant([[[5, 5, 5, 5], [6, 6, 6, 6],
                             [7, 7, 7, 7], [8, 8, 8, 8]],
                            [[5, 5, 5, 5], [6, 6, 6, 6],
                             [7, 7, 7, 7], [8, 8, 8, 8]]])
     tensor = tf.ones([4, 4, 4],dtype=tf.int32)
     updated = tf.tensor_scatter_nd_sub(tensor, indices, updates)
     print(updated)
 
Tensor kết quả sẽ trông như thế này:

[[[-4, -4, -4, -4], [-5, -5, -5, -5], [-6, -6, -6, -6], [-7, -7 , -7, -7]], [[1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1]] , [[-4, -4, -4, -4], [-5, -5, -5, -5], [-6, -6, -6, -6], [-7, -7 , -7, -7]], [[1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1], [1, 1, 1, 1]] ]

Lưu ý rằng trên CPU, nếu tìm thấy chỉ mục ngoài giới hạn, lỗi sẽ được trả về. Trên GPU, nếu tìm thấy chỉ mục ngoài giới hạn, chỉ mục đó sẽ bị bỏ qua.

Phương pháp công cộng

Đầu ra <T>
asOutput ()
Trả về phần điều khiển tượng trưng của một tenxơ.
tĩnh <T, U mở rộng Số> TensorScatterSub <T>
tạo ( Phạm vi phạm vi, tenxơ toán hạng <T>, chỉ số toán hạng <U>, cập nhật toán hạng <T>)
Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác TensorScatterSub mới.
Đầu ra <T>
đầu ra ()
Một tensor mới được sao chép từ tensor và cập nhật được trừ theo các chỉ số.

Phương pháp kế thừa

Phương pháp công cộng

Đầu ra công khai <T> asOutput ()

Trả về phần điều khiển tượng trưng của một tenxơ.

Đầu vào của các hoạt động TensorFlow là đầu ra của một hoạt động TensorFlow khác. Phương pháp này được sử dụng để thu được một thẻ điều khiển mang tính biểu tượng đại diện cho việc tính toán đầu vào.

public static TensorScatterSub <T> tạo ( Phạm vi phạm vi, tensor toán hạng <T>, chỉ số toán hạng <U>, cập nhật toán hạng <T>)

Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác TensorScatterSub mới.

Thông số
phạm vi phạm vi hiện tại
tenxơ Tenor để sao chép/cập nhật.
chỉ số Tenxơ chỉ số.
cập nhật Cập nhật để phân tán vào đầu ra.
Trả lại
  • một phiên bản mới của TensorScatterSub

Đầu ra công khai đầu ra <T> ()

Một tensor mới được sao chép từ tensor và cập nhật được trừ theo các chỉ số.