lí giải trừu tượng

l10n-placeholder1 biểu thị tập hợp các loại quan hệ (tiến trình, XOR, OR, AND, liên kết nhất quán), \\(O\\) biểu thị các loại đối tượng (hình dạng, đường thẳng) và \\(A\\) biểu thị các loại thuộc tính (kích thước, màu sắc, số vị trí). Cấu trúc của ma trận, \\(S\\), là tập hợp các bộ ba \\(S={[r, o, a]}\\) xác định thách thức do một ma trận cụ thể đặt ra. Để sử dụng tập dữ liệu này: ```python nhập tensorflow_datasets dưới dạng tfds ds = tfds.load('abstract_reasoning', split='train') for ex in ds.take(4): print(ex) ``` Xem [hướng dẫn ](https://www.tensorflow.org/datasets/overview) để biết thêm thông tin về [tensorflow_datasets](https://www.tensorflow.org/datasets). " />
  • Mô tả :

Dữ liệu Ma trận được tạo theo thủ tục (PGM) từ bài báo Đo lường lý luận trừu tượng trong mạng thần kinh, Barrett, Hill, Santoro et al. 2018. Mục tiêu là suy ra câu trả lời đúng từ bảng ngữ cảnh dựa trên lý luận trừu tượng.

Để sử dụng tập dữ liệu này, vui lòng tải xuống tất cả các tệp *.tar.gz từ trang tập dữ liệu và đặt chúng vào ~/tensorflow_datasets/abstract_reasoning/.

\(R\) biểu thị tập hợp các loại quan hệ (tiến trình, XOR, OR, AND, liên kết nhất quán), \(O\) biểu thị các loại đối tượng (hình dạng, đường thẳng) và \(A\) biểu thị các loại thuộc tính (kích thước, màu sắc, vị trí, con số). Cấu trúc của ma trận,\(S\), là tập hợp các bộ ba \(S={[r, o, a]}\) xác định thách thức do một ma trận cụ thể đặt ra.

Tách ra ví dụ
'test' 200.000
'train' 1.200.000
'validation' 20.000
  • Cấu trúc tính năng :
FeaturesDict({
    'answers': Video(Image(shape=(160, 160, 1), dtype=uint8)),
    'context': Video(Image(shape=(160, 160, 1), dtype=uint8)),
    'filename': Text(shape=(), dtype=string),
    'meta_target': Tensor(shape=(12,), dtype=int64),
    'relation_structure_encoded': Tensor(shape=(4, 12), dtype=int64),
    'target': ClassLabel(shape=(), dtype=int64, num_classes=8),
})
  • Tài liệu tính năng :
Tính năng Lớp Hình dạng Dtype Sự mô tả
Tính năngDict
câu trả lời Video(Hình ảnh) (8, 160, 160, 1) uint8
định nghĩa bài văn Video(Hình ảnh) (8, 160, 160, 1) uint8
tên tập tin Chữ sợi dây
meta_mục tiêu tenxơ (12,) int64
quan hệ_cấu trúc_được mã hóa tenxơ (4, 12) int64
Mục tiêu LớpNhãn int64
@InProceedings{pmlr-v80-barrett18a,
  title =    {Measuring abstract reasoning in neural networks},
  author =   {Barrett, David and Hill, Felix and Santoro, Adam and Morcos, Ari and Lillicrap, Timothy},
  booktitle =    {Proceedings of the 35th International Conference on Machine Learning},
  pages =    {511--520},
  year =     {2018},
  editor =   {Dy, Jennifer and Krause, Andreas},
  volume =   {80},
  series =   {Proceedings of Machine Learning Research},
  address =      {Stockholmsmassan, Stockholm Sweden},
  month =    {10--15 Jul},
  publisher =    {PMLR},
  pdf =      {http://proceedings.mlr.press/v80/barrett18a/barrett18a.pdf},
  url =      {http://proceedings.mlr.press/v80/barrett18a.html},
  abstract =     {Whether neural networks can learn abstract reasoning or whetherthey merely rely on superficial statistics is a topic of recent debate. Here, we propose a dataset and challenge designed to probe abstract reasoning, inspired by a well-known human IQ test. To succeed at this challenge, models must cope with various generalisation 'regimes' in which the training data and test questions differ in clearly-defined ways. We show that popular models such as ResNets perform poorly, even when the training and test sets differ only minimally, and we present a novel architecture, with structure designed to encourage reasoning, that does significantly better. When we vary the way in which the test questions and training data differ, we find that our model is notably proficient at certain forms of generalisation, but notably weak at others. We further show that the model's ability to generalise improves markedly if it is trained to predict symbolic explanations for its answers. Altogether, we introduce and explore ways to both measure and induce stronger abstract reasoning in neural networks. Our freely-available dataset should motivate further progress in this direction.}
}

abstract_reasoning/neutral (cấu hình mặc định)

  • Mô tả cấu hình : Các cấu trúc mã hóa ma trận trong cả hai
    tập huấn luyện và kiểm tra chứa bất kỳ bộ ba \([r, o, a]\) nào cho \(r \\in R\),
    \(o \\in O\)và \(a \\in A\). Tập huấn luyện và tập kiểm tra rời rạc, với
    phân tách xảy ra ở cấp độ của các biến đầu vào (tức là pixel
    biểu hiện).

  • Kích thước tập dữ liệu : 42.02 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_lý luận/nội suy

  • Mô tả cấu hình : Như trong phần tách trung lập, \(S\) bao gồm bất kỳ
    tăng gấp ba lần \([r, o, a]\). Để nội suy, trong tập huấn luyện, khi
    thuộc tính là "màu sắc" hoặc "kích thước" (nghĩa là các thuộc tính được sắp xếp), các giá trị của
    các thuộc tính được giới hạn cho các thành viên được lập chỉ mục chẵn của một tập hợp rời rạc,
    trong khi trong tập thử nghiệm, chỉ cho phép các giá trị có chỉ số lẻ. Lưu ý rằng tất cả
    \(S\) chứa một số bộ ba \([r, o, a]\) với thuộc tính màu sắc hoặc kích thước .
    Do đó, tính khái quát hóa là cần thiết cho mọi câu hỏi trong bộ đề thi.

  • Kích thước tập dữ liệu : 37.09 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_lý luận/ngoại suy

  • Mô tả cấu hình : Tương tự như trong nội suy, nhưng các giá trị của
    các thuộc tính bị giới hạn ở nửa dưới của tập hợp rời rạc trong quá trình
    đào tạo, trong khi trong tập kiểm tra, họ lấy giá trị ở nửa trên.

  • Kích thước tập dữ liệu : 35.91 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_reasoning/attr.rel.pairs

  • Mô tả cấu hình : Tất cả \(S\) chứa ít nhất hai bộ ba,
    \(([r_1,o_1,a_1],[r_2,o_2,a_2]) = (t_1, t_2)\), trong đó 400 là khả thi. chúng tôi
    phân bổ ngẫu nhiên 360 cho tập huấn luyện và 40 cho tập kiểm tra. Các thành viên
    \((t_1, t_2)\) trong số 40 cặp được giữ lại không xuất hiện cùng nhau trong cấu trúc\(S\)
    trong tập huấn luyện và tất cả các cấu trúc \(S\) có ít nhất một cặp như vậy
    \((t_1, t_2)\) dưới dạng tập hợp con.

  • Kích thước tập dữ liệu : 41.07 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_reasoning/attr.rels

  • Mô tả cấu hình : Trong tập dữ liệu của chúng tôi, có thể có 29
    tăng gấp ba lần \([r,o,a]\). Chúng tôi đã phân bổ ngẫu nhiên bảy trong số này cho bộ thử nghiệm,
    nhưng sao cho mỗi thuộc tính được biểu diễn chính xác một lần trong tập hợp này.
    Những bộ ba tổ chức này không bao giờ xảy ra trong các câu hỏi trong tập huấn luyện và
    mọi \(S\) trong bộ thử nghiệm chứa ít nhất một trong số chúng.

  • Kích thước tập dữ liệu : 41.45 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_reasoning/attrs.pairs

  • Mô tả cấu hình : \(S\) chứa ít nhất hai bộ ba. Có 20
    (không có thứ tự) các cặp thuộc tính khả thi \((a_1, a_2)\) sao cho đối với một số
    \(r_i, o_i, ([r_1,o_1,a_1],[r_2,o_2,a_2])\) là một cặp ba khả thi
    \(([r_1,o_1,a_1],[r_2,o_2,a_2]) = (t_1, t_2)\). Chúng tôi đã phân bổ 16 trong số các cặp này
    cho đào tạo và bốn cho thử nghiệm. Đối với một cặp \((a_1, a_2)\) trong bộ thử nghiệm,
    \(S\) trong tập huấn luyện chứa các bộ ba với \(a_1\) hoặc \(a_2\). Trong bài kiểm tra
    set, tất cả \(S\) chứa bộ ba với \(a_1\) và \(a_2\).

  • Kích thước tập dữ liệu : 40.98 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_reasoning/attrs.shape.color

  • Mô tả cấu hình : Thuộc tính giữ nguyên shape-color. \(S\) trong
    tập huấn luyện không chứa bộ ba nào có \(o\)=hình dạng và \(a\)=màu sắc.
    Tất cả các cấu trúc quản lý các câu đố trong bộ thử nghiệm chứa ít nhất một bộ ba
    với \(o\)=hình dạng và \(a\)=màu sắc.

  • Kích thước tập dữ liệu : 41.21 GiB

  • Ví dụ ( tfds.as_dataframe ):

trừu tượng_reasoning/attrs.line.type

  • Mô tả cấu hình : Loại dòng thuộc tính được giữ lại. \(S\) trong
    tập huấn luyện không chứa bộ ba với \(o\)=line và \(a\)=type.
    Tất cả các cấu trúc quản lý các câu đố trong bộ thử nghiệm chứa ít nhất một bộ ba
    với \(o\)=line và \(a\)=type.

  • Kích thước tập dữ liệu : 41.40 GiB

  • Ví dụ ( tfds.as_dataframe ):