abstrakcyjne rozumowanie

l10n-placeholder1 oznacza zestaw typów relacji (progresja, XOR, OR, AND, spójna suma), \\(O\\) oznacza typy obiektów (kształt, linia), a \\(A\\) oznacza typy atrybutów (rozmiar, kolor, pozycja, numer). Struktura macierzy, \\(S\\), jest zbiorem trójek \\(S={[r, o, a]}\\) , które określają wyzwanie stawiane przez konkretną macierz. Aby użyć tego zestawu danych: ```python import tensorflow_datasets as tfds ds = tfds.load('abstract_reasoning', split='train') for ex w ds.take(4): print(ex) ``` Zobacz [przewodnik ](https://www.tensorflow.org/datasets/overview), aby uzyskać więcej informacji na temat [tensorflow_datasets](https://www.tensorflow.org/datasets). " />
  • opis :

Dane proceduralnie generowanych macierzy (PGM) z artykułu Measuring Abstract Reasoning in Neural Networks, Barrett, Hill, Santoro i in. 2018. Celem jest wywnioskowanie prawidłowej odpowiedzi z paneli kontekstowych na podstawie rozumowania abstrakcyjnego.

Aby użyć tego zestawu danych, pobierz wszystkie pliki *.tar.gz ze strony zestawu danych i umieść je w katalogu ~/tensorflow_datasets/abstract_reasoning/.

\(R\) oznacza zestaw typów relacji (progresja, XOR, OR, AND, spójna suma), \(O\) oznacza typy obiektów (kształt, linia), a \(A\) oznacza typy atrybutów (rozmiar, kolor, położenie, numer). Struktura macierzy,\(S\), jest zbiorem trójek \(S={[r, o, a]}\) , które określają wyzwanie stawiane przez konkretną macierz.

Rozdzielać Przykłady
'test' 200 000
'train' 1 200 000
'validation' 20 000
  • Struktura funkcji :
FeaturesDict({
    'answers': Video(Image(shape=(160, 160, 1), dtype=uint8)),
    'context': Video(Image(shape=(160, 160, 1), dtype=uint8)),
    'filename': Text(shape=(), dtype=string),
    'meta_target': Tensor(shape=(12,), dtype=int64),
    'relation_structure_encoded': Tensor(shape=(4, 12), dtype=int64),
    'target': ClassLabel(shape=(), dtype=int64, num_classes=8),
})
  • Dokumentacja funkcji :
Funkcja Klasa Kształt Typ D Opis
FunkcjeDict
odpowiedzi Wideo (obraz) (8, 160, 160, 1) uint8
kontekst Wideo (obraz) (8, 160, 160, 1) uint8
Nazwa pliku Tekst strunowy
meta_cel Napinacz (12,) int64
zakodowana_struktura_relacji Napinacz (4, 12) int64
cel Etykieta klasy int64
@InProceedings{pmlr-v80-barrett18a,
  title =    {Measuring abstract reasoning in neural networks},
  author =   {Barrett, David and Hill, Felix and Santoro, Adam and Morcos, Ari and Lillicrap, Timothy},
  booktitle =    {Proceedings of the 35th International Conference on Machine Learning},
  pages =    {511--520},
  year =     {2018},
  editor =   {Dy, Jennifer and Krause, Andreas},
  volume =   {80},
  series =   {Proceedings of Machine Learning Research},
  address =      {Stockholmsmassan, Stockholm Sweden},
  month =    {10--15 Jul},
  publisher =    {PMLR},
  pdf =      {http://proceedings.mlr.press/v80/barrett18a/barrett18a.pdf},
  url =      {http://proceedings.mlr.press/v80/barrett18a.html},
  abstract =     {Whether neural networks can learn abstract reasoning or whetherthey merely rely on superficial statistics is a topic of recent debate. Here, we propose a dataset and challenge designed to probe abstract reasoning, inspired by a well-known human IQ test. To succeed at this challenge, models must cope with various generalisation 'regimes' in which the training data and test questions differ in clearly-defined ways. We show that popular models such as ResNets perform poorly, even when the training and test sets differ only minimally, and we present a novel architecture, with structure designed to encourage reasoning, that does significantly better. When we vary the way in which the test questions and training data differ, we find that our model is notably proficient at certain forms of generalisation, but notably weak at others. We further show that the model's ability to generalise improves markedly if it is trained to predict symbolic explanations for its answers. Altogether, we introduce and explore ways to both measure and induce stronger abstract reasoning in neural networks. Our freely-available dataset should motivate further progress in this direction.}
}

abstract_reasoning/neutral (domyślna konfiguracja)

  • Opis konfiguracji : Struktury kodujące macierze zarówno w
    zbiory treningowe i testowe zawierają dowolne trójki \([r, o, a]\) dla \(r \\in R\),
    \(o \\in O\)i \(a \\in A\). Zbiory uczące i testujące są rozłączne, tj
    separacja występująca na poziomie zmiennych wejściowych (tj. pixel
    manifestacje).

  • Rozmiar zestawu danych : 42.02 GiB

  • Przykłady ( tfds.as_dataframe ):

rozumowanie_abstrakcyjne/interpolacja

  • Opis konfiguracji : Podobnie jak w neutralnym podziale, \(S\) składał się z dowolnych
    trzykrotnie \([r, o, a]\). Do interpolacji, w zbiorze treningowym, gdy
    atrybutem był „kolor” lub „rozmiar” (tj. uporządkowane atrybuty), wartościami
    atrybuty były ograniczone do członków zbioru dyskretnego o parzystym indeksie,
    podczas gdy w zbiorze testowym dozwolone były tylko wartości indeksowane nieparzyście. Zauważ, że wszystko
    \(S\) zawierał potrójny \([r, o, a]\) z atrybutem color lub size .
    Dlatego uogólnienie jest wymagane dla każdego pytania w zbiorze testowym.

  • Rozmiar zestawu danych : 37.09 GiB

  • Przykłady ( tfds.as_dataframe ):

abstrakcyjne_rozumowanie/ekstrapolacja

  • Opis konfiguracji : taki sam jak w przypadku interpolacji, ale wartości
    atrybuty były ograniczone do dolnej połowy zestawu dyskretnego podczas
    treningu, podczas gdy w zbiorze testowym przyjęli wartości w górnej połowie.

  • Rozmiar zestawu danych : 35.91 GiB

  • Przykłady ( tfds.as_dataframe ):

abstract_reasoning/attr.rel.pairs

  • Opis konfiguracji : Wszystkie \(S\) zawierały co najmniej dwie trójki,
    \(([r_1,o_1,a_1],[r_2,o_2,a_2]) = (t_1, t_2)\), z których 400 jest wykonalnych. My
    losowo przydzielono 360 do zbioru uczącego i 40 do zbioru testowego. Członkowie
    \((t_1, t_2)\) z 40 trzymanych par nie wystąpiło razem w strukturach\(S\)
    w zbiorze uczącym, a wszystkie struktury \(S\) miały co najmniej jedną taką parę
    \((t_1, t_2)\) jako podzbiór.

  • Rozmiar zestawu danych : 41.07 GiB

  • Przykłady ( tfds.as_dataframe ):

abstract_reasoning/attr.rels

  • Opis konfiguracji : W naszym zbiorze danych jest 29 możliwych unikalnych
    trzykrotnie \([r,o,a]\). Przydzieliliśmy losowo siedem z nich do zestawu testowego,
    ale takie, że każdy z atrybutów był reprezentowany dokładnie raz w tym zbiorze.
    Te wytrzymywane trójki nigdy nie występowały w pytaniach w zbiorze treningowym i
    każdy \(S\) w zbiorze testowym zawierał co najmniej jeden z nich.

  • Rozmiar zestawu danych : 41.45 GiB

  • Przykłady ( tfds.as_dataframe ):

abstract_reasoning/attrs.pairs

  • Opis konfiguracji: \(S\) zawierał co najmniej dwie trójki. Jest 20
    (nieuporządkowane) realne pary atrybutów \((a_1, a_2)\) takie, że dla niektórych
    \(r_i, o_i, ([r_1,o_1,a_1],[r_2,o_2,a_2])\) to opłacalna potrójna para
    \(([r_1,o_1,a_1],[r_2,o_2,a_2]) = (t_1, t_2)\). Przydzieliliśmy 16 takich par
    na szkolenie i cztery na testy. Dla pary \((a_1, a_2)\) w zbiorze testowym,
    \(S\) w zestawie szkoleniowym zawierał trójki z \(a_1\) lub \(a_2\). w teście
    set, wszystkie \(S\) zawierały trójki z \(a_1\) i \(a_2\).

  • Rozmiar zestawu danych : 40.98 GiB

  • Przykłady ( tfds.as_dataframe ):

abstract_reasoning/attrs.shape.color

  • Opis konfiguracji : wstrzymany atrybut shape-color. \(S\) in
    zestaw uczący nie zawierał trójek z \(o\)=shape i \(a\)=colour.
    Wszystkie struktury rządzące łamigłówkami w zbiorze testowym zawierały co najmniej jedną trójkę
    z \(o\)=kształt i \(a\)=kolor.

  • Rozmiar zestawu danych : 41.21 GiB

  • Przykłady ( tfds.as_dataframe ):

abstract_reasoning/attrs.line.type

  • Opis konfiguracji : wstrzymany atrybut typ linii. \(S\) in
    zestaw uczący nie zawierał trójek z \(o\)=line i \(a\)=type.
    Wszystkie struktury rządzące łamigłówkami w zbiorze testowym zawierały co najmniej jedną trójkę
    z \(o\)=line i \(a\)=type.

  • Rozmiar zestawu danych : 41.40 GiB

  • Przykłady ( tfds.as_dataframe ):