Pomoc chronić Wielkiej Rafy Koralowej z TensorFlow na Kaggle Dołącz Wyzwanie

d4rl_adroit_pen

  • opis:

D4RL to benchmark open source do uczenia się przez wzmacnianie offline. Zapewnia ustandaryzowane środowiska i zestawy danych na potrzeby algorytmów szkoleniowych i porównawczych.

@misc{fu2020d4rl,
    title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
    author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
    year={2020},
    eprint={2004.07219},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

d4rl_adroit_pen/v0-human (konfiguracja domyślna)

Podział Przykłady
'train' 50
  • Cechy:
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=tf.float32),
        'discount': tf.float32,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=tf.float32),
            'qvel': Tensor(shape=(30,), dtype=tf.float32),
        }),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': Tensor(shape=(45,), dtype=tf.float32),
        'reward': tf.float32,
    }),
})

d4rl_adroit_pen/v0-sklonowany

Podział Przykłady
'train' 5023
  • Cechy:
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=tf.float32),
        'discount': tf.float64,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=tf.float64),
            'qvel': Tensor(shape=(30,), dtype=tf.float64),
        }),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': Tensor(shape=(45,), dtype=tf.float64),
        'reward': tf.float64,
    }),
})

d4rl_adroit_pen/v0-ekspert

Podział Przykłady
'train' 5000
  • Cechy:
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=tf.float32),
        'discount': tf.float32,
        'infos': FeaturesDict({
            'action_logstd': Tensor(shape=(24,), dtype=tf.float32),
            'action_mean': Tensor(shape=(24,), dtype=tf.float32),
            'qpos': Tensor(shape=(30,), dtype=tf.float32),
            'qvel': Tensor(shape=(30,), dtype=tf.float32),
        }),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': Tensor(shape=(45,), dtype=tf.float32),
        'reward': tf.float32,
    }),
})

d4rl_adroit_pen/v1-człowiek

Podział Przykłady
'train' 25
  • Cechy:
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=tf.float32),
        'discount': tf.float32,
        'infos': FeaturesDict({
            'desired_orien': Tensor(shape=(4,), dtype=tf.float32),
            'qpos': Tensor(shape=(30,), dtype=tf.float32),
            'qvel': Tensor(shape=(30,), dtype=tf.float32),
        }),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': Tensor(shape=(45,), dtype=tf.float32),
        'reward': tf.float32,
    }),
})

d4rl_adroit_pen/v1-sklonowany

Podział Przykłady
'train' 3755
  • Cechy:
FeaturesDict({
    'algorithm': tf.string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=tf.float32),
            'weight': Tensor(shape=(45, 256), dtype=tf.float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=tf.float32),
            'weight': Tensor(shape=(256, 256), dtype=tf.float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=tf.float32),
            'weight': Tensor(shape=(256, 24), dtype=tf.float32),
        }),
        'nonlinearity': tf.string,
        'output_distribution': tf.string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=tf.float32),
        'discount': tf.float32,
        'infos': FeaturesDict({
            'desired_orien': Tensor(shape=(4,), dtype=tf.float32),
            'qpos': Tensor(shape=(30,), dtype=tf.float32),
            'qvel': Tensor(shape=(30,), dtype=tf.float32),
        }),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': Tensor(shape=(45,), dtype=tf.float32),
        'reward': tf.float32,
    }),
})

d4rl_adroit_pen/v1-ekspert

  • Wielkość pliku: 249.90 MiB

  • Zbiór danych rozmiar: 548.47 MiB

  • Auto-buforowane ( dokumentacja ): Nie

  • dzieli:

Podział Przykłady
'train' 5000
  • Cechy:
FeaturesDict({
    'algorithm': tf.string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(64,), dtype=tf.float32),
            'weight': Tensor(shape=(64, 45), dtype=tf.float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(64,), dtype=tf.float32),
            'weight': Tensor(shape=(64, 64), dtype=tf.float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=tf.float32),
            'weight': Tensor(shape=(24, 64), dtype=tf.float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=tf.float32),
            'weight': Tensor(shape=(24, 64), dtype=tf.float32),
        }),
        'nonlinearity': tf.string,
        'output_distribution': tf.string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=tf.float32),
        'discount': tf.float32,
        'infos': FeaturesDict({
            'action_log_std': Tensor(shape=(24,), dtype=tf.float32),
            'action_mean': Tensor(shape=(24,), dtype=tf.float32),
            'desired_orien': Tensor(shape=(4,), dtype=tf.float32),
            'qpos': Tensor(shape=(30,), dtype=tf.float32),
            'qvel': Tensor(shape=(30,), dtype=tf.float32),
        }),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': Tensor(shape=(45,), dtype=tf.float32),
        'reward': tf.float32,
    }),
})