Google I/O — это обертка! Наверстать упущенное в сеансах TensorFlow Просмотреть сеансы

rlu_dmlab_explore_object_rewards_few

  • Описание :

RL Unplugged — это набор тестов для автономного обучения с подкреплением. RL Unplugged разработан с учетом следующих соображений: чтобы упростить использование, мы предоставляем наборы данных с унифицированным API, который позволяет практикующим специалистам легко работать со всеми данными в наборе после того, как общий конвейер был установлен.

Наборы данных соответствуют формату RLDS для представления шагов и эпизодов.

Набор данных DeepMind Lab имеет несколько уровней сложного, частично наблюдаемого пакета Deepmind Lab . Набор данных DeepMind Lab собирается путем обучения распределенных агентов R2D2 Kapturowski et al., 2018 с нуля индивидуальным задачам. Мы записывали опыт всех актеров в течение всего тренировочного цикла несколько раз для каждой задачи. Подробности процесса создания набора данных описаны в Gulcehre et al., 2021 .

Мы выпускаем наборы данных для пяти разных уровней DeepMind Lab: seekavoid_arena_01 , explore_rewards_few , explore_rewards_many , rooms_watermaze , rooms_select_nonmatching_object . Мы также выпускаем наборы данных моментальных снимков для уровня seekavoid_arena_01 , которые мы сгенерировали наборы данных из обученного моментального снимка R2D2 с различными уровнями эпсилон для эпсилон-жадного алгоритма при оценке агента в среде.

Набор данных DeepMind Lab довольно масштабный. Мы рекомендуем вам попробовать его, если вы заинтересованы в крупномасштабных автономных моделях RL с памятью.

Расколоть Примеры
'train' 89 144
  • Структура функции :
FeaturesDict({
    'episode_id': tf.int64,
    'episode_return': tf.float32,
    'steps': Dataset({
        'action': tf.int64,
        'discount': tf.float32,
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'last_action': tf.int64,
            'last_reward': tf.float32,
            'pixels': Image(shape=(72, 96, 3), dtype=tf.uint8),
        }),
        'reward': tf.float32,
    }),
})
  • Документация по функциям :
Характерная черта Сорт Форма Dтип Описание
ОсобенностиDict
id_эпизода Тензор tf.int64
эпизод_возврат Тензор tf.float32
шаги Набор данных
шаги/действие Тензор tf.int64
шаги/скидка Тензор tf.float32
шаги / is_first Тензор tf.bool
шаги/is_last Тензор tf.bool
шаги/is_terminal Тензор tf.bool
шаги/наблюдение ОсобенностиDict
шаги/наблюдение/последнее_действие Тензор tf.int64
шаги/наблюдение/last_reward Тензор tf.float32
шаги/наблюдение/пиксели Изображение (72, 96, 3) tf.uint8
шаги/награда Тензор tf.float32
@article{gulcehre2021rbve,
    title={Regularized Behavior Value Estimation},
    author={ {\c{C} }aglar G{\"{u} }l{\c{c} }ehre and
               Sergio G{\'{o} }mez Colmenarejo and
               Ziyu Wang and
               Jakub Sygnowski and
               Thomas Paine and
               Konrad Zolna and
               Yutian Chen and
               Matthew W. Hoffman and
               Razvan Pascanu and
               Nando de Freitas},
    year={2021},
    journal   = {CoRR},
    url       = {https://arxiv.org/abs/2103.09575},
    eprint={2103.09575},
    archivePrefix={arXiv},
}

rlu_dmlab_explore_object_rewards_few/training_0 (конфигурация по умолчанию)

  • Размер набора данных : 1020.09 GiB

  • Примеры ( tfds.as_dataframe ):

rlu_dmlab_explore_object_rewards_few/training_1

  • Размер набора данных : 1.04 TiB .

  • Примеры ( tfds.as_dataframe ):

rlu_dmlab_explore_object_rewards_few/training_2

  • Размер набора данных : 1015.51 GiB

  • Примеры ( tfds.as_dataframe ):