- Описание :
Эти наборы данных были созданы с помощью среды PickPlaceCan симулятора робота-манипулятора robosuite . Наборы данных человека были записаны одним оператором с помощью RLDS Creator и контроллера геймпада.
Синтетические наборы данных были записаны с использованием библиотеки EnvLogger .
Наборы данных соответствуют формату RLDS для представления шагов и эпизодов.
Эпизоды состоят из 400 шагов. В каждом эпизоде при завершении задачи добавляется тег, этот тег сохраняется как часть метаданных пользовательского шага.
Обратите внимание, что из-за зависимости от EnvLogger создание этого набора данных в настоящее время поддерживается только в средах Linux.
Исходный код :
tfds.rlds.robosuite_panda_pick_place_can.RobosuitePandaPickPlaceCan
.Версии :
-
1.0.0
(по умолчанию): Первоначальный выпуск.
-
Автоматическое кэширование ( документация ): Нет
Ключи под наблюдением (см . документ
as_supervised
):None
Рисунок ( tfds.show_examples ): не поддерживается.
Цитата :
@misc{ramos2021rlds,
title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
year={2021},
eprint={2111.02767},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
robosuite_panda_pick_place_can/human_dc29b40a (конфигурация по умолчанию)
Описание конфигурации : созданный человеком набор данных (50 эпизодов).
Домашняя страница : https://github.com/google-research/rlds
Размер загрузки :
96.67 MiB
Размер набора данных :
407.24 MiB
.Сплиты :
Расколоть | Примеры |
---|---|
'train' | 50 |
- Структура функции :
FeaturesDict({
'agent_id': tf.string,
'episode_id': tf.string,
'episode_index': tf.int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=tf.float64),
'discount': tf.float64,
'image': Image(shape=(None, None, 3), dtype=tf.uint8),
'is_first': tf.bool,
'is_last': tf.bool,
'is_terminal': tf.bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=tf.float64),
'Can_quat': Tensor(shape=(4,), dtype=tf.float64),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
'object-state': Tensor(shape=(14,), dtype=tf.float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float64),
'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float64),
}),
'reward': tf.float64,
'tag:placed': tf.bool,
}),
})
- Документация по функциям :
Характерная черта | Сорт | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
агент_идентификатор | Тензор | tf.string | ||
id_эпизода | Тензор | tf.string | ||
эпизод_индекс | Тензор | tf.int32 | ||
шаги | Набор данных | |||
шаги/действие | Тензор | (7,) | tf.float64 | |
шаги/скидка | Тензор | tf.float64 | ||
шаги/изображение | Изображение | (Нет, Нет, 3) | tf.uint8 | |
шаги / is_first | Тензор | tf.bool | ||
шаги/is_last | Тензор | tf.bool | ||
шаги/is_terminal | Тензор | tf.bool | ||
шаги/наблюдение | ОсобенностиDict | |||
шаги/наблюдение/Can_pos | Тензор | (3,) | tf.float64 | |
шаги/наблюдение/Can_quat | Тензор | (4,) | tf.float64 | |
шаги/наблюдение/Can_to_robot0_eef_pos | Тензор | (3,) | tf.float64 | |
шаги/наблюдение/Can_to_robot0_eef_quat | Тензор | (4,) | tf.float32 | |
шаги/наблюдение/состояние объекта | Тензор | (14,) | tf.float64 | |
шаги/наблюдение/robot0_eef_pos | Тензор | (3,) | tf.float64 | |
шаги/наблюдение/robot0_eef_quat | Тензор | (4,) | tf.float64 | |
шаги/наблюдение/robot0_gripper_qpos | Тензор | (2,) | tf.float64 | |
шаги/наблюдение/robot0_gripper_qvel | Тензор | (2,) | tf.float64 | |
шаги/наблюдение/robot0_joint_pos_cos | Тензор | (7,) | tf.float64 | |
шаги/наблюдение/robot0_joint_pos_sin | Тензор | (7,) | tf.float64 | |
шаги/наблюдение/robot0_joint_vel | Тензор | (7,) | tf.float64 | |
шаги/наблюдение/robot0_proprio-state | Тензор | (32,) | tf.float64 | |
шаги/награда | Тензор | tf.float64 | ||
шаги / тег: размещено | Тензор | tf.bool |
- Примеры ( tfds.as_dataframe ):
robosuite_panda_pick_place_can/human_images_dc29b40a
Описание конфигурации : набор данных, созданный человеком, включая изображения с разных ракурсов камеры наблюдения. Обратите внимание, что для создания может потребоваться некоторое время.
Домашняя страница : https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can
Размер загрузки :
10.95 GiB
Размер набора данных :
7.53 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'train' | 50 |
- Структура функции :
FeaturesDict({
'agent_id': tf.string,
'episode_id': tf.string,
'episode_index': tf.int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=tf.float64),
'discount': tf.float64,
'image': Image(shape=(None, None, 3), dtype=tf.uint8),
'is_first': tf.bool,
'is_last': tf.bool,
'is_terminal': tf.bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=tf.float64),
'Can_quat': Tensor(shape=(4,), dtype=tf.float64),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
'agentview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
'birdview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
'object-state': Tensor(shape=(14,), dtype=tf.float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float64),
'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float64),
'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float64),
'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
}),
'reward': tf.float64,
'tag:placed': tf.bool,
}),
})
- Документация по функциям :
Характерная черта | Сорт | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
агент_идентификатор | Тензор | tf.string | ||
id_эпизода | Тензор | tf.string | ||
эпизод_индекс | Тензор | tf.int32 | ||
шаги | Набор данных | |||
шаги/действие | Тензор | (7,) | tf.float64 | |
шаги/скидка | Тензор | tf.float64 | ||
шаги/изображение | Изображение | (Нет, Нет, 3) | tf.uint8 | |
шаги / is_first | Тензор | tf.bool | ||
шаги/is_last | Тензор | tf.bool | ||
шаги/is_terminal | Тензор | tf.bool | ||
шаги/наблюдение | ОсобенностиDict | |||
шаги/наблюдение/Can_pos | Тензор | (3,) | tf.float64 | |
шаги/наблюдение/Can_quat | Тензор | (4,) | tf.float64 | |
шаги/наблюдение/Can_to_robot0_eef_pos | Тензор | (3,) | tf.float64 | |
шаги/наблюдение/Can_to_robot0_eef_quat | Тензор | (4,) | tf.float32 | |
шаги/наблюдение/agentview_image | Изображение | (256, 256, 3) | tf.uint8 | |
шаги/наблюдение/birdview_image | Изображение | (256, 256, 3) | tf.uint8 | |
шаги/наблюдение/состояние объекта | Тензор | (14,) | tf.float64 | |
шаги/наблюдение/robot0_eef_pos | Тензор | (3,) | tf.float64 | |
шаги/наблюдение/robot0_eef_quat | Тензор | (4,) | tf.float64 | |
шаги/наблюдение/robot0_eye_in_hand_image | Изображение | (256, 256, 3) | tf.uint8 | |
шаги/наблюдение/robot0_gripper_qpos | Тензор | (2,) | tf.float64 | |
шаги/наблюдение/robot0_gripper_qvel | Тензор | (2,) | tf.float64 | |
шаги/наблюдение/robot0_joint_pos_cos | Тензор | (7,) | tf.float64 | |
шаги/наблюдение/robot0_joint_pos_sin | Тензор | (7,) | tf.float64 | |
шаги/наблюдение/robot0_joint_vel | Тензор | (7,) | tf.float64 | |
шаги/наблюдение/robot0_proprio-state | Тензор | (32,) | tf.float64 | |
шаги/наблюдение/robot0_robotview_image | Изображение | (256, 256, 3) | tf.uint8 | |
шаги/награда | Тензор | tf.float64 | ||
шаги / тег: размещено | Тензор | tf.bool |
- Примеры ( tfds.as_dataframe ):
robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968
Описание конфигурации : синтетический набор данных, сгенерированный стохастическим агентом, обученным с помощью SAC (200 эпизодов).
Домашняя страница : https://github.com/google-research/rlds
Размер загрузки :
144.44 MiB
Размер набора данных :
622.86 MiB
.Сплиты :
Расколоть | Примеры |
---|---|
'train' | 200 |
- Структура функции :
FeaturesDict({
'agent_id': tf.string,
'episode_id': tf.string,
'episode_index': tf.int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=tf.float32),
'discount': tf.float64,
'image': Image(shape=(None, None, 3), dtype=tf.uint8),
'is_first': tf.bool,
'is_last': tf.bool,
'is_terminal': tf.bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=tf.float32),
'Can_quat': Tensor(shape=(4,), dtype=tf.float32),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float32),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
'object-state': Tensor(shape=(14,), dtype=tf.float32),
'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float32),
'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float32),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float32),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float32),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float32),
'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float32),
'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float32),
}),
'reward': tf.float64,
'tag:placed': tf.bool,
}),
})
- Документация по функциям :
Характерная черта | Сорт | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
агент_идентификатор | Тензор | tf.string | ||
id_эпизода | Тензор | tf.string | ||
эпизод_индекс | Тензор | tf.int32 | ||
шаги | Набор данных | |||
шаги/действие | Тензор | (7,) | tf.float32 | |
шаги/скидка | Тензор | tf.float64 | ||
шаги/изображение | Изображение | (Нет, Нет, 3) | tf.uint8 | |
шаги / is_first | Тензор | tf.bool | ||
шаги/is_last | Тензор | tf.bool | ||
шаги/is_terminal | Тензор | tf.bool | ||
шаги/наблюдение | ОсобенностиDict | |||
шаги/наблюдение/Can_pos | Тензор | (3,) | tf.float32 | |
шаги/наблюдение/Can_quat | Тензор | (4,) | tf.float32 | |
шаги/наблюдение/Can_to_robot0_eef_pos | Тензор | (3,) | tf.float32 | |
шаги/наблюдение/Can_to_robot0_eef_quat | Тензор | (4,) | tf.float32 | |
шаги/наблюдение/состояние объекта | Тензор | (14,) | tf.float32 | |
шаги/наблюдение/robot0_eef_pos | Тензор | (3,) | tf.float32 | |
шаги/наблюдение/robot0_eef_quat | Тензор | (4,) | tf.float32 | |
шаги/наблюдение/robot0_gripper_qpos | Тензор | (2,) | tf.float32 | |
шаги/наблюдение/robot0_gripper_qvel | Тензор | (2,) | tf.float32 | |
шаги/наблюдение/robot0_joint_pos_cos | Тензор | (7,) | tf.float32 | |
шаги/наблюдение/robot0_joint_pos_sin | Тензор | (7,) | tf.float32 | |
шаги/наблюдение/robot0_joint_vel | Тензор | (7,) | tf.float32 | |
шаги/наблюдение/robot0_proprio-state | Тензор | (32,) | tf.float32 | |
шаги/награда | Тензор | tf.float64 | ||
шаги / тег: размещено | Тензор | tf.bool |
- Примеры ( tfds.as_dataframe ):