- Описание :
Эти наборы данных были созданы с помощью среды PickPlaceCan симулятора робота-манипулятора robosuite . Наборы данных человека были записаны одним оператором с помощью RLDS Creator и контроллера геймпада.
Синтетические наборы данных были записаны с использованием библиотеки EnvLogger .
Наборы данных соответствуют формату RLDS для представления шагов и эпизодов.
Эпизоды состоят из 400 шагов. В каждом эпизоде при завершении задачи добавляется тег, этот тег сохраняется как часть метаданных пользовательского шага.
Обратите внимание, что из-за зависимости от EnvLogger создание этого набора данных в настоящее время поддерживается только в средах Linux.
Исходный код :
tfds.rlds.robosuite_panda_pick_place_can.RobosuitePandaPickPlaceCan
.Версии :
-
1.0.0
(по умолчанию): Первоначальный выпуск.
-
Автоматическое кэширование ( документация ): Нет
Ключи под наблюдением (см . документ
as_supervised
):None
Рисунок ( tfds.show_examples ): не поддерживается.
Цитата :
@misc{ramos2021rlds,
title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
year={2021},
eprint={2111.02767},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
robosuite_panda_pick_place_can/human_dc29b40a (конфигурация по умолчанию)
Описание конфигурации : созданный человеком набор данных (50 эпизодов).
Домашняя страница : https://github.com/google-research/rlds
Размер загрузки :
96.67 MiB
Размер набора данных :
407.24 MiB
.Сплиты :
Расколоть | Примеры |
---|---|
'train' | 50 |
- Структура функции :
FeaturesDict({
'agent_id': string,
'episode_id': string,
'episode_index': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': float64,
'image': Image(shape=(None, None, 3), dtype=uint8),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=float64),
'Can_quat': Tensor(shape=(4,), dtype=float64),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'object-state': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
}),
'reward': float64,
'tag:placed': bool,
}),
})
- Документация по функциям :
Особенность | Учебный класс | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
агент_идентификатор | Тензор | нить | ||
id_эпизода | Тензор | нить | ||
эпизод_индекс | Тензор | int32 | ||
шаги | Набор данных | |||
шаги/действие | Тензор | (7,) | поплавок64 | |
шаги/скидка | Тензор | поплавок64 | ||
шаги/изображение | Изображение | (Нет, Нет, 3) | uint8 | |
шаги / is_first | Тензор | логический | ||
шаги/is_last | Тензор | логический | ||
шаги/is_terminal | Тензор | логический | ||
шаги/наблюдение | ОсобенностиDict | |||
шаги/наблюдение/Can_pos | Тензор | (3,) | поплавок64 | |
шаги/наблюдение/Can_quat | Тензор | (4,) | поплавок64 | |
шаги/наблюдение/Can_to_robot0_eef_pos | Тензор | (3,) | поплавок64 | |
шаги/наблюдение/Can_to_robot0_eef_quat | Тензор | (4,) | поплавок32 | |
шаги/наблюдение/состояние объекта | Тензор | (14,) | поплавок64 | |
шаги/наблюдение/robot0_eef_pos | Тензор | (3,) | поплавок64 | |
шаги/наблюдение/robot0_eef_quat | Тензор | (4,) | поплавок64 | |
шаги/наблюдение/robot0_gripper_qpos | Тензор | (2,) | поплавок64 | |
шаги/наблюдение/robot0_gripper_qvel | Тензор | (2,) | поплавок64 | |
шаги/наблюдение/robot0_joint_pos_cos | Тензор | (7,) | поплавок64 | |
шаги/наблюдение/robot0_joint_pos_sin | Тензор | (7,) | поплавок64 | |
шаги/наблюдение/robot0_joint_vel | Тензор | (7,) | поплавок64 | |
шаги/наблюдение/robot0_proprio-state | Тензор | (32,) | поплавок64 | |
шаги/награда | Тензор | поплавок64 | ||
шаги / тег: размещено | Тензор | логический |
- Примеры ( tfds.as_dataframe ):
robosuite_panda_pick_place_can/human_images_dc29b40a
Описание конфигурации : набор данных, созданный человеком, включая изображения с разных ракурсов камеры наблюдения. Обратите внимание, что для создания может потребоваться некоторое время.
Домашняя страница : https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can
Размер загрузки :
10.95 GiB
Размер набора данных :
7.53 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'train' | 50 |
- Структура функции :
FeaturesDict({
'agent_id': string,
'episode_id': string,
'episode_index': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': float64,
'image': Image(shape=(None, None, 3), dtype=uint8),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=float64),
'Can_quat': Tensor(shape=(4,), dtype=float64),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
'object-state': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
}),
'reward': float64,
'tag:placed': bool,
}),
})
- Документация по функциям :
Особенность | Учебный класс | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
агент_идентификатор | Тензор | нить | ||
id_эпизода | Тензор | нить | ||
эпизод_индекс | Тензор | int32 | ||
шаги | Набор данных | |||
шаги/действие | Тензор | (7,) | поплавок64 | |
шаги/скидка | Тензор | поплавок64 | ||
шаги/изображение | Изображение | (Нет, Нет, 3) | uint8 | |
шаги / is_first | Тензор | логический | ||
шаги/is_last | Тензор | логический | ||
шаги/is_terminal | Тензор | логический | ||
шаги/наблюдение | ОсобенностиDict | |||
шаги/наблюдение/Can_pos | Тензор | (3,) | поплавок64 | |
шаги/наблюдение/Can_quat | Тензор | (4,) | поплавок64 | |
шаги/наблюдение/Can_to_robot0_eef_pos | Тензор | (3,) | поплавок64 | |
шаги/наблюдение/Can_to_robot0_eef_quat | Тензор | (4,) | поплавок32 | |
шаги/наблюдение/agentview_image | Изображение | (256, 256, 3) | uint8 | |
шаги/наблюдение/birdview_image | Изображение | (256, 256, 3) | uint8 | |
шаги/наблюдение/состояние объекта | Тензор | (14,) | поплавок64 | |
шаги/наблюдение/robot0_eef_pos | Тензор | (3,) | поплавок64 | |
шаги/наблюдение/robot0_eef_quat | Тензор | (4,) | поплавок64 | |
шаги/наблюдение/robot0_eye_in_hand_image | Изображение | (256, 256, 3) | uint8 | |
шаги/наблюдение/robot0_gripper_qpos | Тензор | (2,) | поплавок64 | |
шаги/наблюдение/robot0_gripper_qvel | Тензор | (2,) | поплавок64 | |
шаги/наблюдение/robot0_joint_pos_cos | Тензор | (7,) | поплавок64 | |
шаги/наблюдение/robot0_joint_pos_sin | Тензор | (7,) | поплавок64 | |
шаги/наблюдение/robot0_joint_vel | Тензор | (7,) | поплавок64 | |
шаги/наблюдение/robot0_proprio-state | Тензор | (32,) | поплавок64 | |
шаги/наблюдение/robot0_robotview_image | Изображение | (256, 256, 3) | uint8 | |
шаги/награда | Тензор | поплавок64 | ||
шаги / тег: размещено | Тензор | логический |
- Примеры ( tfds.as_dataframe ):
robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968
Описание конфигурации : синтетический набор данных, сгенерированный стохастическим агентом, обученным с помощью SAC (200 эпизодов).
Домашняя страница : https://github.com/google-research/rlds
Размер загрузки :
144.44 MiB
Размер набора данных :
622.86 MiB
.Сплиты :
Расколоть | Примеры |
---|---|
'train' | 200 |
- Структура функции :
FeaturesDict({
'agent_id': string,
'episode_id': string,
'episode_index': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float32),
'discount': float64,
'image': Image(shape=(None, None, 3), dtype=uint8),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=float32),
'Can_quat': Tensor(shape=(4,), dtype=float32),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'object-state': Tensor(shape=(14,), dtype=float32),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
}),
'reward': float64,
'tag:placed': bool,
}),
})
- Документация по функциям :
Особенность | Учебный класс | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
агент_идентификатор | Тензор | нить | ||
id_эпизода | Тензор | нить | ||
эпизод_индекс | Тензор | int32 | ||
шаги | Набор данных | |||
шаги/действие | Тензор | (7,) | поплавок32 | |
шаги/скидка | Тензор | поплавок64 | ||
шаги/изображение | Изображение | (Нет, Нет, 3) | uint8 | |
шаги / is_first | Тензор | логический | ||
шаги/is_last | Тензор | логический | ||
шаги/is_terminal | Тензор | логический | ||
шаги/наблюдение | ОсобенностиDict | |||
шаги/наблюдение/Can_pos | Тензор | (3,) | поплавок32 | |
шаги/наблюдение/Can_quat | Тензор | (4,) | поплавок32 | |
шаги/наблюдение/Can_to_robot0_eef_pos | Тензор | (3,) | поплавок32 | |
шаги/наблюдение/Can_to_robot0_eef_quat | Тензор | (4,) | поплавок32 | |
шаги/наблюдение/состояние объекта | Тензор | (14,) | поплавок32 | |
шаги/наблюдение/robot0_eef_pos | Тензор | (3,) | поплавок32 | |
шаги/наблюдение/robot0_eef_quat | Тензор | (4,) | поплавок32 | |
шаги/наблюдение/robot0_gripper_qpos | Тензор | (2,) | поплавок32 | |
шаги/наблюдение/robot0_gripper_qvel | Тензор | (2,) | поплавок32 | |
шаги/наблюдение/robot0_joint_pos_cos | Тензор | (7,) | поплавок32 | |
шаги/наблюдение/robot0_joint_pos_sin | Тензор | (7,) | поплавок32 | |
шаги/наблюдение/robot0_joint_vel | Тензор | (7,) | поплавок32 | |
шаги/наблюдение/robot0_proprio-state | Тензор | (32,) | поплавок32 | |
шаги/награда | Тензор | поплавок64 | ||
шаги / тег: размещено | Тензор | логический |
- Примеры ( tfds.as_dataframe ):