robosuite_panda_pick_place_can

  • Descriptif :

Ces ensembles de données ont été créés avec l'environnement PickPlaceCan du simulateur de bras robotique robosuite . Les ensembles de données humaines ont été enregistrés par un seul opérateur à l'aide du RLDS Creator et d'un contrôleur de manette de jeu.

Les ensembles de données synthétiques ont été enregistrés à l'aide de la bibliothèque EnvLogger .

Les ensembles de données suivent le format RLDS pour représenter les étapes et les épisodes.

Les épisodes se composent de 400 étapes. Dans chaque épisode, une balise est ajoutée lorsque la tâche est terminée, cette balise est stockée dans les métadonnées de l'étape personnalisée.

Notez qu'en raison de la dépendance EnvLogger, la génération de cet ensemble de données est actuellement prise en charge sur les environnements Linux uniquement.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (configuration par défaut)

  • Description de la configuration : jeu de données généré par l'homme (50 épisodes).

  • Page d' accueil : https://github.com/google-research/rlds

  • Taille du téléchargement : 96.67 MiB

  • Taille du jeu de données : 407.24 MiB

  • Fractionnements :

Diviser Exemples
'train' 50
  • Structure des fonctionnalités :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentation des fonctionnalités :
Caractéristique Classer Forme Dtype La description
FonctionnalitésDict
id_agent Tenseur chaîne de caractères
épisode_id Tenseur chaîne de caractères
index_épisode Tenseur int32
pas Base de données
étapes/action Tenseur (sept,) float64
étapes/réduction Tenseur float64
étapes/image Image (Aucun, Aucun, 3) uint8
étapes/is_first Tenseur bourdonner
pas/est_dernier Tenseur bourdonner
étapes/is_terminal Tenseur bourdonner
étapes/observation FonctionnalitésDict
étapes/observation/Can_pos Tenseur (3,) float64
étapes/observation/Can_quat Tenseur (4,) float64
étapes/observation/Can_to_robot0_eef_pos Tenseur (3,) float64
étapes/observation/Can_to_robot0_eef_quat Tenseur (4,) float32
étapes/observation/état d'objet Tenseur (14,) float64
étapes/observation/robot0_eef_pos Tenseur (3,) float64
étapes/observation/robot0_eef_quat Tenseur (4,) float64
étapes/observation/robot0_gripper_qpos Tenseur (2,) float64
étapes/observation/robot0_gripper_qvel Tenseur (2,) float64
étapes/observation/robot0_joint_pos_cos Tenseur (sept,) float64
étapes/observation/robot0_joint_pos_sin Tenseur (sept,) float64
étapes/observation/robot0_joint_vel Tenseur (sept,) float64
étapes/observation/robot0_proprio-state Tenseur (32,) float64
pas/récompense Tenseur float64
étapes/tag:placé Tenseur bourdonner

robosuite_panda_pick_place_can/human_images_dc29b40a

  • Description de la configuration : jeu de données généré par l'homme, comprenant des images avec différents angles de caméra dans l'observation. Notez que la génération peut prendre un certain temps.

  • Page d' accueil : https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can

  • Taille du téléchargement : 10.95 GiB

  • Taille du jeu de données : 7.53 GiB

  • Fractionnements :

Diviser Exemples
'train' 50
  • Structure des fonctionnalités :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentation des fonctionnalités :
Caractéristique Classer Forme Dtype La description
FonctionnalitésDict
id_agent Tenseur chaîne de caractères
épisode_id Tenseur chaîne de caractères
index_épisode Tenseur int32
pas Base de données
étapes/action Tenseur (sept,) float64
étapes/réduction Tenseur float64
étapes/image Image (Aucun, Aucun, 3) uint8
étapes/is_first Tenseur bourdonner
pas/est_dernier Tenseur bourdonner
étapes/is_terminal Tenseur bourdonner
étapes/observation FonctionnalitésDict
étapes/observation/Can_pos Tenseur (3,) float64
étapes/observation/Can_quat Tenseur (4,) float64
étapes/observation/Can_to_robot0_eef_pos Tenseur (3,) float64
étapes/observation/Can_to_robot0_eef_quat Tenseur (4,) float32
étapes/observation/agentview_image Image (256, 256, 3) uint8
étapes/observation/birdview_image Image (256, 256, 3) uint8
étapes/observation/état d'objet Tenseur (14,) float64
étapes/observation/robot0_eef_pos Tenseur (3,) float64
étapes/observation/robot0_eef_quat Tenseur (4,) float64
étapes/observation/robot0_eye_in_hand_image Image (256, 256, 3) uint8
étapes/observation/robot0_gripper_qpos Tenseur (2,) float64
étapes/observation/robot0_gripper_qvel Tenseur (2,) float64
étapes/observation/robot0_joint_pos_cos Tenseur (sept,) float64
étapes/observation/robot0_joint_pos_sin Tenseur (sept,) float64
étapes/observation/robot0_joint_vel Tenseur (sept,) float64
étapes/observation/robot0_proprio-state Tenseur (32,) float64
étapes/observation/robot0_robotview_image Image (256, 256, 3) uint8
pas/récompense Tenseur float64
étapes/tag:placé Tenseur bourdonner

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Description de la configuration : Jeu de données synthétique généré par un agent stochastique formé avec SAC (200 épisodes).

  • Page d' accueil : https://github.com/google-research/rlds

  • Taille du téléchargement : 144.44 MiB

  • Taille du jeu de données : 622.86 MiB

  • Fractionnements :

Diviser Exemples
'train' 200
  • Structure des fonctionnalités :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentation des fonctionnalités :
Caractéristique Classer Forme Dtype La description
FonctionnalitésDict
id_agent Tenseur chaîne de caractères
épisode_id Tenseur chaîne de caractères
index_épisode Tenseur int32
pas Base de données
étapes/action Tenseur (sept,) float32
étapes/réduction Tenseur float64
étapes/image Image (Aucun, Aucun, 3) uint8
étapes/is_first Tenseur bourdonner
pas/est_dernier Tenseur bourdonner
étapes/is_terminal Tenseur bourdonner
étapes/observation FonctionnalitésDict
étapes/observation/Can_pos Tenseur (3,) float32
étapes/observation/Can_quat Tenseur (4,) float32
étapes/observation/Can_to_robot0_eef_pos Tenseur (3,) float32
étapes/observation/Can_to_robot0_eef_quat Tenseur (4,) float32
étapes/observation/état d'objet Tenseur (14,) float32
étapes/observation/robot0_eef_pos Tenseur (3,) float32
étapes/observation/robot0_eef_quat Tenseur (4,) float32
étapes/observation/robot0_gripper_qpos Tenseur (2,) float32
étapes/observation/robot0_gripper_qvel Tenseur (2,) float32
étapes/observation/robot0_joint_pos_cos Tenseur (sept,) float32
étapes/observation/robot0_joint_pos_sin Tenseur (sept,) float32
étapes/observation/robot0_joint_vel Tenseur (sept,) float32
étapes/observation/robot0_proprio-state Tenseur (32,) float32
pas/récompense Tenseur float64
étapes/tag:placé Tenseur bourdonner