robosuite_panda_pick_place_can

  • Descripción :

Estos conjuntos de datos se han creado con el entorno PickPlaceCan del simulador de brazo robótico robosuite . Los conjuntos de datos humanos fueron registrados por un solo operador utilizando RLDS Creator y un controlador de gamepad.

Los conjuntos de datos sintéticos se registraron utilizando la biblioteca EnvLogger .

Los conjuntos de datos siguen el formato RLDS para representar pasos y episodios.

Los episodios constan de 400 pasos. En cada episodio, se agrega una etiqueta cuando se completa la tarea, esta etiqueta se almacena como parte de los metadatos del paso personalizado.

Tenga en cuenta que, debido a la dependencia de EnvLogger, la generación de este conjunto de datos actualmente solo se admite en entornos Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (configuración predeterminada)

  • Descripción de la configuración : conjunto de datos generados por humanos (50 episodios).

  • Página de inicio: https://github.com/google-research/rlds

  • Tamaño de la descarga : 96.67 MiB

  • Tamaño del conjunto de datos : 407.24 MiB

  • Divisiones :

Separar Ejemplos
'train' 50
  • Estructura de características :
FeaturesDict({
    'agent_id': tf.string,
    'episode_id': tf.string,
    'episode_index': tf.int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=tf.float64),
        'discount': tf.float64,
        'image': Image(shape=(None, None, 3), dtype=tf.uint8),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_quat': Tensor(shape=(4,), dtype=tf.float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'object-state': Tensor(shape=(14,), dtype=tf.float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float64),
        }),
        'reward': tf.float64,
        'tag:placed': tf.bool,
    }),
})
  • Documentación de características :
Rasgo Clase Forma Tipo D Descripción
CaracterísticasDict
id_agente Tensor tf.cadena
episodio_id Tensor tf.cadena
índice_episodio Tensor tf.int32
pasos conjunto de datos
pasos/acción Tensor (7,) tf.float64
pasos/descuento Tensor tf.float64
pasos/imagen Imagen (Ninguno, Ninguno, 3) tf.uint8
pasos/es_primero Tensor tf.bool
pasos/es_último Tensor tf.bool
pasos/es_terminal Tensor tf.bool
pasos/observación CaracterísticasDict
pasos/observación/Can_pos Tensor (3,) tf.float64
pasos/observación/Can_quat Tensor (4,) tf.float64
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) tf.float64
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) tf.float32
pasos/observación/objeto-estado Tensor (14,) tf.float64
pasos/observación/robot0_eef_pos Tensor (3,) tf.float64
pasos/observación/robot0_eef_quat Tensor (4,) tf.float64
pasos/observación/robot0_gripper_qpos Tensor (2,) tf.float64
pasos/observación/robot0_gripper_qvel Tensor (2,) tf.float64
pasos/observación/robot0_joint_pos_cos Tensor (7,) tf.float64
pasos/observación/robot0_joint_pos_sin Tensor (7,) tf.float64
pasos/observación/robot0_joint_vel Tensor (7,) tf.float64
pasos/observación/robot0_propio-estado Tensor (32,) tf.float64
pasos/recompensa Tensor tf.float64
pasos/etiqueta: colocado Tensor tf.bool

robosuite_panda_pick_place_can/human_images_dc29b40a

  • Descripción de la configuración : conjunto de datos generados por humanos, incluidas imágenes con diferentes ángulos de cámara en la observación. Tenga en cuenta que puede tomar algún tiempo para generar.

  • Página de inicio: https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can

  • Tamaño de descarga : 10.95 GiB

  • Tamaño del conjunto de datos : 7.53 GiB

  • Divisiones :

Separar Ejemplos
'train' 50
  • Estructura de características :
FeaturesDict({
    'agent_id': tf.string,
    'episode_id': tf.string,
    'episode_index': tf.int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=tf.float64),
        'discount': tf.float64,
        'image': Image(shape=(None, None, 3), dtype=tf.uint8),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_quat': Tensor(shape=(4,), dtype=tf.float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
            'object-state': Tensor(shape=(14,), dtype=tf.float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
        }),
        'reward': tf.float64,
        'tag:placed': tf.bool,
    }),
})
  • Documentación de características :
Rasgo Clase Forma Tipo D Descripción
CaracterísticasDict
id_agente Tensor tf.cadena
episodio_id Tensor tf.cadena
índice_episodio Tensor tf.int32
pasos conjunto de datos
pasos/acción Tensor (7,) tf.float64
pasos/descuento Tensor tf.float64
pasos/imagen Imagen (Ninguno, Ninguno, 3) tf.uint8
pasos/es_primero Tensor tf.bool
pasos/es_último Tensor tf.bool
pasos/es_terminal Tensor tf.bool
pasos/observación CaracterísticasDict
pasos/observación/Can_pos Tensor (3,) tf.float64
pasos/observación/Can_quat Tensor (4,) tf.float64
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) tf.float64
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) tf.float32
pasos/observación/agentview_image Imagen (256, 256, 3) tf.uint8
pasos/observación/birdview_image Imagen (256, 256, 3) tf.uint8
pasos/observación/objeto-estado Tensor (14,) tf.float64
pasos/observación/robot0_eef_pos Tensor (3,) tf.float64
pasos/observación/robot0_eef_quat Tensor (4,) tf.float64
pasos/observación/robot0_ojo_en_mano_imagen Imagen (256, 256, 3) tf.uint8
pasos/observación/robot0_gripper_qpos Tensor (2,) tf.float64
pasos/observación/robot0_gripper_qvel Tensor (2,) tf.float64
pasos/observación/robot0_joint_pos_cos Tensor (7,) tf.float64
pasos/observación/robot0_joint_pos_sin Tensor (7,) tf.float64
pasos/observación/robot0_joint_vel Tensor (7,) tf.float64
pasos/observación/robot0_propio-estado Tensor (32,) tf.float64
pasos/observación/robot0_robotview_image Imagen (256, 256, 3) tf.uint8
pasos/recompensa Tensor tf.float64
pasos/etiqueta: colocado Tensor tf.bool

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Descripción de la configuración : conjunto de datos sintéticos generados por un agente estocástico entrenado con SAC (200 episodios).

  • Página de inicio: https://github.com/google-research/rlds

  • Tamaño de la descarga : 144.44 MiB

  • Tamaño del conjunto de datos : 622.86 MiB

  • Divisiones :

Separar Ejemplos
'train' 200
  • Estructura de características :
FeaturesDict({
    'agent_id': tf.string,
    'episode_id': tf.string,
    'episode_index': tf.int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=tf.float32),
        'discount': tf.float64,
        'image': Image(shape=(None, None, 3), dtype=tf.uint8),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=tf.float32),
            'Can_quat': Tensor(shape=(4,), dtype=tf.float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'object-state': Tensor(shape=(14,), dtype=tf.float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float32),
        }),
        'reward': tf.float64,
        'tag:placed': tf.bool,
    }),
})
  • Documentación de características :
Rasgo Clase Forma Tipo D Descripción
CaracterísticasDict
id_agente Tensor tf.cadena
episodio_id Tensor tf.cadena
índice_episodio Tensor tf.int32
pasos conjunto de datos
pasos/acción Tensor (7,) tf.float32
pasos/descuento Tensor tf.float64
pasos/imagen Imagen (Ninguno, Ninguno, 3) tf.uint8
pasos/es_primero Tensor tf.bool
pasos/es_último Tensor tf.bool
pasos/es_terminal Tensor tf.bool
pasos/observación CaracterísticasDict
pasos/observación/Can_pos Tensor (3,) tf.float32
pasos/observación/Can_quat Tensor (4,) tf.float32
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) tf.float32
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) tf.float32
pasos/observación/objeto-estado Tensor (14,) tf.float32
pasos/observación/robot0_eef_pos Tensor (3,) tf.float32
pasos/observación/robot0_eef_quat Tensor (4,) tf.float32
pasos/observación/robot0_gripper_qpos Tensor (2,) tf.float32
pasos/observación/robot0_gripper_qvel Tensor (2,) tf.float32
pasos/observación/robot0_joint_pos_cos Tensor (7,) tf.float32
pasos/observación/robot0_joint_pos_sin Tensor (7,) tf.float32
pasos/observación/robot0_joint_vel Tensor (7,) tf.float32
pasos/observación/robot0_propio-estado Tensor (32,) tf.float32
pasos/recompensa Tensor tf.float64
pasos/etiqueta: colocado Tensor tf.bool