robosuite_panda_pick_place_can

  • Descrição :

Esses conjuntos de dados foram criados com o ambiente PickPlaceCan do simulador de braço robótico robosuite . Os conjuntos de dados humanos foram registrados por um único operador usando o RLDS Creator e um controlador de gamepad.

Os conjuntos de dados sintéticos foram registrados usando a biblioteca EnvLogger .

Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.

Os episódios consistem em 400 etapas. Em cada episódio, uma tag é adicionada quando a tarefa é concluída, essa tag é armazenada como parte dos metadados da etapa personalizada.

Observe que, devido à dependência do EnvLogger, a geração desse conjunto de dados é atualmente suportada apenas em ambientes Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (configuração padrão)

  • Descrição da configuração : Conjunto de dados gerado por humanos (50 episódios).

  • Página inicial : https://github.com/google-research/rlds

  • Tamanho do download : 96.67 MiB

  • Tamanho do conjunto de dados : 407.24 MiB

  • Divisões :

Dividir Exemplos
'train' 50
  • Estrutura de recursos :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentação do recurso:
Característica Classe Forma Tipo D Descrição
RecursosDict
agente_id tensor corda
episódio_id tensor corda
episódio_índice tensor int32
degraus conjunto de dados
passos/ação tensor (7,) float64
passos/desconto tensor float64
passos/imagem Imagem (Nenhuma, Nenhuma, 3) uint8
passos/é_primeiro tensor bool
passos/é_último tensor bool
passos/is_terminal tensor bool
passos/observação RecursosDict
passos/observação/Can_pos tensor (3,) float64
passos/observação/Can_quat tensor (4,) float64
passos/observação/Can_to_robot0_eef_pos tensor (3,) float64
passos/observação/Can_to_robot0_eef_quat tensor (4,) float32
passos/observação/estado do objeto tensor (14,) float64
passos/observação/robot0_eef_pos tensor (3,) float64
passos/observação/robot0_eef_quat tensor (4,) float64
passos/observação/robot0_gripper_qpos tensor (2,) float64
passos/observação/robot0_gripper_qvel tensor (2,) float64
passos/observação/robot0_joint_pos_cos tensor (7,) float64
passos/observação/robot0_joint_pos_sin tensor (7,) float64
passos/observação/robot0_joint_vel tensor (7,) float64
passos/observação/robot0_proprio-state tensor (32,) float64
passos/recompensa tensor float64
passos/tag:colocado tensor bool

robosuite_panda_pick_place_can/human_images_dc29b40a

Dividir Exemplos
'train' 50
  • Estrutura de recursos :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentação do recurso:
Característica Classe Forma Tipo D Descrição
RecursosDict
agente_id tensor corda
episódio_id tensor corda
episódio_índice tensor int32
degraus conjunto de dados
passos/ação tensor (7,) float64
passos/desconto tensor float64
passos/imagem Imagem (Nenhuma, Nenhuma, 3) uint8
passos/é_primeiro tensor bool
passos/é_último tensor bool
passos/is_terminal tensor bool
passos/observação RecursosDict
passos/observação/Can_pos tensor (3,) float64
passos/observação/Can_quat tensor (4,) float64
passos/observação/Can_to_robot0_eef_pos tensor (3,) float64
passos/observação/Can_to_robot0_eef_quat tensor (4,) float32
passos/observação/agentview_image Imagem (256, 256, 3) uint8
passos/observação/birdview_image Imagem (256, 256, 3) uint8
passos/observação/estado do objeto tensor (14,) float64
passos/observação/robot0_eef_pos tensor (3,) float64
passos/observação/robot0_eef_quat tensor (4,) float64
passos/observação/robot0_eye_in_hand_image Imagem (256, 256, 3) uint8
passos/observação/robot0_gripper_qpos tensor (2,) float64
passos/observação/robot0_gripper_qvel tensor (2,) float64
passos/observação/robot0_joint_pos_cos tensor (7,) float64
passos/observação/robot0_joint_pos_sin tensor (7,) float64
passos/observação/robot0_joint_vel tensor (7,) float64
passos/observação/robot0_proprio-state tensor (32,) float64
passos/observação/robot0_robotview_image Imagem (256, 256, 3) uint8
passos/recompensa tensor float64
passos/tag:colocado tensor bool

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Descrição da configuração : Conjunto de dados sintético gerado por um agente estocástico treinado com SAC (200 episódios).

  • Página inicial : https://github.com/google-research/rlds

  • Tamanho do download : 144.44 MiB

  • Tamanho do conjunto de dados : 622.86 MiB

  • Divisões :

Dividir Exemplos
'train' 200
  • Estrutura de recursos :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentação do recurso:
Característica Classe Forma Tipo D Descrição
RecursosDict
agente_id tensor corda
episódio_id tensor corda
episódio_índice tensor int32
degraus conjunto de dados
passos/ação tensor (7,) float32
passos/desconto tensor float64
passos/imagem Imagem (Nenhuma, Nenhuma, 3) uint8
passos/é_primeiro tensor bool
passos/é_último tensor bool
passos/is_terminal tensor bool
passos/observação RecursosDict
passos/observação/Can_pos tensor (3,) float32
passos/observação/Can_quat tensor (4,) float32
passos/observação/Can_to_robot0_eef_pos tensor (3,) float32
passos/observação/Can_to_robot0_eef_quat tensor (4,) float32
passos/observação/estado do objeto tensor (14,) float32
passos/observação/robot0_eef_pos tensor (3,) float32
passos/observação/robot0_eef_quat tensor (4,) float32
passos/observação/robot0_gripper_qpos tensor (2,) float32
passos/observação/robot0_gripper_qvel tensor (2,) float32
passos/observação/robot0_joint_pos_cos tensor (7,) float32
passos/observação/robot0_joint_pos_sin tensor (7,) float32
passos/observação/robot0_joint_vel tensor (7,) float32
passos/observação/robot0_proprio-state tensor (32,) float32
passos/recompensa tensor float64
passos/tag:colocado tensor bool