ช่วยปกป้อง Great Barrier Reef กับ TensorFlow บน Kaggle เข้าร่วมท้าทาย

robosuite_panda_pick_place_can

  • รายละเอียด:

ชุดข้อมูลเหล่านี้ได้ถูกสร้างขึ้นด้วยสภาพแวดล้อม PickPlaceCan ของ robosuite จำลองแขนหุ่นยนต์ ชุดข้อมูลของมนุษย์ถูกบันทึกโดยผู้ประกอบการเดียวโดยใช้ ผู้สร้าง RLDS และควบคุมจอย

ชุดข้อมูลสังเคราะห์ได้รับการบันทึกโดยใช้ ห้องสมุด EnvLogger

ตอนประกอบด้วย 400 ขั้นตอน ในแต่ละตอน แท็กจะถูกเพิ่มเมื่องานเสร็จสิ้น แท็กนี้จะถูกเก็บไว้เป็นส่วนหนึ่งของข้อมูลเมตาขั้นตอนที่กำหนดเอง

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (การกำหนดค่าเริ่มต้น)

  • คำอธิบาย Config: Human ชุดข้อมูลที่สร้างขึ้น (50 เอพ)

  • โฮมเพจ: https://github.com/google-research/rlds

  • ขนาดการดาวน์โหลด: 96.67 MiB

  • ขนาดชุด: 407.24 MiB

  • แยก:

แยก ตัวอย่าง
'train' 50
  • คุณสมบัติ:
FeaturesDict({
    'agent_id': tf.string,
    'episode_id': tf.string,
    'episode_index': tf.int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=tf.float64),
        'discount': tf.float64,
        'image': Image(shape=(None, None, 3), dtype=tf.uint8),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_quat': Tensor(shape=(4,), dtype=tf.float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'object-state': Tensor(shape=(14,), dtype=tf.float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float64),
        }),
        'reward': tf.float64,
        'tag:placed': tf.bool,
    }),
})

robosuite_panda_pick_place_can/human_images_dc29b40a

  • คำอธิบาย Config: Human ชุดข้อมูลที่สร้างขึ้นรวมถึงภาพที่มีมุมกล้องที่แตกต่างกันในการสังเกต โปรดทราบว่าอาจใช้เวลาสักครู่ในการสร้าง

  • โฮมเพจ: https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can

  • ขนาดการดาวน์โหลด: 10.95 GiB

  • ขนาดชุด: 7.53 GiB

  • แยก:

แยก ตัวอย่าง
'train' 50
  • คุณสมบัติ:
FeaturesDict({
    'agent_id': tf.string,
    'episode_id': tf.string,
    'episode_index': tf.int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=tf.float64),
        'discount': tf.float64,
        'image': Image(shape=(None, None, 3), dtype=tf.uint8),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_quat': Tensor(shape=(4,), dtype=tf.float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
            'object-state': Tensor(shape=(14,), dtype=tf.float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=tf.uint8),
        }),
        'reward': tf.float64,
        'tag:placed': tf.bool,
    }),
})

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • คำอธิบาย Config: ชุดสังเคราะห์ที่สร้างขึ้นโดยตัวแทนสุ่มฝึกกับ SAC (200 เอพ)

  • โฮมเพจ: https://github.com/google-research/rlds

  • ขนาดการดาวน์โหลด: 144.44 MiB

  • ขนาดชุด: 622.86 MiB

  • แยก:

แยก ตัวอย่าง
'train' 200
  • คุณสมบัติ:
FeaturesDict({
    'agent_id': tf.string,
    'episode_id': tf.string,
    'episode_index': tf.int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=tf.float32),
        'discount': tf.float64,
        'image': Image(shape=(None, None, 3), dtype=tf.uint8),
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=tf.float32),
            'Can_quat': Tensor(shape=(4,), dtype=tf.float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'object-state': Tensor(shape=(14,), dtype=tf.float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=tf.float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=tf.float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=tf.float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=tf.float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=tf.float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=tf.float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=tf.float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=tf.float32),
        }),
        'reward': tf.float64,
        'tag:placed': tf.bool,
    }),
})