utaustin_mutex

  • คำอธิบาย :

งานการจัดการครัวเรือนที่หลากหลาย

แยก ตัวอย่าง
'train' 1,500
  • โครงสร้างคุณสมบัติ :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': Scalar(shape=(), dtype=float32),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'image': Image(shape=(128, 128, 3), dtype=uint8),
            'state': Tensor(shape=(24,), dtype=float32),
            'wrist_image': Image(shape=(128, 128, 3), dtype=uint8),
        }),
        'reward': Scalar(shape=(), dtype=float32),
    }),
})
  • เอกสารคุณสมบัติ :
คุณสมบัติ ระดับ รูปร่าง ประเภทD คำอธิบาย
คุณสมบัติDict
ตอนที่_ข้อมูลเมตา คุณสมบัติDict
ตอนที่_metadata/file_path ข้อความ เชือก เส้นทางไปยังไฟล์ข้อมูลต้นฉบับ
ขั้นตอน ชุดข้อมูล
ขั้นตอน/การดำเนินการ เทนเซอร์ (7,) ลอย32 การกระทำของหุ่นยนต์ ประกอบด้วย [ท่าเดลต้าเอฟเฟกต์ปลาย 6x, ตำแหน่งกริปเปอร์ 1x]
ขั้นตอน/ส่วนลด สเกลาร์ ลอย32 ส่วนลดหากมีให้ ค่าเริ่มต้นคือ 1
ขั้นตอน/is_first เทนเซอร์ บูล
ขั้นตอน/is_last เทนเซอร์ บูล
ขั้นตอน/is_terminal เทนเซอร์ บูล
ขั้นตอน/ภาษา_embedding เทนเซอร์ (512,) ลอย32 การฝังภาษาโคน่า ดู https://tfhub.dev/google/universal-sentence-encoder-large/5
ขั้นตอน/Language_instruction ข้อความ เชือก คำแนะนำภาษาโดยละเอียดสำหรับแต่ละงาน
ขั้นตอน/การสังเกต คุณสมบัติDict
ขั้นตอน/การสังเกต/ภาพ ภาพ (128, 128, 3) uint8 การสังเกต RGB ของกล้องหลัก
ขั้นตอน/การสังเกต/สถานะ เทนเซอร์ (24,) ลอย32 สถานะของหุ่นยนต์ประกอบด้วย [7x มุมข้อต่อของหุ่นยนต์, ตำแหน่งกริปเปอร์ 1x, เมทริกซ์เนื้อเดียวกันเอฟเฟกต์ปลายหุ่นยนต์ 16x]
ขั้นตอน/การสังเกต/wrist_image ภาพ (128, 128, 3) uint8 การสังเกต RGB ของกล้องข้อมือ
ขั้นตอน/รางวัล สเกลาร์ ลอย32 รางวัลหากมีให้ 1 ในขั้นตอนสุดท้ายสำหรับการสาธิต
@inproceedings{
    shah2023mutex,
    title={ {MUTEX}: Learning Unified Policies from Multimodal Task Specifications},
    author={Rutav Shah and Roberto Mart{\'\i}n-Mart{\'\i}n and Yuke Zhu},
    booktitle={7th Annual Conference on Robot Learning},
    year={2023},
    url={https://openreview.net/forum?id=PwqiqaaEzJ}
}