kaist_nonprehensile_converted_externally_to_rlds

  • 설명 :

잡을 수 없는 물체를 조작하는 프랑카

나뉘다
'train' 201
  • 기능 구조 :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(20,), dtype=float32),
        'discount': Scalar(shape=(), dtype=float32),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'image': Image(shape=(480, 640, 3), dtype=uint8),
            'partial_pointcloud': Tensor(shape=(512, 3), dtype=float32),
            'state': Tensor(shape=(21,), dtype=float32),
        }),
        'reward': Scalar(shape=(), dtype=float32),
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
에피소드_메타데이터 특징Dict
에피소드_메타데이터/파일_경로 텍스트 원본 데이터 파일의 경로입니다.
단계 데이터세트
단계/작업 텐서 (20,) float32 로봇 동작은 [3x 엔드 이펙터 위치 잔차, 3x 엔드 이펙터 축 각도 잔차, 7x 로봇 관절 k_p 이득 계수, 7x 로봇 관절 감쇠 비율 계수]로 구성됩니다. 동작 잔차는 전역적입니다. 즉, 왼쪽에 곱해집니다. 현재 엔드 이펙터 상태.
걸음수/할인 스칼라 float32 할인이 제공되면 기본값은 1입니다.
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/언어_임베딩 텐서 (512,) float32 코나 언어 임베딩. https://tfhub.dev/google/universal-sentence-encoder-large/5를 참조하세요.
단계/언어_지시 텍스트 언어 교육.
단계/관찰 특징Dict
단계/관찰/이미지 영상 (480, 640, 3) uint8 메인 카메라 RGB 관찰.
단계/관찰/partial_pointcloud 텐서 (512, 3) float32 부분적인 포인트클라우드 관찰
단계/관찰/상태 텐서 (21,) float32 로봇 상태는 [joint_states, end_ effector_pose]로 구성됩니다. 관절 상태는 14차원이며 [q_0, w_0, q_1, w_0, ...]의 순서로 형식화됩니다. 즉, 관절 위치와 속도가 인터리브됩니다. 끝 -이펙터 포즈는 7차원이며 [위치, 쿼터니언] 순서로 형식화됩니다. 쿼터니언은 (x,y,z,w) 순서로 형식화됩니다. 엔드 이펙터 포즈는 그리퍼의 두 손가락 중앙에 있는 도구 프레임을 참조합니다.
걸음수/보상 스칼라 float32 제공되는 경우 보상, 데모의 마지막 단계에서 1개.
  • 인용 :
@article{kimpre,
  title={Pre-and post-contact policy decomposition for non-prehensile manipulation with zero-shot sim-to-real transfer},
  author={Kim, Minchan and Han, Junhyek and Kim, Jaehyung and Kim, Beomjoon},
  booktitle={2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)},
  year={2023},
  organization={IEEE}
}