d4rl_adroit_pen

  • 설명 :

D4RL은 오프라인 강화 학습을 위한 오픈 소스 벤치마크입니다. 이는 훈련 및 벤치마킹 알고리즘을 위한 표준화된 환경과 데이터세트를 제공합니다.

데이터 세트는 RLDS 형식을 따라 단계와 에피소드를 나타냅니다.

@misc{fu2020d4rl,
    title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
    author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
    year={2020},
    eprint={2004.07219},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

d4rl_adroit_pen/v0-human (기본 구성)

나뉘다
'train' 50
  • 기능 구조 :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
단계 데이터세트
단계/작업 텐서 (24,) float32
걸음수/할인 텐서 float32
단계/정보 특징Dict
단계/정보/qpos 텐서 (30,) float32
단계/정보/qvel 텐서 (30,) float32
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/관찰 텐서 (45,) float32
걸음수/보상 텐서 float32

d4rl_adroit_pen/v0-복제됨

나뉘다
'train' 5,023
  • 기능 구조 :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float64,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=float64),
            'qvel': Tensor(shape=(30,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float64),
        'reward': float64,
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
단계 데이터세트
단계/작업 텐서 (24,) float32
걸음수/할인 텐서 float64
단계/정보 특징Dict
단계/정보/qpos 텐서 (30,) float64
단계/정보/qvel 텐서 (30,) float64
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/관찰 텐서 (45,) float64
걸음수/보상 텐서 float64

d4rl_adroit_pen/v0-전문가

나뉘다
'train' 5,000
  • 기능 구조 :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_logstd': Tensor(shape=(24,), dtype=float32),
            'action_mean': Tensor(shape=(24,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
단계 데이터세트
단계/작업 텐서 (24,) float32
걸음수/할인 텐서 float32
단계/정보 특징Dict
단계/정보/action_logstd 텐서 (24,) float32
단계/정보/action_mean 텐서 (24,) float32
단계/정보/qpos 텐서 (30,) float32
단계/정보/qvel 텐서 (30,) float32
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/관찰 텐서 (45,) float32
걸음 수/보상 텐서 float32

d4rl_adroit_pen/v1-인간

나뉘다
'train' 25
  • 기능 구조 :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'desired_orien': Tensor(shape=(4,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
단계 데이터세트
단계/작업 텐서 (24,) float32
걸음수/할인 텐서 float32
단계/정보 특징Dict
단계/정보/desired_orien 텐서 (4,) float32
단계/정보/qpos 텐서 (30,) float32
단계/정보/qvel 텐서 (30,) float32
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/관찰 텐서 (45,) float32
걸음수/보상 텐서 float32

d4rl_adroit_pen/v1-복제됨

나뉘다
'train' 3,755
  • 기능 구조 :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(45, 256), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=float32),
            'weight': Tensor(shape=(256, 24), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'desired_orien': Tensor(shape=(4,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
연산 텐서
정책 특징Dict
정책/fc0 특징Dict
정책/fc0/편향 텐서 (256,) float32
정책/fc0/가중치 텐서 (45, 256) float32
정책/fc1 특징Dict
정책/fc1/편향 텐서 (256,) float32
정책/fc1/가중치 텐서 (256, 256) float32
정책/last_fc 특징Dict
정책/last_fc/bias 텐서 (24,) float32
정책/last_fc/체중 텐서 (256, 24) float32
정책/비선형성 텐서
정책/출력_배포 텐서
단계 데이터세트
단계/작업 텐서 (24,) float32
걸음수/할인 텐서 float32
단계/정보 특징Dict
단계/정보/desired_orien 텐서 (4,) float32
단계/정보/qpos 텐서 (30,) float32
단계/정보/qvel 텐서 (30,) float32
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/관찰 텐서 (45,) float32
걸음수/보상 텐서 float32

d4rl_adroit_pen/v1-전문가

  • 다운로드 크기 : 249.90 MiB

  • 데이터세트 크기 : 548.47 MiB

  • 자동 캐시 ( 문서 ): 아니요

  • 분할 :

나뉘다
'train' 5,000
  • 기능 구조 :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(64,), dtype=float32),
            'weight': Tensor(shape=(64, 45), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(64,), dtype=float32),
            'weight': Tensor(shape=(64, 64), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=float32),
            'weight': Tensor(shape=(24, 64), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=float32),
            'weight': Tensor(shape=(24, 64), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_std': Tensor(shape=(24,), dtype=float32),
            'action_mean': Tensor(shape=(24,), dtype=float32),
            'desired_orien': Tensor(shape=(4,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • 기능 문서 :
특징 수업 모양 Dtype 설명
특징Dict
연산 텐서
정책 특징Dict
정책/fc0 특징Dict
정책/fc0/편향 텐서 (64,) float32
정책/fc0/가중치 텐서 (64, 45) float32
정책/fc1 특징Dict
정책/fc1/편향 텐서 (64,) float32
정책/fc1/가중치 텐서 (64, 64) float32
정책/last_fc 특징Dict
정책/last_fc/bias 텐서 (24,) float32
정책/last_fc/체중 텐서 (24, 64) float32
정책/last_fc_log_std 특징Dict
정책/last_fc_log_std/bias 텐서 (24,) float32
정책/last_fc_log_std/weight 텐서 (24, 64) float32
정책/비선형성 텐서
정책/출력_배포 텐서
단계 데이터세트
단계/작업 텐서 (24,) float32
걸음수/할인 텐서 float32
단계/정보 특징Dict
단계/정보/action_log_std 텐서 (24,) float32
단계/정보/action_mean 텐서 (24,) float32
단계/정보/desired_orien 텐서 (4,) float32
단계/정보/qpos 텐서 (30,) float32
단계/정보/qvel 텐서 (30,) float32
걸음수/is_first 텐서 부울
걸음수/is_last 텐서 부울
단계/is_terminal 텐서 부울
단계/관찰 텐서 (45,) float32
걸음수/보상 텐서 float32