- विवरण :
D4RL ऑफ़लाइन रीइन्फोर्समेंट लर्निंग के लिए एक ओपन-सोर्स बेंचमार्क है। यह प्रशिक्षण और बेंचमार्किंग एल्गोरिदम के लिए मानकीकृत वातावरण और डेटासेट प्रदान करता है।
डेटासेट चरण और एपिसोड का प्रतिनिधित्व करने के लिए आरएलडीएस प्रारूप का पालन करते हैं।
स्रोत कोड :
tfds.d4rl.d4rl_adroit_pen.D4rlAdroitPen
संस्करण :
-
1.0.0
: प्रारंभिक रिलीज। -
1.1.0
(डिफ़ॉल्ट): is_last जोड़ा गया।
-
पर्यवेक्षित कुंजियाँ (
as_supervised
doc देखें):None
चित्र ( tfds.show_examples ): समर्थित नहीं है।
उद्धरण :
@misc{fu2020d4rl,
title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
year={2020},
eprint={2004.07219},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
d4rl_adroit_pen/v0-मानव (डिफ़ॉल्ट कॉन्फ़िगरेशन)
कॉन्फ़िग विवरण : https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit में कार्य और इसके संस्करणों के बारे में अधिक विवरण देखें
डाउनलोड आकार :
1.94 MiB
डेटासेट का आकार :
2.52 MiB
ऑटो-कैश्ड ( दस्तावेज़ीकरण ): हाँ
विभाजन :
विभाजित करना | उदाहरण |
---|---|
'train' | 50 |
- फ़ीचर संरचना :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- फ़ीचर दस्तावेज़ीकरण :
विशेषता | कक्षा | आकार | डीटाइप | विवरण |
---|---|---|---|---|
विशेषताएं डिक्ट | ||||
कदम | डेटासेट | |||
कदम / कार्रवाई | टेन्सर | (24,) | फ्लोट32 | |
चरण/छूट | टेन्सर | फ्लोट32 | ||
कदम/जानकारी | विशेषताएं डिक्ट | |||
चरण/जानकारी/qpos | टेन्सर | (30,) | फ्लोट32 | |
कदम/जानकारी/qvel | टेन्सर | (30,) | फ्लोट32 | |
चरण/is_first | टेन्सर | बूल | ||
चरण/is_last | टेन्सर | बूल | ||
कदम/is_terminal | टेन्सर | बूल | ||
चरण/अवलोकन | टेन्सर | (45,) | फ्लोट32 | |
कदम / इनाम | टेन्सर | फ्लोट32 |
- उदाहरण ( tfds.as_dataframe ):
d4rl_adroit_pen/v0-cloned
कॉन्फ़िग विवरण : https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit में कार्य और इसके संस्करणों के बारे में अधिक विवरण देखें
डाउनलोड आकार :
292.85 MiB
डेटासेट का आकार :
252.55 MiB
ऑटो-कैश्ड ( दस्तावेज़ीकरण ): नहीं
विभाजन :
विभाजित करना | उदाहरण |
---|---|
'train' | 5,023 |
- फ़ीचर संरचना :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float64,
'infos': FeaturesDict({
'qpos': Tensor(shape=(30,), dtype=float64),
'qvel': Tensor(shape=(30,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float64),
'reward': float64,
}),
})
- फ़ीचर दस्तावेज़ीकरण :
विशेषता | कक्षा | आकार | डीटाइप | विवरण |
---|---|---|---|---|
विशेषताएं डिक्ट | ||||
कदम | डेटासेट | |||
कदम / कार्रवाई | टेन्सर | (24,) | फ्लोट32 | |
चरण/छूट | टेन्सर | फ्लोट64 | ||
कदम/जानकारी | विशेषताएं डिक्ट | |||
चरण/जानकारी/qpos | टेन्सर | (30,) | फ्लोट64 | |
कदम/जानकारी/qvel | टेन्सर | (30,) | फ्लोट64 | |
चरण/is_first | टेन्सर | बूल | ||
चरण/is_last | टेन्सर | बूल | ||
कदम/is_terminal | टेन्सर | बूल | ||
चरण/अवलोकन | टेन्सर | (45,) | फ्लोट64 | |
कदम / इनाम | टेन्सर | फ्लोट64 |
- उदाहरण ( tfds.as_dataframe ):
d4rl_adroit_pen/v0-expert
कॉन्फ़िग विवरण : https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit में कार्य और इसके संस्करणों के बारे में अधिक विवरण देखें
डाउनलोड आकार :
250.13 MiB
डेटासेट का आकार :
344.41 MiB
ऑटो-कैश्ड ( दस्तावेज़ीकरण ): नहीं
विभाजन :
विभाजित करना | उदाहरण |
---|---|
'train' | 5,000 |
- फ़ीचर संरचना :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_logstd': Tensor(shape=(24,), dtype=float32),
'action_mean': Tensor(shape=(24,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- फ़ीचर दस्तावेज़ीकरण :
विशेषता | कक्षा | आकार | डीटाइप | विवरण |
---|---|---|---|---|
विशेषताएं डिक्ट | ||||
कदम | डेटासेट | |||
कदम / कार्रवाई | टेन्सर | (24,) | फ्लोट32 | |
चरण/छूट | टेन्सर | फ्लोट32 | ||
कदम/जानकारी | विशेषताएं डिक्ट | |||
कदम/जानकारी/action_logstd | टेन्सर | (24,) | फ्लोट32 | |
कदम/जानकारी/action_mean | टेन्सर | (24,) | फ्लोट32 | |
चरण/जानकारी/qpos | टेन्सर | (30,) | फ्लोट32 | |
कदम/जानकारी/qvel | टेन्सर | (30,) | फ्लोट32 | |
चरण/is_first | टेन्सर | बूल | ||
चरण/is_last | टेन्सर | बूल | ||
कदम/is_terminal | टेन्सर | बूल | ||
चरण/अवलोकन | टेन्सर | (45,) | फ्लोट32 | |
कदम / इनाम | टेन्सर | फ्लोट32 |
- उदाहरण ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-human
कॉन्फ़िग विवरण : https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit में कार्य और इसके संस्करणों के बारे में अधिक विवरण देखें
डाउनलोड आकार :
1.95 MiB
डेटासेट का आकार :
2.60 MiB
ऑटो-कैश्ड ( दस्तावेज़ीकरण ): हाँ
विभाजन :
विभाजित करना | उदाहरण |
---|---|
'train' | 25 |
- फ़ीचर संरचना :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- फ़ीचर दस्तावेज़ीकरण :
विशेषता | कक्षा | आकार | डीटाइप | विवरण |
---|---|---|---|---|
विशेषताएं डिक्ट | ||||
कदम | डेटासेट | |||
कदम / कार्रवाई | टेन्सर | (24,) | फ्लोट32 | |
चरण/छूट | टेन्सर | फ्लोट32 | ||
कदम/जानकारी | विशेषताएं डिक्ट | |||
कदम/जानकारी/वांछित_orien | टेन्सर | (4,) | फ्लोट32 | |
चरण/जानकारी/qpos | टेन्सर | (30,) | फ्लोट32 | |
कदम/जानकारी/qvel | टेन्सर | (30,) | फ्लोट32 | |
चरण/is_first | टेन्सर | बूल | ||
चरण/is_last | टेन्सर | बूल | ||
कदम/is_terminal | टेन्सर | बूल | ||
चरण/अवलोकन | टेन्सर | (45,) | फ्लोट32 | |
कदम / इनाम | टेन्सर | फ्लोट32 |
- उदाहरण ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-cloned
कॉन्फ़िग विवरण : https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit में कार्य और इसके संस्करणों के बारे में अधिक विवरण देखें
डाउनलोड आकार :
147.89 MiB
डेटासेट का आकार :
1.43 GiB
ऑटो-कैश्ड ( दस्तावेज़ीकरण ): नहीं
विभाजन :
विभाजित करना | उदाहरण |
---|---|
'train' | 3,755 |
- फ़ीचर संरचना :
FeaturesDict({
'algorithm': string,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(45, 256), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(256, 24), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- फ़ीचर दस्तावेज़ीकरण :
विशेषता | कक्षा | आकार | डीटाइप | विवरण |
---|---|---|---|---|
विशेषताएं डिक्ट | ||||
कलन विधि | टेन्सर | डोरी | ||
नीति | विशेषताएं डिक्ट | |||
नीति/fc0 | विशेषताएं डिक्ट | |||
नीति/fc0/पूर्वाग्रह | टेन्सर | (256,) | फ्लोट32 | |
नीति/fc0/वजन | टेन्सर | (45, 256) | फ्लोट32 | |
नीति/fc1 | विशेषताएं डिक्ट | |||
नीति/fc1/पूर्वाग्रह | टेन्सर | (256,) | फ्लोट32 | |
नीति/fc1/वजन | टेन्सर | (256, 256) | फ्लोट32 | |
पॉलिसी/last_fc | विशेषताएं डिक्ट | |||
नीति/last_fc/पूर्वाग्रह | टेन्सर | (24,) | फ्लोट32 | |
पॉलिसी/last_fc/वजन | टेन्सर | (256, 24) | फ्लोट32 | |
नीति/अरैखिकता | टेन्सर | डोरी | ||
पॉलिसी/आउटपुट_डिस्ट्रीब्यूशन | टेन्सर | डोरी | ||
कदम | डेटासेट | |||
कदम / कार्रवाई | टेन्सर | (24,) | फ्लोट32 | |
चरण/छूट | टेन्सर | फ्लोट32 | ||
कदम/जानकारी | विशेषताएं डिक्ट | |||
कदम/जानकारी/वांछित_orien | टेन्सर | (4,) | फ्लोट32 | |
चरण/जानकारी/qpos | टेन्सर | (30,) | फ्लोट32 | |
कदम/जानकारी/qvel | टेन्सर | (30,) | फ्लोट32 | |
चरण/is_first | टेन्सर | बूल | ||
चरण/is_last | टेन्सर | बूल | ||
कदम/is_terminal | टेन्सर | बूल | ||
चरण/अवलोकन | टेन्सर | (45,) | फ्लोट32 | |
कदम / इनाम | टेन्सर | फ्लोट32 |
- उदाहरण ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-expert
डाउनलोड आकार :
249.90 MiB
डेटासेट का आकार :
548.47 MiB
ऑटो-कैश्ड ( दस्तावेज़ीकरण ): नहीं
विभाजन :
विभाजित करना | उदाहरण |
---|---|
'train' | 5,000 |
- फ़ीचर संरचना :
FeaturesDict({
'algorithm': string,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(64,), dtype=float32),
'weight': Tensor(shape=(64, 45), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(64,), dtype=float32),
'weight': Tensor(shape=(64, 64), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(24, 64), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(24, 64), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_std': Tensor(shape=(24,), dtype=float32),
'action_mean': Tensor(shape=(24,), dtype=float32),
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- फ़ीचर दस्तावेज़ीकरण :
विशेषता | कक्षा | आकार | डीटाइप | विवरण |
---|---|---|---|---|
विशेषताएं डिक्ट | ||||
कलन विधि | टेन्सर | डोरी | ||
नीति | विशेषताएं डिक्ट | |||
नीति/fc0 | विशेषताएं डिक्ट | |||
नीति/fc0/पूर्वाग्रह | टेन्सर | (64,) | फ्लोट32 | |
नीति/fc0/वजन | टेन्सर | (64, 45) | फ्लोट32 | |
नीति/fc1 | विशेषताएं डिक्ट | |||
नीति/fc1/पूर्वाग्रह | टेन्सर | (64,) | फ्लोट32 | |
नीति/fc1/वजन | टेन्सर | (64, 64) | फ्लोट32 | |
पॉलिसी/last_fc | विशेषताएं डिक्ट | |||
नीति/last_fc/पूर्वाग्रह | टेन्सर | (24,) | फ्लोट32 | |
पॉलिसी/last_fc/वजन | टेन्सर | (24, 64) | फ्लोट32 | |
नीति/last_fc_log_std | विशेषताएं डिक्ट | |||
नीति/last_fc_log_std/पूर्वाग्रह | टेन्सर | (24,) | फ्लोट32 | |
पॉलिसी/last_fc_log_std/वजन | टेन्सर | (24, 64) | फ्लोट32 | |
नीति/अरैखिकता | टेन्सर | डोरी | ||
पॉलिसी/आउटपुट_डिस्ट्रीब्यूशन | टेन्सर | डोरी | ||
कदम | डेटासेट | |||
कदम / कार्रवाई | टेन्सर | (24,) | फ्लोट32 | |
चरण/छूट | टेन्सर | फ्लोट32 | ||
कदम/जानकारी | विशेषताएं डिक्ट | |||
कदम/जानकारी/action_log_std | टेन्सर | (24,) | फ्लोट32 | |
कदम/जानकारी/action_mean | टेन्सर | (24,) | फ्लोट32 | |
कदम/जानकारी/वांछित_orien | टेन्सर | (4,) | फ्लोट32 | |
चरण/जानकारी/qpos | टेन्सर | (30,) | फ्लोट32 | |
कदम/जानकारी/qvel | टेन्सर | (30,) | फ्लोट32 | |
चरण/is_first | टेन्सर | बूल | ||
चरण/is_last | टेन्सर | बूल | ||
कदम/is_terminal | टेन्सर | बूल | ||
चरण/अवलोकन | टेन्सर | (45,) | फ्लोट32 | |
कदम / इनाम | टेन्सर | फ्लोट32 |
- उदाहरण ( tfds.as_dataframe ):