kaist_nonprehensile_converted_externally_to_rlds

  • 説明

掴めない物体を操作するフランカ

スプリット
'train' 201
  • 機能の構造:
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(20,), dtype=float32),
        'discount': Scalar(shape=(), dtype=float32),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'image': Image(shape=(480, 640, 3), dtype=uint8),
            'partial_pointcloud': Tensor(shape=(512, 3), dtype=float32),
            'state': Tensor(shape=(21,), dtype=float32),
        }),
        'reward': Scalar(shape=(), dtype=float32),
    }),
})
  • 機能ドキュメント:
特徴クラスDタイプ説明
特徴辞書
エピソード_メタデータ特徴辞書
エピソードメタデータ/ファイルパス文章元のデータ ファイルへのパス。
ステップデータセット
ステップ/アクションテンソル(20,) float32ロボットのアクションは、[3x エンドエフェクター位置残差、3x エンドエフェクター軸角度残差、7x ロボット ジョイント k_p ゲイン係数、7x ロボット ジョイント減衰比係数] で構成されます。アクション残差はグローバルです。つまり、左側で乗算されます。現在のエンドエフェクターの状態。
歩数/割引スカラーfloat32割引が指定されている場合、デフォルトは 1 です。
ステップ/is_firstテンソルブール
ステップ/is_lastテンソルブール
ステップ/is_terminalテンソルブール
ステップ/言語_埋め込みテンソル(512,) float32コナ言語の埋め込み。 https://tfhub.dev/google/universal-sentence-encoder-large/5を参照してください。
ステップ/言語説明文章言語指導。
ステップ/観察特徴辞書
手順・観察・イメージ画像(480、640、3) uint8メインカメラRGB観察。
ステップ/観察/partial_pointcloudテンソル(512, 3) float32部分点群観測
ステップ/観察/状態テンソル(21,) float32ロボットの状態は、[joint_states, end_effect_pose] で構成されます。ジョイントの状態は 14 次元で、[q_0, w_0, q_1, w_0, ...] の順序でフォーマットされます。つまり、ジョイントの位置と速度がインターリーブされます。 -エフェクターポーズは7次元で、[位置、クォータニオン]の順にフォーマットされます。クォータニオンは(x,y,z,w)の順にフォーマットされます。エンドエフェクタのポーズは、グリッパの 2 本の指の中心にあるツール フレームを参照します。
歩数/報酬スカラーfloat32提供されている場合は報酬、デモの最終ステップで 1。
  • 引用
@article{kimpre,
  title={Pre-and post-contact policy decomposition for non-prehensile manipulation with zero-shot sim-to-real transfer},
  author={Kim, Minchan and Han, Junhyek and Kim, Jaehyung and Kim, Beomjoon},
  booktitle={2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)},
  year={2023},
  organization={IEEE}
}