- 説明:
さまざまな道具を使って餃子を作るフランカ
ソースコード:
tfds.robotics.rtx.StanfordRobocookConvertedExternallyToRlds
バージョン:
-
0.1.0
(デフォルト): 初期リリース。
-
ダウンロードサイズ:
Unknown size
データセットのサイズ:
124.59 GiB
自動キャッシュ(ドキュメント): いいえ
分割:
スプリット | 例 |
---|---|
'train' | 2,460 |
- 機能の構造:
FeaturesDict({
'episode_metadata': FeaturesDict({
'extrinsics_1': Tensor(shape=(4, 4), dtype=float32, description=Camera 1 Extrinsic Matrix.),
'extrinsics_2': Tensor(shape=(4, 4), dtype=float32, description=Camera 2 Extrinsic Matrix.),
'extrinsics_3': Tensor(shape=(4, 4), dtype=float32, description=Camera 3 Extrinsic Matrix.),
'extrinsics_4': Tensor(shape=(4, 4), dtype=float32, description=Camera 4 Extrinsic Matrix.),
'file_path': Text(shape=(), dtype=string),
}),
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float32, description=Robot action, consists of [3x robot end-effector velocities, 3x robot end-effector angular velocities, 1x gripper velocity].),
'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'depth_1': Tensor(shape=(256, 256), dtype=float32, description=Camera 1 Depth observation.),
'depth_2': Tensor(shape=(256, 256), dtype=float32, description=Camera 2 Depth observation.),
'depth_3': Tensor(shape=(256, 256), dtype=float32, description=Camera 3 Depth observation.),
'depth_4': Tensor(shape=(256, 256), dtype=float32, description=Camera 4 Depth observation.),
'image_1': Image(shape=(256, 256, 3), dtype=uint8, description=Camera 1 RGB observation.),
'image_2': Image(shape=(256, 256, 3), dtype=uint8, description=Camera 2 RGB observation.),
'image_3': Image(shape=(256, 256, 3), dtype=uint8, description=Camera 3 RGB observation.),
'image_4': Image(shape=(256, 256, 3), dtype=uint8, description=Camera 4 RGB observation.),
'state': Tensor(shape=(7,), dtype=float32, description=Robot state, consists of [3x robot end-effector position, 3x robot end-effector euler angles, 1x gripper position].),
}),
'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
}),
})
- 機能ドキュメント:
特徴 | クラス | 形 | Dタイプ | 説明 |
---|---|---|---|---|
特徴辞書 | ||||
エピソード_メタデータ | 特徴辞書 | |||
エピソード_メタデータ/extrinsics_1 | テンソル | (4,4) | float32 | カメラ 1 の外部マトリックス。 |
エピソード_メタデータ/extrinsics_2 | テンソル | (4,4) | float32 | カメラ 2 の外部マトリックス。 |
エピソード_メタデータ/extrinsics_3 | テンソル | (4,4) | float32 | カメラ 3 の外部マトリックス。 |
エピソードメタデータ/extrinsics_4 | テンソル | (4,4) | float32 | カメラ 4 の外部マトリックス。 |
エピソードメタデータ/ファイルパス | 文章 | 弦 | 元のデータ ファイルへのパス。 | |
ステップ | データセット | |||
ステップ/アクション | テンソル | (7,) | float32 | ロボットの動作は、[3x ロボット エンド エフェクター速度、3x ロボット エンド エフェクター角速度、1x グリッパー速度] で構成されます。 |
歩数/割引 | スカラー | float32 | 割引が指定されている場合、デフォルトは 1 です。 | |
ステップ/is_first | テンソル | ブール | ||
ステップ/is_last | テンソル | ブール | ||
ステップ/is_terminal | テンソル | ブール | ||
ステップ/言語_埋め込み | テンソル | (512,) | float32 | コナ言語の埋め込み。 https://tfhub.dev/google/universal-sentence-encoder-large/5 を参照してください。 |
ステップ/言語説明 | 文章 | 弦 | 言語指導。 | |
ステップ/観察 | 特徴辞書 | |||
歩数/観察/深さ_1 | テンソル | (256、256) | float32 | カメラ 1 深度観察。 |
歩数/観察/深さ_2 | テンソル | (256、256) | float32 | カメラ 2 深度観察。 |
歩数/観察/深さ_3 | テンソル | (256、256) | float32 | カメラ 3 深度観察。 |
歩数/観察/深さ_4 | テンソル | (256、256) | float32 | カメラ 4 深度観察。 |
ステップ/観察/画像_1 | 画像 | (256, 256, 3) | uint8 | カメラ1 RGB観察。 |
ステップ/観察/画像_2 | 画像 | (256, 256, 3) | uint8 | カメラ2 RGB観察。 |
ステップ/観察/画像_3 | 画像 | (256, 256, 3) | uint8 | カメラ3 RGB観察。 |
ステップ/観察/画像_4 | 画像 | (256, 256, 3) | uint8 | カメラ4 RGB観察。 |
ステップ/観察/状態 | テンソル | (7,) | float32 | ロボットの状態は、[3x ロボット エンド エフェクターの位置、3x ロボット エンド エフェクターのオイラー角、1x グリッパーの位置] で構成されます。 |
歩数/報酬 | スカラー | float32 | 提供されている場合は報酬、デモの最終ステップで 1。 |
監視キー(
as_supervised
doc を参照):None
図( tfds.show_examples ): サポートされていません。
例( tfds.as_dataframe ):
- 引用:
@article{shi2023robocook,
title={RoboCook: Long-Horizon Elasto-Plastic Object Manipulation with Diverse Tools},
author={Shi, Haochen and Xu, Huazhe and Clarke, Samuel and Li, Yunzhu and Wu, Jiajun},
journal={arXiv preprint arXiv:2306.14447},
year={2023}
}