- คำอธิบาย :
A1 เดินไม่มี RGB
หน้าแรก : https://saytap.github.io/
ซอร์สโค้ด :
tfds.robotics.rtx.UtokyoSaytapConvertedExternallyToRlds
รุ่น :
-
0.1.0
(ค่าเริ่มต้น): การเปิดตัวครั้งแรก
-
ขนาดการดาวน์โหลด :
Unknown size
ขนาดชุดข้อมูล :
55.34 MiB
แคชอัตโนมัติ ( เอกสาร ): ใช่
แยก :
แยก | ตัวอย่าง |
---|---|
'train' | 20 |
- โครงสร้างคุณสมบัติ :
FeaturesDict({
'episode_metadata': FeaturesDict({
'file_path': Text(shape=(), dtype=string),
}),
'steps': Dataset({
'action': Tensor(shape=(12,), dtype=float32, description=Robot action, consists of [12x joint positios].),
'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'desired_pattern': Tensor(shape=(4, 5), dtype=bool, description=Desired foot contact pattern for the 4 legs, the 4 rows are for the front right, front left, rear right and rear left legs, the pattern length is 5 (=0.1s).),
'desired_vel': Tensor(shape=(3,), dtype=float32, description=Desired velocites. The first 2 are linear velocities along and perpendicular to the heading direction, the 3rd is the desired angular velocity about the yaw axis.),
'image': Image(shape=(64, 64, 3), dtype=uint8, description=Dummy camera RGB observation.),
'prev_act': Tensor(shape=(12,), dtype=float32, description=Actions applied in the previous step.),
'proj_grav_vec': Tensor(shape=(3,), dtype=float32, description=The gravity vector [0, 0, -1] in the robot base frame.),
'state': Tensor(shape=(30,), dtype=float32, description=Robot state, consists of [3x robot base linear velocity, 3x base angular vel, 12x joint position, 12x joint velocity].),
'wrist_image': Image(shape=(64, 64, 3), dtype=uint8, description=Dummy wrist camera RGB observation.),
}),
'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
}),
})
- เอกสารคุณสมบัติ :
คุณสมบัติ | ระดับ | รูปร่าง | ประเภทD | คำอธิบาย |
---|---|---|---|---|
คุณสมบัติDict | ||||
ตอนที่_ข้อมูลเมตา | คุณสมบัติDict | |||
ตอนที่_metadata/file_path | ข้อความ | เชือก | เส้นทางไปยังไฟล์ข้อมูลต้นฉบับ | |
ขั้นตอน | ชุดข้อมูล | |||
ขั้นตอน/การดำเนินการ | เทนเซอร์ | (12,) | ลอย32 | การกระทำของหุ่นยนต์ประกอบด้วย [ตำแหน่งข้อต่อ 12x] |
ขั้นตอน/ส่วนลด | สเกลาร์ | ลอย32 | ส่วนลดหากมีให้ ค่าเริ่มต้นคือ 1 | |
ขั้นตอน/is_first | เทนเซอร์ | บูล | ||
ขั้นตอน/is_last | เทนเซอร์ | บูล | ||
ขั้นตอน/is_terminal | เทนเซอร์ | บูล | ||
ขั้นตอน/ภาษา_embedding | เทนเซอร์ | (512,) | ลอย32 | การฝังภาษาโคน่า ดู https://tfhub.dev/google/universal-sentence-encoder-large/5 |
ขั้นตอน/Language_instruction | ข้อความ | เชือก | การสอนภาษา. | |
ขั้นตอน/การสังเกต | คุณสมบัติDict | |||
ขั้นตอน/การสังเกต/desired_pattern | เทนเซอร์ | (4, 5) | บูล | รูปแบบการสัมผัสเท้าที่ต้องการสำหรับขาทั้ง 4 ขา ทั้ง 4 แถวมีไว้สำหรับขาหน้าขวา หน้าซ้าย หลังขวา และขาหลังซ้าย ความยาวของรูปแบบคือ 5 (=0.1 วินาที) |
ขั้นตอน/การสังเกต/desired_vel | เทนเซอร์ | (3,) | ลอย32 | ความเร็วที่ต้องการ 2 อันแรกเป็นความเร็วเชิงเส้นที่ตั้งฉากกับทิศทางที่มุ่งหน้าไป ส่วนอันที่ 3 คือความเร็วเชิงมุมที่ต้องการเกี่ยวกับแกนหันเห |
ขั้นตอน/การสังเกต/ภาพ | ภาพ | (64, 64, 3) | uint8 | การสังเกต RGB ของกล้องจำลอง |
ขั้นตอน/การสังเกต/prev_act | เทนเซอร์ | (12,) | ลอย32 | การดำเนินการที่ใช้ในขั้นตอนก่อนหน้า |
ขั้นตอน/การสังเกต/proj_grav_vec | เทนเซอร์ | (3,) | ลอย32 | เวกเตอร์แรงโน้มถ่วง [0, 0, -1] ในกรอบฐานหุ่นยนต์ |
ขั้นตอน/การสังเกต/สถานะ | เทนเซอร์ | (30,) | ลอย32 | สถานะของหุ่นยนต์ประกอบด้วย [ความเร็วเชิงเส้นของฐานหุ่นยนต์ 3x, ความเร็วเชิงมุมฐาน 3x, ตำแหน่งข้อต่อ 12x, ความเร็วข้อต่อ 12x] |
ขั้นตอน/การสังเกต/wrist_image | ภาพ | (64, 64, 3) | uint8 | การสังเกต RGB ของกล้องดัมมี่ข้อมือ |
ขั้นตอน/รางวัล | สเกลาร์ | ลอย32 | รางวัลหากมีให้ 1 ในขั้นตอนสุดท้ายสำหรับการสาธิต |
คีย์ภายใต้การดูแล (ดู
as_supervised
doc ):None
รูปภาพ ( tfds.show_examples ): ไม่รองรับ
ตัวอย่าง ( tfds.as_dataframe ):
- การอ้างอิง :
@article{saytap2023,
author = {Yujin Tang and Wenhao Yu and Jie Tan and Heiga Zen and Aleksandra Faust and
Tatsuya Harada},
title = {SayTap: Language to Quadrupedal Locomotion},
eprint = {arXiv:2306.07580},
url = {https://saytap.github.io},
note = "{https://saytap.github.io}",
year = {2023}
}