- คำอธิบาย :
งานจัดโต๊ะ Franka
- หน้าแรก : https://ut-austin-rpl.github.io/sailor/ 
- ซอร์สโค้ด : - tfds.robotics.rtx.AustinSailorDatasetConvertedExternallyToRlds
- รุ่น : -  0.1.0(ค่าเริ่มต้น): การเปิดตัวครั้งแรก
 
-  
- ขนาดการดาวน์โหลด : - Unknown size
- ขนาดชุดข้อมูล : - 18.85 GiB
- แคชอัตโนมัติ ( เอกสาร ): No 
- แยก : 
| แยก | ตัวอย่าง | 
|---|---|
| 'train' | 240 | 
- โครงสร้างคุณสมบัติ :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32, description=Robot action, consists of [3x ee relative pos, 3x ee relative rotation, 1x gripper action].),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),
            'state': Tensor(shape=(8,), dtype=float32, description=Default robot state, consists of [3x robot ee pos, 3x ee quat, 1x gripper state].),
            'state_ee': Tensor(shape=(16,), dtype=float32, description=End-effector state, represented as 4x4 homogeneous transformation matrix of ee pose.),
            'state_gripper': Tensor(shape=(1,), dtype=float32, description=Robot gripper opening width. Ranges between ~0 (closed) to ~0.077 (open)),
            'state_joint': Tensor(shape=(7,), dtype=float32, description=Robot 7-dof joint information (not used in original SAILOR dataset).),
            'wrist_image': Image(shape=(128, 128, 3), dtype=uint8, description=Wrist camera RGB observation.),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=True on last step of the episode.),
    }),
})
- เอกสารคุณสมบัติ :
| คุณสมบัติ | ระดับ | รูปร่าง | ประเภทD | คำอธิบาย | 
|---|---|---|---|---|
| คุณสมบัติDict | ||||
| ตอนที่_ข้อมูลเมตา | คุณสมบัติDict | |||
| ตอนที่_metadata/file_path | ข้อความ | เชือก | เส้นทางไปยังไฟล์ข้อมูลต้นฉบับ | |
| ขั้นตอน | ชุดข้อมูล | |||
| ขั้นตอน/การดำเนินการ | เทนเซอร์ | (7,) | ลอย32 | การทำงานของหุ่นยนต์ ประกอบด้วย [ตำแหน่งสัมพันธ์ 3x ee, การหมุนสัมพันธ์ ee 3x, การทำงานของมือจับ 1x] | 
| ขั้นตอน/ส่วนลด | สเกลาร์ | ลอย32 | ส่วนลดหากมีให้ ค่าเริ่มต้นคือ 1 | |
| ขั้นตอน/is_first | เทนเซอร์ | บูล | ||
| ขั้นตอน/is_last | เทนเซอร์ | บูล | ||
| ขั้นตอน/is_terminal | เทนเซอร์ | บูล | ||
| ขั้นตอน/ภาษา_embedding | เทนเซอร์ | (512,) | ลอย32 | การฝังภาษาโคน่า ดู https://tfhub.dev/google/universal-sentence-encoder-large/5 | 
| ขั้นตอน/Language_instruction | ข้อความ | เชือก | การสอนภาษา. | |
| ขั้นตอน/การสังเกต | คุณสมบัติDict | |||
| ขั้นตอน/การสังเกต/ภาพ | ภาพ | (128, 128, 3) | uint8 | การสังเกต RGB ของกล้องหลัก | 
| ขั้นตอน/การสังเกต/สถานะ | เทนเซอร์ | (8,) | ลอย32 | สถานะเริ่มต้นของหุ่นยนต์ ประกอบด้วย [3x หุ่นยนต์ ee pos, 3x ee quat, 1x สถานะกริปเปอร์] | 
| ขั้นตอน/การสังเกต/state_ee | เทนเซอร์ | (16,) | ลอย32 | สถานะเอนด์เอฟเฟ็กเตอร์ แสดงเป็นเมทริกซ์การแปลงเนื้อเดียวกัน 4x4 ของท่า ee | 
| ขั้นตอน/การสังเกต/state_gripper | เทนเซอร์ | (1,) | ลอย32 | ความกว้างของการเปิดของมือจับหุ่นยนต์ ช่วงระหว่าง ~0 (ปิด) ถึง ~0.077 (เปิด) | 
| ขั้นตอน/การสังเกต/state_joint | เทนเซอร์ | (7,) | ลอย32 | ข้อมูลข้อต่อหุ่นยนต์ 7-dof (ไม่ได้ใช้ในชุดข้อมูล SAILOR ดั้งเดิม) | 
| ขั้นตอน/การสังเกต/wrist_image | ภาพ | (128, 128, 3) | uint8 | การสังเกต RGB ของกล้องข้อมือ | 
| ขั้นตอน/รางวัล | สเกลาร์ | ลอย32 | จริงในขั้นตอนสุดท้ายของตอน | 
- คีย์ภายใต้การดูแล (ดู - as_superviseddoc ):- None
- รูปภาพ ( tfds.show_examples ): ไม่รองรับ 
- ตัวอย่าง ( tfds.as_dataframe ): 
- การอ้างอิง :
@inproceedings{nasiriany2022sailor,
      title={Learning and Retrieval from Prior Data for Skill-based Imitation Learning},
      author={Soroush Nasiriany and Tian Gao and Ajay Mandlekar and Yuke Zhu},
      booktitle={Conference on Robot Learning (CoRL)},
      year={2022}
    }