- Opis :
Wake Vision to duży, wysokiej jakości zbiór danych zawierający ponad 6 milionów obrazów, znacznie przekraczający skalę i różnorodność obecnych zbiorów danych tinyML (100x). Ten zbiór danych zawiera obrazy z adnotacją, czy każdy obraz przedstawia osobę. Ponadto zawiera kompleksowy, szczegółowy punkt odniesienia służący do oceny uczciwości i solidności, obejmujący postrzeganą płeć, postrzegany wiek, odległość od obiektu, warunki oświetleniowe i przedstawienia. Etykiety Wake Vision pochodzą z adnotacji Open Image, które są licencjonowane przez firmę Google LLC na podstawie licencji CC BY 4.0. Obrazy są wymienione jako posiadające licencję CC BY 2.0. Uwaga od Open Images: „chociaż próbowaliśmy zidentyfikować obrazy objęte licencją Creative Commons Uznanie autorstwa, nie składamy żadnych oświadczeń ani zapewnień dotyczących statusu licencji każdego obrazu i należy samodzielnie zweryfikować licencję dla każdego obrazu”.
Strona główna : https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi%3A10.7910%2FDVN%2F1HOPXC
Kod źródłowy :
tfds.datasets.wake_vision.BuilderWersje :
-
1.0.0(domyślnie): początkowa wersja zestawów danych TensorFlow. Należy pamiętać, że jest to oparte na wersji 2.0 Wake Vision na Harvard Dataverse.
-
Rozmiar pobierania :
Unknown sizeRozmiar zbioru danych :
239.25 GiBAutomatyczne buforowanie ( dokumentacja ): Nie
Podziały :
| Podział | Przykłady |
|---|---|
'test' | 55763 |
'train_large' | 5 760 428 |
'train_quality' | 1 248 230 |
'validation' | 18582 |
- Struktura funkcji :
FeaturesDict({
'age_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'body_part': ClassLabel(shape=(), dtype=int64, num_classes=2),
'bright': ClassLabel(shape=(), dtype=int64, num_classes=2),
'dark': ClassLabel(shape=(), dtype=int64, num_classes=2),
'depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'far': ClassLabel(shape=(), dtype=int64, num_classes=2),
'filename': Text(shape=(), dtype=string),
'gender_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'image': Image(shape=(None, None, 3), dtype=uint8),
'medium_distance': ClassLabel(shape=(), dtype=int64, num_classes=2),
'middle_age': ClassLabel(shape=(), dtype=int64, num_classes=2),
'near': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_non-depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'normal_lighting': ClassLabel(shape=(), dtype=int64, num_classes=2),
'older': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_female': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_male': ClassLabel(shape=(), dtype=int64, num_classes=2),
'young': ClassLabel(shape=(), dtype=int64, num_classes=2),
})
- Dokumentacja funkcji :
| Funkcja | Klasa | Kształt | Typ D | Opis |
|---|---|---|---|---|
| FunkcjeDykt | ||||
| wiek_nieznany | Etykieta klasy | int64 | ||
| część_ciała | Etykieta klasy | int64 | ||
| jasny | Etykieta klasy | int64 | ||
| ciemny | Etykieta klasy | int64 | ||
| opis | Etykieta klasy | int64 | ||
| daleko | Etykieta klasy | int64 | ||
| nazwa pliku | Tekst | smyczkowy | ||
| płeć_nieznana | Etykieta klasy | int64 | ||
| obraz | Obraz | (Brak, Brak, 3) | uint8 | |
| średnia_odległość | Etykieta klasy | int64 | ||
| średni_wiek | Etykieta klasy | int64 | ||
| w pobliżu | Etykieta klasy | int64 | ||
| non-person_depiction | Etykieta klasy | int64 | ||
| non-person_non-depiction | Etykieta klasy | int64 | ||
| normalne_oświetlenie | Etykieta klasy | int64 | ||
| starszy | Etykieta klasy | int64 | ||
| osoba | Etykieta klasy | int64 | ||
| przedstawienie_osoby | Etykieta klasy | int64 | ||
| głównie_kobieta | Etykieta klasy | int64 | ||
| głównie_mężczyźni | Etykieta klasy | int64 | ||
| młody | Etykieta klasy | int64 |
Nadzorowane klucze (zobacz
as_superviseddokument ):('image', 'person')Rysunek ( tfds.show_examples ):

- Przykłady ( tfds.as_dataframe ):
- Cytat :
@article{banbury2024wake,
title={Wake Vision: A Large-scale, Diverse Dataset and Benchmark Suite for TinyML Person Detection},
author={Banbury, Colby and Njor, Emil and Stewart, Matthew and Warden, Pete and Kudlur, Manjunath and Jeffries, Nat and Fafoutis, Xenofon and Reddi, Vijay Janapa},
journal={arXiv preprint arXiv:2405.00892},
year={2024}
}