- Descrição :
Wake Vision é um conjunto de dados grande e de alta qualidade com mais de 6 milhões de imagens, excedendo significativamente a escala e a diversidade dos conjuntos de dados tinyML atuais (100x). Este conjunto de dados inclui imagens com anotações sobre se cada imagem contém uma pessoa. Além disso, ele incorpora uma referência abrangente e refinada para avaliar a imparcialidade e a robustez, abrangendo gênero percebido, idade percebida, distância do assunto, condições de iluminação e representações. Os rótulos Wake Vision são derivados de anotações da Open Image licenciadas pela Google LLC sob a licença CC BY 4.0. As imagens estão listadas como tendo uma licença CC BY 2.0. Nota da Open Images: "embora tenhamos tentado identificar imagens licenciadas sob uma licença Creative Commons Attribution, não fazemos representações ou garantias em relação ao status da licença de cada imagem e você mesmo deve verificar a licença de cada imagem."
Página inicial : https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi%3A10.7910%2FDVN%2F1HOPXC
Código fonte :
tfds.datasets.wake_vision.BuilderVersões :
-
1.0.0(padrão): versão inicial dos conjuntos de dados do TensorFlow. Observe que isso é baseado na versão 2.0 do Wake Vision no Harvard Dataverse.
-
Tamanho do download :
Unknown sizeTamanho do conjunto de dados :
239.25 GiBArmazenado em cache automaticamente ( documentação ): Não
Divisões :
| Dividir | Exemplos |
|---|---|
'test' | 55.763 |
'train_large' | 5.760.428 |
'train_quality' | 1.248.230 |
'validation' | 18.582 |
- Estrutura de recursos :
FeaturesDict({
'age_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'body_part': ClassLabel(shape=(), dtype=int64, num_classes=2),
'bright': ClassLabel(shape=(), dtype=int64, num_classes=2),
'dark': ClassLabel(shape=(), dtype=int64, num_classes=2),
'depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'far': ClassLabel(shape=(), dtype=int64, num_classes=2),
'filename': Text(shape=(), dtype=string),
'gender_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'image': Image(shape=(None, None, 3), dtype=uint8),
'medium_distance': ClassLabel(shape=(), dtype=int64, num_classes=2),
'middle_age': ClassLabel(shape=(), dtype=int64, num_classes=2),
'near': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_non-depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'normal_lighting': ClassLabel(shape=(), dtype=int64, num_classes=2),
'older': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_female': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_male': ClassLabel(shape=(), dtype=int64, num_classes=2),
'young': ClassLabel(shape=(), dtype=int64, num_classes=2),
})
- Documentação de recursos :
| Recurso | Aula | Forma | Tipo D | Descrição |
|---|---|---|---|---|
| RecursosDict | ||||
| idade_desconhecida | ClassLabel | int64 | ||
| parte_corpo | ClassLabel | int64 | ||
| brilhante | ClassLabel | int64 | ||
| escuro | ClassLabel | int64 | ||
| representação | ClassLabel | int64 | ||
| distante | ClassLabel | int64 | ||
| nome do arquivo | Texto | corda | ||
| gênero_desconhecido | ClassLabel | int64 | ||
| imagem | Imagem | (Nenhum, Nenhum, 3) | uint8 | |
| distância_média | ClassLabel | int64 | ||
| meia-idade | ClassLabel | int64 | ||
| aproximar | ClassLabel | int64 | ||
| representação_não-pessoal | ClassLabel | int64 | ||
| não-pessoa_não-descrição | ClassLabel | int64 | ||
| iluminação_normal | ClassLabel | int64 | ||
| mais velho | ClassLabel | int64 | ||
| pessoa | ClassLabel | int64 | ||
| representação_pessoa | ClassLabel | int64 | ||
| predominantemente_feminino | ClassLabel | int64 | ||
| predominantemente_masculino | ClassLabel | int64 | ||
| jovem | ClassLabel | int64 |
Chaves supervisionadas (consulte o documento
as_supervised):('image', 'person')Figura ( tfds.show_examples ):

- Exemplos ( tfds.as_dataframe ):
- Citação :
@article{banbury2024wake,
title={Wake Vision: A Large-scale, Diverse Dataset and Benchmark Suite for TinyML Person Detection},
author={Banbury, Colby and Njor, Emil and Stewart, Matthew and Warden, Pete and Kudlur, Manjunath and Jeffries, Nat and Fafoutis, Xenofon and Reddi, Vijay Janapa},
journal={arXiv preprint arXiv:2405.00892},
year={2024}
}