CIFAR-10
CIFAR -10 ( Canadian Institute for Advanced Research ) to zbiór obrazów, które są powszechnie używane do trenowania algorytmów uczenia maszynowego i wizji komputerowej . Jest to jeden z najczęściej używanych zestawów danych do badań nad uczeniem maszynowym. Zbiór danych CIFAR-10 zawiera 60 000 kolorowych obrazów 32x32 w 10 różnych klasach. 10 różnych klas reprezentuje samoloty, samochody, ptaki, koty, jelenie, psy, żaby, konie, statki i ciężarówki. Istnieje 6000 zdjęć każdej klasy.
Algorytmy komputerowe do rozpoznawania obiektów na zdjęciach często uczą się na przykładach. CIFAR-10 to zestaw obrazów, za pomocą których można nauczyć komputer rozpoznawania obiektów. Ponieważ obrazy w CIFAR-10 mają niską rozdzielczość (32x32), ten zestaw danych może pozwolić naukowcom na szybkie wypróbowanie różnych algorytmów, aby zobaczyć, co działa.
CIFAR-10 to oznaczony podzbiór zbioru danych zawierającego 80 milionów maleńkich obrazów . Kiedy zestaw danych został utworzony, studentom zapłacono za oznaczenie wszystkich obrazów.
Różne rodzaje splotowych sieci neuronowych wydają się być najlepsze w rozpoznawaniu obrazów w CIFAR-10.
Artykuły badawcze zawierające najnowocześniejsze wyniki dotyczące CIFAR-10
To jest tabela niektórych prac badawczych, które twierdzą, że osiągnęły najnowocześniejsze wyniki na zbiorze danych CIFAR-10. Nie wszystkie dokumenty są znormalizowane w oparciu o te same techniki wstępnego przetwarzania, takie jak odwracanie obrazu lub przesuwanie obrazu. Z tego powodu możliwe jest, że twierdzenie jednego artykułu dotyczące najnowocześniejszego stanu techniki może mieć wyższy wskaźnik błędów niż starsze twierdzenie najnowocześniejszego stanu techniki, ale nadal będzie ważne.
Tytuł papieru | Wskaźnik błędów (%) | Data publikacji |
---|---|---|
Konwolucyjne sieci głębokich przekonań na CIFAR-10 | 21.1 | sierpień 2010 |
Sieci Maxout | 9.38 | 13 lutego 2013 r |
Szerokie sieci resztkowe | 4.0 | 23 maja 2016 r |
Wyszukiwanie architektury neuronowej z uczeniem się ze wzmocnieniem | 3,65 | 4 listopada 2016 r |
Ułamkowa maksymalna pula | 3.47 | 18 grudnia 2014 r |
Gęsto połączone sieci konwolucyjne | 3.46 | 24 sierpnia 2016 r |
Regularyzacja Shake-Shake | 2,86 | 21 maja 2017 r |
Połączone zespoły sieci neuronowych | 2,68 | 18 września 2017 r |
Regularyzacja ShakeDrop | 2,67 | 7 lutego 2018 r |
Ulepszona regularyzacja konwolucyjnych sieci neuronowych z wycięciem | 2.56 | 15 sierpnia 2017 r |
Uregulowana ewolucja wyszukiwania architektury klasyfikatorów obrazów | 2.13 | 6 lutego 2018 r |
Ponowne przemyślenie powtarzających się sieci neuronowych i inne ulepszenia klasyfikacji obrazów | 1,64 | 31 lipca 2020 r |
AutoAugment: uczenie się zasad rozszerzania na podstawie danych | 1.48 | 24 maja 2018 r |
Ankieta dotycząca wyszukiwania architektury neuronowej | 1.33 | 4 maja 2019 r |
GPipe: wydajne szkolenie gigantycznych sieci neuronowych przy użyciu równoległości potoków | 1.00 | 16 listopada 2018 r |
Wzorce
CIFAR-10 jest również używany jako punkt odniesienia dla zespołów rywalizujących o szybsze i tańsze uruchamianie sieci neuronowych. DAWNBench ma dane porównawcze na swojej stronie internetowej.
Zobacz też
Linki zewnętrzne
- Strona CIFAR-10 — strona główna zestawu danych
- Kanadyjski Instytut Zaawansowanych Badań
Podobne zbiory danych
- CIFAR-100 : podobny do CIFAR-10, ale ze 100 klasami i 600 obrazami każda.
- ImageNet (ILSVRC): 1 milion kolorowych obrazów z 1000 klas. Obrazy Imagenet mają wyższą rozdzielczość, średnio 469x387.
- Numery domów Street View (SVHN): około 600 000 zdjęć 10 klas (cyfry 0-9). Również kolorowe obrazy 32x32.
- Zbiór danych zawierający 80 milionów maleńkich obrazów : CIFAR-10 to oznaczony podzbiór tego zbioru danych.