• Nie Znaleziono Wyników

Projekt 2

N/A
N/A
Protected

Academic year: 2021

Share "Projekt 2"

Copied!
1
0
0

Pełen tekst

(1)

Projekt 2

1. Zbiór danych: CIFAR-10 obrazki kolorowe, 70000 próbek, 10 klas

2. Celem projektu jest porównanie dwóch klasyfikatorów: klasyfikatora SVM użytego dla danych wygenerowanych przez prostą sieć CNN oraz

klasyfikatora MLP.

3. Trenujemy prostą kilkuwarstwową sieć CNN dla 4 czasów trenowania: bardzo krótki, krótki, średni, pełny. Sieć taką można łatwo znaleźć. (sieć CNN składa się z części konwolucyjnej i MLP, dlatego wyniki dla klasyfikatora MLP będą takie same jak dla całej sieci CNN).

4. Po zadanych czasach trenowania t1, t2, t3, t4, zrzucić wektory reprezentujące obrazki które wchodzą na sieć MLP. Te wektory użyć do klasyfikacji metodą SVM.

5. Wyniki jakości klasyfikatorów oceniać na bazie krzyżowej-walidacji, (accuracy - Loss-błąd, Krzywa ROC, Precision-Recall, (pola pod krzywymi) F1).

Dokonać porównania wyników tzn: accuracy i loss dla trzech budżetów czasowych T1, T2, T3 (krótki, średni, długi). Tym sposobem porównać jakość klasyfikatorów tj. pełnej, uczonej sieci CNN w zadanych czasach oraz tej

„kombinowanej” z SVM.

6. Należy sporządzić raport z projektu.

W nawiasie ocena maksymalna.

Cytaty

Powiązane dokumenty

Celem opracowania jest próba zastosowania sztucznych sieci neuronowych do określenia pracy wykonanej podczas deformacji nadwozia pojazdu W def jako skutku zderzenia

W drugiej części wykładu przejdę do splotowych sieci neuronowych (CNN) i na przykładzie sieci klasyfikacyjnej zaimplementowanej w IBS omówione zostaną bardziej

∙ Zalety: globalne, proste w realizacji, niektóre nie potrzebują gradientu, inne łączą zalety metod gradientowych z.

∙ Uczenie zachłanne - dokładany pojedynczy neuron, koszt obliczeń zależy od czasu uczenia nowego neuronu, złożone struktury danych mogą nie zostać wykryte przez dodanie

Convolutional Neural Networks (CNN, ConvNet) wariant MLP inspirowany biologicznie, gdzie mnożenie macierzy wag i sygnału wejściowego zastąpione jest operacją splotu.. Zdolne

In the Numerical Gradient neural training algorithm [10] all weight changes are examined in the same point on the error surface and then a single step is made in the

One could train all the network parameters simultaneously, but more effective variant is the constructive approach, which determines parameters for each newly added hidden

Szum dodawany do wag lub do danych pozwala wygładzić funkcję błędu i uciec z płytszych minimów – formalnie jest to równoważne regularyzacji Tichonowa, czyli dodaniu..