• Nie Znaleziono Wyników

Splotowe sieci neuronowe (CNN) w służbie obrazowych baz danych (CBIR)

N/A
N/A
Protected

Academic year: 2021

Share "Splotowe sieci neuronowe (CNN) w służbie obrazowych baz danych (CBIR)"

Copied!
1
0
0

Pełen tekst

(1)

Warszawa, 21.12.2019

Splotowe sieci neuronowe (CNN) w służbie obrazowych baz danych (CBIR)

Tatiana Jaworska

Jaworska@ibspan.waw.pl http://www.ibspan.waw.pl/~jaworska/

Wykład zarysowuje problematykę związaną z wyszukiwaniem zawartości obrazów w systemie CBIR – content-based image retrieval, zwany dalej na potrzeby wykładu obrazową bazą danych. W pierwszej połowie wykładu zostanie zaprezentowana baza obrazowa wykonana w Instytucie Badań Systemowych (IBS PAN), na przykładzie której omówione zostaną podstawowe problemy pojawiające się przy wyszukiwaniu obrazów, takie jak klasyfikacja, podobieństwo i zapytania obrazowe.

W drugiej części wykładu przejdę do splotowych sieci neuronowych (CNN) i na przykładzie sieci klasyfikacyjnej zaimplementowanej w IBS omówione zostaną bardziej szczegółowo zagadnienia konstruowania i uczenia sieci splotowej. Pokazana zostanie architektura umożliwiająca wykorzystanie wszystkich danych, które są do dyspozycji (nie tylko obrazowych) w przypadku braku wystarczającej liczby obrazów do uczenia sieci neuronowej.

Następnie zasygnalizowane będą nowe trendy i zagrożenia w sieciach neuronowych,

ze szczególnym uwzględnieniem tych architektur, które są wprowadzane w miejsce wcześniej

używanych algorytmów w obrazowych bazach danych. Na zakończenie omówione zostaną

przykładowe zagadnienia mogące potencjalnie stanowić tematy prac doktorskich.

Cytaty

Powiązane dokumenty

Podstawową cechą sieci neuronowej jest jej zdolność do uogólniania, a więc generowania właściwego rozwiązania dla danych, które nie pojawiły się w zestawie danych

Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na

Przy starcie uczenia z wartości losowych prawdopodobieństwo utknięcia procesu w minimum lokalnym jest większe niż w przypadku sieci. sigmoidalnych, ze względu na silną

1.2.7 Algorytm uczenia perceptronu (Simple perceptron learning algorithm, SPLA).. Jest to podstawowy

• dla wygenerowanych danych dwuwymiarowych dwóch klas z rozkładów normal- nych zaznacz na wykresie dane treningowe, klasyfikator sieciami neuronowymi, dla różnej liczby neuronów

Gdy mamy warstwę ukrytą problem jest taki, że nie znamy prawidłowej wartości na wyjściu neuronów z warstwy ukrytej, więc nie wiemy jak wyliczyć modyfikacje wag.. Algorytm

universal approximation theorem for neural networks states that every continuous function that maps intervals of real numbers to some output interval of real numbers can

Często współczynnik ten jest ustawiany na najwyższą wartość początkowo, a następnie jest redukowany przy zmianie wag sieci...