• Nie Znaleziono Wyników

Metody kompresji obrazu ruchomego

N/A
N/A
Protected

Academic year: 2021

Share "Metody kompresji obrazu ruchomego"

Copied!
14
0
0

Pełen tekst

(1)

1

K

ATEDRA

S

YSTEMÓW

M

ULTIMEDIALNYCH

L

ABORATORIUM

T

ECHNOLOGIE MULTIMEDIALNE

Ćwiczenie nr 6:

M

ETODY KOMPRESJI OBRAZU WIZYJNEGO

Opracowanie: dr inż. Bartosz Kunka dr inż. Grzegorz Szwoch dr inż. Piotr Odya

1. Wprowadzenie

Zagadnienie kompresji obrazu wizyjnego jest niezwykle popularne we współczesnym świecie. Znaczna część informacji jest przekazywana za pomocą materiału wizyjnego. Upowszechnienie komputerów oraz rozwój Internetu pozwalają na przesyłanie danych multimedialnych w czasie rzeczywistym oraz w coraz szerszym paśmie. Rewolucja nastąpiła także w sposobie oglądania filmów. Technika cyfrowa wyparła z rynku analogowe magnetowidy VHS, zastępując je odtwarzaczami DVD, gwarantującymi znacznie lepszą jakość obrazu oraz komputerami, które umożliwiają oglądanie filmów praktycznie w dowolnym formacie. Rozwój techniki cyfrowej doprowadził także do znaczącego zwiększenia rozdzielczości materiałów wizyjnych – od 720x576 (SD) przez 1920x1080 (HD) do 3840x2160 (4k) – a nawet więcej.

Dostępność materiałów wizyjnych na tak szeroką skalę jest możliwa dzięki stosowaniu kompresji wideo. Kompresja ogranicza objętość danych wizyjnych, wpływając jednocześnie na ich jakość. Jakość obrazu wizyjnego można oceniać subiektywnie, a także obiektywnie, dokonując pomiaru parametrów obrazu za pomocą specjalistycznego oprogramowania.

Celem tego ćwiczenia jest zapoznanie studenta z algorytmami kompresji wideo, kodekami oraz z parametrami kodowania wpływającymi na jakość skomprymowanego obrazu wizyjnego.

2. Obraz wizyjny

Zanim zostaną zaprezentowane metody kompresji wideo, należy w pierwszej kolejności wyjaśnić strukturę obrazu wizyjnego. Obraz wizyjny to sekwencja nieruchomych obrazów wyświetlanych w jednostce czasu. Te nieruchome obrazy nazywane są klatkami (ang. frames). W ciągu jednej sekundy wyświetlanych jest 25 klatek (ang. frames per second

– fps)1 – schematyczną strukturę obrazu wizyjnego przedstawiono na rys. 1. Widz percypuje

ciągły obraz ruchomy, a nie pojedyncze klatki, dzięki bezwładności wzroku, który nie jest w stanie odróżnić tak szybko zmieniających się obrazów.

1 25 – liczba klatek na sekundę stosowana w Polsce i w innych krajach używających telewizyjnego standardu PAL; standard NTSC (stosowany m.in. w Stanach Zjednoczonych i Japonii) oparty jest na 30 klatkach na sek.; w kinematografii stosuje się 24 klatki na sekundę.

(2)

2 Rys. 1. Struktura obrazu wizyjnego w standardzie PAL;

klatki – pojedyncze nieruchome obrazy

3. Kompresja obrazu wizyjnego – podstawy teoretyczne

W pierwszej kolejności należy zastanowić się dlaczego warto stosować kompresję obrazu ruchomego. Proste obliczenie jasno wskazuje, że nieskompresowany obraz wizyjny zawiera ogromną ilość danych:

standard PAL

rozdzielczość luminancji (Y) 720x576

rozdzielczość chrominancji (CB, CR) 360x576

liczba klatek na sekundę 25

głębia koloru [bit] 8

720x576 · 25 · 8 + 2·(360x576 · 25 · 8) =

166 Mbit/s

Dla materiałów zapisanych w standardach HD (ang. High Definition) te ilości są jeszcze większe:

standard HD 1080p25

rozdzielczość luminancji (Y) 1920x1080

rozdzielczość chrominancji (CB, CR) 960x1080

liczba klatek na sekundę 25

głębia koloru [bit] 8

1920x1080 · 25 · 8 + 2·(960x1080 · 25 · 8) =

829 Mbit/s

Tak ogromna ilość danych w znaczący sposób utrudniłaby oglądanie i przetwarzanie obrazów wizyjnych na komputerze, nie wspominając o ich przesyłaniu przez Internet. Dlatego pojawiła się potrzeba stosowania kompresji obrazu.

Kompresja to proces odwracalny. W pierwszej kolejności dokonuje się kodowania

(ang. encoding) obrazu wizyjnego do postaci o mniejszej ilości danych. Proces odwrotny to

dekodowanie (ang. decoding), pozwalające odtworzyć wejściowy obraz wizyjny przy użyciu

mniejszej ilości informacji. Zatem efektywne zmniejszanie rozmiaru danych reprezentujących obraz wizyjny jest możliwe dzięki kodekom (ang. codecs).

(3)

3

Dla usystematyzowania pojęć, które bezpośrednio wiążą się z kompresją wideo, zamieszczono poniższy schemat, ukazujący relacje zachodzące pomiędzy kodekiem, kontenerem danych i algorytmem kompresji. Schemat nie zawiera wszystkich możliwych nazw kodeków, kontenerów i algorytmów kompresji – rys. 2 przedstawia nazwy najczęściej spotykane.

Rys. 2. Relacja pomiędzy kodekiem, kontenerem danych i algorytmem kompresji

4. Metody kompresji obrazu wizyjnego

Należy zwrócić uwagę na fakt, że w cyfrowym obrazie wizyjnym kolor piksela/pikseli zdefiniowany jest w standardzie YUV, a nie w RGB. Dokonanie konwersji koloru znacząco wpływa na zmniejszenie ilości danych. W standardzie YUV wyróżnia się trzy składowe: Y (luminancja) oraz U i V, będące składowymi chrominancji. W związku z tym, że oko ludzkie jest mniej wrażliwe na zmiany sygnału chrominancji niż luminancji, sygnały chrominancji poddawane są silniejszej kompresji niż luminancja. Składowa Y jest zapisywana dla każdego piksela osobno. Składowe chrominancji U i V opisują natomiast grupy pikseli o wielkości 2x2 piksele. Oznacza to, że powstaje grupa złożona z 4 pikseli, które mają taki sam kolor, ale mogą różnić się luminancją.

Kompresja obrazu jest procesem służącym do zmiany wielkości danych przechowujących dane o obrazie lub sekwencji obrazów. Podstawowym parametrem wskazującym na jakość kompresji jest współczynnik kompresji, wyrażony ilorazem:

|

|

|

|

out in

S

S

CR =

CR – compression rate (stopień kompresji), Sin – wielkość danych przed kompresją,

Sout – wielkość danych po kompresji.

Kompresję stosuje się głównie w celu uzyskania lepszych prędkości przesyłania danych. Należy jednak podkreślić, że zysk podczas transmisji jest okupiony koniecznością poświęcenia czasu na zdekodowanie danych (zwykle dzieję się to „w locie” tj. podczas odtwarzania). Jakość kompresji zależy silnie od rodzaju danych.

(4)

4

U

WAGA

.

Stratna kompresja obrazu wizyjnego zawsze ogranicza ilość danych

potrzebnych do odtworzenia zakodowanego obrazu, wpływając destrukcyjnie na jego jakość. Różne algorytmy kompresji kodują obraz wizyjny z różną efektywnością. Kompresję obrazu wizyjnego można podzielić na dwie główne grupy: kompresję

wewnątrzklatkową (ang. intraframe compression) i kompresję międzyklatkową (ang. interframe compression).

Kompresja wewnątrzklatkowa polega na niezależnym kompresowaniu każdej klatki – kompresja obrazów statycznych. Edycja materiału wizyjnego skomprymowanego w tym formacie jest podobna do edycji materiału nieskomprymowanego, podczas której system przetwarzania danych nie musi wykorzystywać innych klatek, aby zdekodować informacje niezbędne do wygenerowania potrzebnego obrazu. Przykładem formatu opartego na kompresji wewnątrzklatkowej jest format DV (ang. Digital Video).

Kompresja międzyklatkowa wykorzystuje fakt, iż kolejne klatki w sekwencji obrazu wizyjnego niewiele się od siebie różnią. Możliwa jest zatem redukcja nadmiaru informacji czasowej między kolejnymi klatkami. Redukcja informacji czasowej polega na wyszukiwaniu różnic między kolejnymi klatkami i odpowiednim ich kodowaniu.

Przykładem standardu wykorzystującego kompresję międzyklatkową jest MPEG. Struktura obrazu wizyjnego w tym standardzie opiera się o trzy typy klatek: I (intra), P (predicted) i B (bidirectional):

klatka I: klatka kluczowa; kompletna klatka poddana wyłącznie kompresji

przestrzennej (np. DCT – jak JPEG);

klatka P: klatka różnicowa, oparta na poprzedniej klatce I oraz zestawie

współczynników predykcji ruchu;

klatka B: klatka różnicowa, oparta na poprzedniej i następnej klatce I oraz zestawie

współczynników predykcji ruchu.

a) b)

Rys. 5. Organizacja klatek w standardzie MPEG: a) struktura obrazu wizyjnego; b) wpływ uszkodzonej klatki na inne.

Najczęściej spotykanymi implementacjami standardu MPEG są: MPEG-2, MPEG-4 i MPEG-4 AVC. Ten ostatni kodek często oznaczany jest jako h.264. Obecnie format MPEG-2 uznawany jest za przestarzały, stosuje się go w zasadzie wyłącznie na płytach DVD-Video

(5)

5

oraz do transmisji (zmniejszającej się) liczby kanałów telewizyjnych. Na popularności zyskuje natomiast kodek HEVC (oznaczany także jako h.265) zdefiniowany w standardzie MPEG-H.

5. Parametry kompresji obrazu wizyjnego

W niniejszym rozdziale opisano najważniejsze parametry kompresji obrazu wizyjnego. Dobór parametrów kompresji jest często dokonywany w taki sposób, aby dopasować parametry zakodowanego obrazu do wymogów technicznych (przepustowości łącza, objętości nośnika, itp.).

Jakość (ang. Quality)

Niektóre kodeki mają możliwość zmiany wartości tylko jednego parametru, który nazwano po prostu jakością. Jakość obrazu wizyjnego jest bezpośrednio związana z rozmiarem pliku zakodowanego filmu: im większa jakość, tym większy rozmiar. Problemem w takiej sytuacji jest brak możliwości przewidzenia wielkości pliku wynikowego.

Przepływność bitowa (ang. Bitrate)

Współczynnik określający, ile bitów danych zostało użytych do zapisania obrazu w ciągu jednej sekundy, np. 1024 kb/s (lub z ang. kbps – kb per second).

Wyróżnia się dwa rodzaje przepływności bitowych: ▪ CBR – Constant Bitrate – stała przepływność

Polega na zapisie określonego czasu nagrania zawsze przy pomocy tej samej liczby bitów (przypadających na jednostkę czasu), niezależnie od stopnia skomplikowania zapisywanych danych. To rozwiązanie jest proste i między innymi dlatego znajduje zastosowanie w strumieniowaniu (streaming) danych multimedialnych, kiedy istotna jest maksymalna, a nie średnia przepustowość.

VBR – Variable Bitrate – zmienna przepływność

Oznacza zróżnicowanie ilości danych wyjściowych przypadających na poszczególne segmenty czasowe w zależności od złożoności danych wejściowych w tych segmentach. Zmienna przepływność ma utrzymać stałą jakość sygnału wyjściowego, a nie stałą ilość danych przypadających na daną jednostkę czasu. Technika VBR jest preferowana w przypadku przechowywania danych (w odróżnieniu od streamingu) ze względu na bardziej efektywne wykorzystanie objętości danych - więcej miejsca przeznaczane jest na bardziej skomplikowane segmenty, mniej zaś na segmenty zawierające dane o mniejszej złożoności. Zmienna przepływność utrudnia kompresję i dekompresję, lecz daje lepszą jakość przy tej samej wielkości pliku. Stąd też jest o wiele częściej używana.

Kodowanie jedno i dwu-przebiegowe (ang. One-, Two-pass) One-pass

Kodowanie jednoprzebiegowe oznacza, że plik kodowany jest raz. Jest to najprostsza możliwość - można ją wybrać, gdy nie zależy nam na optymalizacji pliku wynikowego.

(6)

6 Two-passes

Kodowanie dwuprzebiegowe polega na tym, że plik multimedialny jest poddawany kompresji w dwóch etapach. Najpierw przeprowadzana jest analiza filmu i obliczanie parametrów każdej klatki. Ustalone w ten sposób dane (m.in. poziom ruchu, stopień jasności czy złożoność obrazu) są zapisywane w oddzielnym pliku dziennika. Dzieje się to podczas pierwszego przebiegu. W drugim przebiegu program wykorzystuje zawartość tego pliku, aby skompresować film skuteczniej i w efekcie uzyskać lepszą jakość obrazu. Kodowanie dwuprzebiegowe znacznie wydłuża czas kodowania obrazu wizyjnego (o ok. 80%).

6. Ocena jakości obrazu wizyjnego

Metody oceny jakości obrazu poddanego kompresji można podzielić na subiektywne (oceny przydzielane przez ekspertów) oraz obiektywne (parametry obliczane przez pewien algorytm). W ćwiczeniu wykorzystane będą obie metody. O ile jednak ocena subiektywna nie wymaga specjalnych objaśnień, to inaczej jest z metodami obiektywnymi. Niestety, nie da się opisać jakości obrazu za pomocą jednej miary. Do dyspozycji są różne metryki: niektóre obliczają wyłącznie różnice pomiędzy pikselami obrazu, inne biorą pod uwagę czynniki perceptualne wpływające na postrzeganie zniekształceń przez człowieka, są również metryki opisujące szczegółowo wybrane zniekształcenia, np. zaszumienie, rozmycie czy zblokowanie pikseli.

W ćwiczeniu do obiektywnej oceny jakości obrazu wykorzystywany będzie program MSU Video Quality Measurement Tool (MSU–VQMT). W instrukcji do ćwiczenia zostanie przedstawiony tylko ogólny opis poszczególnych miar stosowanych w tym programie. Wzory, przykładowe obrazy i bardziej szczegółowe opisy można znaleźć w dokumentacji programu.

METRYKI WZGLĘDNE

Względne metryki służą do porównywania jakości dwóch lub trzech obrazów – jeden z nich jest obrazem referencyjnym, zatem powinien być to obraz oryginalny (nie poddany kompresji). Ogranicza to możliwość ich stosowania, ponieważ trzeba mieć dostęp do materiału źródłowego. Przykładowe miary względne to:

PSNR (Peak Signal-to-Noise Ratio)

Jedna z najczęściej używanych miar, opisuje stosunek sygnału do szumu. Jest to błąd średniokwadratowy odniesiony do maksymalnej możliwej różnicy, wyrażony w skali logarytmicznej. Program oblicza dwie wersje miary: PSNR i APSNR, różniące się sposobem uśredniania pikseli (wersja PSNR jest zgodna z definicją), ponadto dostępne są wersje PSNR(256) i APSNR(256), przeznaczone do porównywania obrazów różniących się głębią koloru. Zaleca się stosować miarę PSNR. Wartości są podawane w decybelach, większa wartość oznacza mniejsze zniekształcenia.

(7)

7 SSIM (Structure Similarity Index Measure)

Miara SSIM jest pierwszą metryką, która stara się porównywać nie wartości pikseli, ale elementy obrazu spostrzegane przez człowieka, zatem lepiej opisuje różnice jakości obrazu niż np. PSNR. Miara ta uwzględnia trzy typy zniekształceń: luminancji (szczegółów obrazu), kontrastu i struktury. Końcowy indeks SSIM uwzględnia łącznie wszystkie te zniekształcenia. Program posiada dwie implementacje algorytmu: szybką (fast) i dokładną (precise). Wartości: od –1 (maksymalna różnica) do 1 (brak różnic), wyższa wartość to lepsza jakość.

METRYKI BEZWZGLĘDNE

Miary bezwzględne analizują pojedynczy obraz, nie wymagają obrazu źródłowego do porównania. Oczywiście obraz źródłowy również może zostać zanalizowany i uzyskane wyniki mogą być porównane z miarami dla obrazu poddanego kompresji. Przykładowe miary bezwzględne to:

Blurring

Miara ta opisuje zniekształcenia objawiające się rozmyciem (blur) szczegółów obrazu, zwłaszcza krawędzi obiektów (charakteryzujących się gwałtowną zmianą barwy lub jasności). Rozmycie szczegółów może być artefaktem kompresji (wynikającym z „uśredniania” bloków pikseli), może też wynikać z zastosowania układu rozmywającego zniekształcenia blokowe (deblocking), występującego w większości dekoderów. Metryka mierzy zmiany jasności w sąsiedztwie każdego piksela. Interpretacja wartości tej metryki jest odwrotna do tego co sugeruje jej nazwa, ponieważ większa wartość oznacza mniejszy stopień rozmycia (a więc lepszą jakość).

Blocking

Metryka opisuje inny rodzaj artefaktów kompresji obrazu, a mianowicie zblokowanie pikseli. Zniekształcenie to wynika ze sposobu przetwarzania obrazu przy kompresji – odbywa się ono w blokach pikseli, zwykle szerokość i wysokość bloku jest wielokrotnością liczby 8. Zniekształcenia tego typu są widoczne przy dużym stopniu kompresji, szczególnie na powierzchniach o zbliżonej (lecz nie identycznej) barwie i jasności. Metryka mierzy różnice barwy i kontrastów pikseli położonych na brzegu sąsiednich bloków o rozmiarze 8 na 8 pikseli. Wartość 0 oznacza brak zniekształceń, im większa wartość tym większe zniekształcenia.

7. Procedury kodowania obrazu wizyjnego

Kodowanie obrazu wizyjnego należy przeprowadzić w programie HandBrake, będącym nakładką graficzną na najpopularniejszy obecnie darmowy program służący do kodowanie materiałów wizyjnych - ffmpeg. Okno programu przedstawiono na rys. 6. Kolejne kroki kodowania obrazu opisano poniżej.

(8)

8 Rys. 6. Okno programu Handbrake - widoczna zakładka Video służąca do ustawiania parametrów

kodowania obrazu

• Wczytać (przeciągnąć myszką) plik wejściowy do programu.

• Z listy presetów w prawej części okna aplikacji wybrać Custom Presets -> Metody

kompresji obrazu wizyjnego

• W zakładce Video wybrać z listy rozwijanej pożądany kodek (Video Codec).

• Ustawić zadaną przepływność w oknie Avg Bitrate (kbps), w razie potrzeby zaznaczyć opcję 2-Pass Encoding

• W dolnej części okna aplikacji wybrać miejsce zapisu i nazwę skomprymowanego pliku. Najlepiej jest nadawać plikom nazwy opisowe tak, by łatwo można było je zidentyfikować (np. movie1_h264_low.mkv). Następnie kliknąć na przycisk Start Encode

8. Procedury kodowania obrazu wizyjnego

Program MSU Video Quality Measurement Tool jest darmowy do użytku niekomercyjnego, można go pobrać z jego strony domowej. Główne okno programu przedstawiono na rys. 7. Aby dokonać analizy dla trzech plików (muszą mieć jednakową rozdzielczość): oryginalnego oraz dwóch poddanych kompresji należy wykonać następujące kroki.

• W polu Original podać ścieżkę do pliku źródłowego. Przyciskiem Preview można sprawdzić, czy program potrafi otworzyć plik.

(9)

9 Rys. 7. Okno programu MSU Video Quality Measurement Tool

• W polu Second processed w analogiczny sposób wczytać pierwszy plik po kompresji. • Z menu po lewej stronie wybrać opcję Metric specification, a następnie

o W polu Metric wybrać żądaną metrykę z listy.

o W polu Variatio zostawić opcję default lub (o ile jest dostępna) precise

o Wybrać opcję Color – w ćwiczeniu używać tylko pierwszej opcji (YYUV), czyli badanie składowej luminancji. Można też wybrać do analizy składowe chrominancji (UYUV, VYUV) bądź kanały barwne (RRGB, GRGB, BRGB).

• Nie zaznaczać opcji Mask, Output, Visualization, Bad frames. • Nacisnąć przycisk Start, co uruchomi proces analizy

Po dokonaniu analizy otwarte zostaje okno z wynikami (rys. 8). Zakładka Graph zawiera dwa wykresy: górny przedstawia obliczone metryki dla całego pliku, dolny – powiększony fragment (zaznaczony ciemną linią przerywaną na górnym wykresie). Po naciśnięciu przycisku Show frame wyświetlane jest okno pokazującej zawartość ramki zaznaczonej kursorem. Można przełączać się między każdym z analizowanych plików za pomocą listy rozwijanej lub wyświetlić obok siebie ramki dwóch różnych plików. Suwak i przyciski ze strzałkami umożliwiają zmianę oglądanej ramki.

W zakładce Table można znaleźć obliczone wartości metryk dla poszczególnych ramek plików, ostatni wiersz zawiera wartość średnią, która może być przydatna do oceny jakości całego pliku.

(10)

10 Rys. 8. Okno prezentacji wyników analizy programu MSU Video Quality Measurement Tool

9. Zadania

1. W katalogu D:\Technologie multimedialne\nazwisko1 nazwisko2\ stworzyć podkatalog kompresja. W tym podkatalogu będą zapisywane pliki wynikowe.

2. Za pomocą programu HandBrake dokonać kompresji przygotowanych plików wizyjnych

zapisanych w katalogu D:\Technologie multimedialne\!cw06

Badaniu podlegają następujące kodeki: MPEG-2, MPEG-4, H.264 (x264), H.265 (x265). Każdy plik zapisać z dwoma przepływnościami bitowymi.

Uwaga! Wartości przepływności bitowej (low i high) zostaną podane przez prowadzącego i powinny być takie same dla wszystkich kodeków.

W przypadku wszystkich kodeków i niższej wartości przepływności pliki należy zakodować jednoprzebiegowo oraz dwuprzebiegowo (wówczas należy zaznaczyć opcję 2-Pass

Encoding w zakładce Video programu Handbrake)

3. Zapisać, ile czasu (w sekundach) zajęło kodowanie z użyciem poszczególnych kodeków.

Dane te można odczytać klikając na przycisk Activity log (należy porównać czas rozpoczęcia i zakończenia kodowania).

4. Dokonać subiektywnego porównania jakości otrzymanych plików oglądając je np.

w Windows Media Playerze. Jakość oceniać w skali 1-10, gdzie 10 jakość pliku oryginalnego.

(11)

11 5. Dokonać obiektywnego porównania jakości otrzymanych plików dla dwóch kodeków

używając programu MSU Video Quality Measurement Tool. Użyć miar PSNR, SSIM (precise) oraz Blurring i Blocking. Zapisać wartość średnią dla poszczególnych plików.

Uwaga! Nazwy kodeków wybranych do obiektywnych porównań jakości zostaną podane przez prowadzącego.

Używając wykresów i okna podglądu (Show frame) zaobserwować w których scenach wartość metryki sugeruje największe zniekształcenia i największe różnice między skompresowanymi plikami, opisać charakter zniekształceń w tych scenach.

Obejrzeć wygenerowane pliki wizualizacji metryki, określić w jakich elementach obrazu występują największe zniekształcenia.

6. Wypełnić sprawozdanie dołączone do niniejszej instrukcji.

7. Po zakończeniu ćwiczenia usunąć z dysku twardego podkatalog z plikami stworzonymi w

trakcie zajęć.

10.

Opracowanie

Formatka sprawozdania do ćwiczenia laboratoryjnego znajduje się na ostatniej stronie niniejszej instrukcji. Formatkę należy przynieść ze sobą na zajęcia i wypełniać ją sukcesywnie w miarę wykonywania kolejnych zadań. Sprawozdanie należy oddać prowadzącemu bezpośrednio po zakończeniu laboratorium.

11.

Bibliografia

A. Beach, Kompresja dźwięku i obrazu wideo, Helion.

M. Domański, Obraz cyfrowy, WKŁ.

J. Watkinson, The MPEG Handbook, Focal Press.

D. Mitrovic, Video Compression, University of Edinburgh.

▪ Standardy MPEG: https://mpeg.chiariglione.org

▪ Informacja o metrykach obiektywnych:

(12)

TECHNOLOGIE MULTIMEDIALNE

Ćw. 6

Metody kompresji obrazu wizyjnego

Wykonujący: Ocena:

Grupa:

Data wykonania ćwiczenia: plik ………

low…………..…………high………..………..

wielkość pliku współczynnik

kompresji czas kodowania

jakość - ocena subiektywna plik oryginalny MPEG-2 low, 1 przebieg low, 2 przebiegi high, 1 przebieg MPEG-4 low, 1 przebieg low, 2 przebiegi high, 1 przebieg H.264 low, 1 przebieg low, 2 przebiegi high, 1 przebieg H.265 low, 1 przebieg low, 2 przebiegi high, 1 przebieg VP9 low, 1 przebieg low, 2 przebiegi high, 1 przebieg

Jakość oceniać w skali 1-10, gdzie 10 jakość pliku oryginalnego

Współczynnik kompresji obliczać jako stosunek wielkości pliku przed kompresją do jego wielkości po kompresji (np.: 10:1 lub 4,7:1).

plik ……….. PSNR SSIM Blurring Blocking

plik oryginalny ……… low, 1 przebieg low, 2 przebiegi high, 1 przebieg ……… low, 1 przebieg low, 2 przebiegi high, 1 przebieg

(13)

1) Porównać jakość obrazu i czas kompresji dla poszczególnych kodeków. ... ... ... ... ... ... ... ...

2) Czy wyniki oceny subiektywnej i obiektywnej oceny jakości pokrywają się?

... ... ... ... ... ...

3) W których scenach wartość metryki sugeruje największe zniekształcenia i największe różnice między skompresowanymi plikami? Jaki charakter mają te zniekształcenia?

... ... ... ... ... ...

4) Które metryki najlepiej pokazują różnice jakości obrazu między trybem wysokiej i niskiej przepływności? ... ... ... ... ... ...

(14)

5) Który kodek pozwala na uzyskanie najwyższej jakości przy najniższej przepływności? Co może być tego przyczyną? ... ... ... ... ... ... ... ...

6) Czy są różnice w jakości obrazu dla kodowania jedno- i dwuprzebiegowego? Z czego to wynika?

... ... ... ... ... ... ... ... ... 7) Własne spostrzeżenia, wnioski i komentarze.

... ... ... ... ... ... ... ... ... ...

Cytaty

Powiązane dokumenty

Klatki znajdujące się pomiędzy klatkami kluczowymi zawierają informacje o zmianach, które mają miejsce pomiędzy klatkami kluczowymi.. Dodatkowo kompresja klatek to

Zamiast podawania w każdej klatce informacji o każdym pikselu, podaje się dane o pikselach, które zmieniły swoje położenie względem poprzedniej.. Dzięki temu wyświetla się

Klatki kluczowe to kompletne klatki (lub obrazy) wideo, które osadzane są w klipie wideo w stałych odstępach czasu. Klatki znajdujące się pomiędzy klatkami kluczowymi

Taking 1980 as a starting point, coinciding with the First Venice Architecture Biennale, the research traces the debate on context back to the 1950s through an in-depth study

451 By resorting to political publicistics, the belles lettres and guidebooks, the author depicts the confrontation in the course of the nineteenth century and

Niemniej, nie w ydaje się, podobnie jak w wątku rosyjskim, żeby prowokację za­ m ierzyło środowisko żydowskie, bo tekst ten jest przede wszystkim

[r]

[r]