Movatterモバイル変換


[0]ホーム

URL:


Przejdź do zawartości
Wikipediawolna encyklopedia
Szukaj

Moving Picture Experts Group

Z Wikipedii, wolnej encyklopedii

MPEG (ang. Moving Picture Experts Group) – grupa roboczaISO/IEC zajmująca się rozwojem standardów kodowania audio i wideo, a także zatwierdzona przez ISO grupa powszechnie stosowanychformatów zapisudanych zawierającychobraz idźwięk.

Wśród tych standardów znajdują się m.in. najpopularniejszy format kompresji dźwięku, stosowany w komputerach osobistych iprzenośnych odtwarzaczach muzycznych (MP3) oraz opracowany dość dawno przez grupę niezależnych ekspertów standard do zapisu filmów (Video CD,DVD) i transmisjitelewizji cyfrowej (MPEG 2).

Powstanie grupy

[edytuj |edytuj kod]

Grupa MPEG powstała w1988, do pierwszego spotkania doszło w maju 1988 wOttawie. Jej celem było opracowanie standardu kodowania wideo wraz z dźwiękiem.

Rozwój technologii wymógł konieczność opracowania sposobu kompresji, ponieważ np. obrazPAL zwykle składa się 25 klatek na sekundę, 720 punktów w poziomie i 576 punktów w pionie, a kolor każdego z tych punktów opisany jest 24bitami. Oznacza to, że każda sekunda nieskompresowanego obrazu w standardzie PAL ma wielkość prawie 29,2megabajtów. 1,5-godzinny film w tym formacie zajmuje ponad 156gigabajtów, a do jego zapisania potrzebne byłyby 224płyty CD.

Ponieważ taka ilość danych drastycznie przekraczała możliwości dostępnego na ówczesnym rynku konsumenckim sprzętu, zarówno jeśli chodzi o możliwości składowania danych, jak i ich przesyłu czy odczytu z nośników danych, cyfrowe odtwarzanie wideo wymagało opracowania wydajnych standardów kompresji.

Formaty

[edytuj |edytuj kod]

W1991 opracowano oficjalną specyfikację standarduMPEG-1. Obraz ma w nim rozdzielczość 352x240 punktów i jest wyskalowany do odtwarzania pełnoekranowego, a przepustowość wynosi 1,5Mb/s. Trzecia warstwa standardu MPEG-1 dotyczy kodowania dźwięku i jest wykorzystywana w popularnym formacieMP3.

W roku1994 pojawiła się specyfikacja standarduMPEG-2, w którym maksymalna rozdzielczość obrazu wynosi 1920x1152 punktów, a prędkość transferu waha się między 3 a 13Mb/s.

MPEG-3 został oryginalnie zaprojektowany dlaHDTV, porzucono go jednak, gdy okazało się, że format MPEG-2 jest dla telewizji wysokiej rozdzielczości w zupełności wystarczający.

MPEG-4 jest przystosowany głównie dokompresji danych strumieniowych (wideokonferencje), dlatego posiadał zaimplementowane funkcje chroniące przed błędami przesyłu. Ich usunięcie i drobne usprawnienia wczęści 2 standardu przez francuskiegohakera Jérôme Rota (ur.1973 wMontpellier) zaowocowało powstaniemkodeka "DivX;-)" (emotikon jest częścią nazwy tego kodeka). Od tej pory rozpoczął się dynamiczny rozwój tej gałęzimultimediów, oraz powstanie coraz bardziej wydajnych kodeków, takich jakXviD. Część 3. standardu MPEG-4 opisuje kodek audioAAC.Część 10. opisuje jeszcze wydajniejszy algorytm kompresji, nazwanyAVC - Advanced Video Coding (zalecenieITU-TH.264).

MPEG-7 to standard opisu danych multimedialnych. Umożliwia zapis informacji o cechach obrazu: kształtach, kolorach, teksturach. Na podstawie tych danych możliwe jest szybkie i trafne odnajdywanie obrazów podobnych do siebie.

MPEG-21 to przyszłościowy standard, mający na celu dalszą standaryzację treści multimedialnych.

Techniki kompresji

[edytuj |edytuj kod]

W kodowaniu obrazu MPEG 1, 2 i 4 wykorzystywane są różne metody kompresji bazujące na znajomości ograniczeń ludzkiego postrzegania obrazów:

  • Podpróbkowanie chrominancji. W obrazie cyfrowym kolor każdego punktu kodowany jest przy pomocy trzech 8-bitowych wartości. Informują one o nasyceniu punktu składowymi barw: czerwonej (Red), zielonej (Green) oraz niebieskiej (Blue)- reprezentacjaRGB. W cyfrowym obrazie wideo do zdefiniowania koloru punktu używa się reprezentacjiYCbCr, opartej na składowychluminancji (jasności, oznaczenieY) orazchrominancji (odcień i nasycenie, oznaczenieCb iCr). Aby obejrzeć taki obraz należy przeprowadzić konwersję danych o kolorach z reprezentacji YCbCr na RGB. Jak wykazały badania, informacja kolorystyczna ma mniejsze znaczenie dla ludzkiego oka, dlatego stosuje się "podpróbkowanie" - najczęściej na każde 2x2 punkty luminancji przypada zaledwie jeden punkt chrominancji Cb i jeden Cr.
  • Kompensacja ruchu. Często w filmach występują momenty, w których na ekranie ruszają się tylko postacie, a tło pozostaje niezmienione (np. sceny rozmowy). Zamiast podawania w każdej klatce informacji o każdympikselu, podaje się dane o pikselach, które zmieniły swoje cechy. Dla każdego makrobloku (16x16 punktów) oblicza się wektor, wskazujący na miejsce w klatce odniesienia (najczęściej jest to poprzednia klatka filmu), które jest najbardziej podobne do kodowanego makrobloku. Do odbiornika przesyła się wartość wektora i różnicę względem "podobnego" makrobloku. Ta operacja pozwala na ogromną redukcję przesyłanych danych.
  • Kodowanie transformatowe. Obraz każdej klatki dzielony jest na bloki o wielkości 8x8 punktów, a następnie dokonuje się na takim bloku operacji matematycznej nazywanejtransformacją kosinusową (DCT), która zamienia treść bloku 64 punktów na informację o wolnych i szybkich zmianach luminancji i chrominancji w różnych kierunkach, a ponieważ składowe szybkozmienne są mniej intensywne, odpowiadające im wartości liczbowe (współczynniki transformaty DCT) mają wartości bliskie zeru i mogą być pominięte lub zapisane zgrubnie bez znaczącej straty jakości.
  • Kodowanie Huffmana. Informacja o wektorach ruchu i współczynnikach DCT jest kodowana kodem Huffmana. Wartości bardzo prawdopodobne są reprezentowane przez krótsze ciągi zer i jedynek, a mało prawdopodobne - przez dłuższe.

Podsumowując: najpierw następuje odtworzenie informacji zero-jedynkowej przy pomocy dekodowania Huffmana. Uzyskuje się dwa rodzaje klatek: kluczowe — zawierające pełne obrazy oraz predykcyjne, zawierające różnice między skompensowanymi ruchowo klatkami kluczowymi i oryginalnymi w filmie. Następnie strumienie bitów z klatek predykcyjnych są poddawane odwrotnej transformacji kosinusowej celem odtworzenia przybliżonych obrazów, będących wynikiem poprzesuwania bloków z klatki odniesienia zgodnie z wektorami ruchu. Następnie obrazy te są dodawane do klatek odniesienia (również odtworzonych za pomocą odwrotnej transformacji kosinusowej), dzięki czemu odtworzone zostają pozostałe klatki filmu. Tak w skrócie wygląda uzyskanie obrazu poddanego kompresji MPEG.

Aby odtworzyć tak skompresowany film jest potrzebnykomputer o odpowiedniej mocy obliczeniowej. DoVideoCD wystarczy jużPentium 166MHz. DoDivX uważa się, że procesor 300MHz obciążony minimalnie przezsystem operacyjny jest w stanie sobie poradzić z dekompresją w czasie rzeczywistym.

Rozwój technologii informatycznej – rosnąca moc obliczeniowa i spadające koszty sprzętu komputerowego czynią tę przeszkodę coraz mniej istotną, co zaowocowało m.in. przenośnymi odtwarzaczami DVD czy możliwością odtwarzania plików wideo m.in. w standardzieH.264 na piątej generacji odtwarzaczyiPod.

Zobacz też

[edytuj |edytuj kod]

Linki zewnętrzne

[edytuj |edytuj kod]
Formaty kompresji danych audiowizualnych
Obrazy
IEC, ISO, ITU-T, W3C, IETF
Pozostałe
Video
ISO/IEC
ITU-T
SMPTE
Pozostałe
Audio
ISO/IEC
ITU-T
IETF
3GPP
Pozostałe
Kontenery
ISO/IEC
ITU-T
IETF
Pozostałe
Kontrola autorytatywna (grupa robocza):
Źródło: „https://pl.wikipedia.org/w/index.php?title=Moving_Picture_Experts_Group&oldid=68135291
Kategorie:

[8]ページ先頭

©2009-2026 Movatter.jp