HD-MAC - HD-MAC

HD-MAC był zaproponowanym przez Komisję Europejską standardem systemów telewizyjnych w 1986 r. ( Standard MAC ), będącym częścią projektu Eureka 95. Jest to wczesna próba przez EWG w celu zapewnienia telewizji wysokiej rozdzielczości (HDTV) w Europie . Jest to złożona mieszanka sygnału analogowego ( multipleksowane komponenty analogowe ) zmultipleksowanego z dźwiękiem cyfrowym i danymi pomocniczymi do dekodowania (DATV). Sygnał wideo (1250 (1152 widocznych) linii / 50 pól na sekundę w proporcjach 16: 9 ) został zakodowany za pomocą zmodyfikowanego kodera D2-MAC .

HD-MAC można było dekodować za pomocą standardowych odbiorników D2-MAC ( SDTV ), ale w tym trybie widoczne było tylko 625 (576) linii i pewne artefakty. Aby zdekodować sygnał w pełnej rozdzielczości, potrzebny był specjalny tuner HD-MAC.

Konwencja nazewnictwa

European Broadcasting Union opis format wideo jest następujące: szerokość x wysokość [Typ skanowania: I lub p] / liczba pełnych klatek na sekundę

Na przykład format 1280 × 720p / 60 zapewnia sześćdziesiąt 1280x720 pikseli, skanowanych progresywnie obrazów na sekundę. Linie są przesyłane w naturalnej kolejności: 1, 2, 3, 4 i tak dalej.

Transmisje o standardowej rozdzielczości europejskiej wykorzystują 720 × 576i / 25, co oznacza klatki o szerokości 25 720 pikseli i wysokości 576 pikseli z przeplotem: linie nieparzyste (1, 3, 5 ...) są grupowane w celu utworzenia pola nieparzystego, które jest przesyłane najpierw, a następnie po którym następuje parzyste pole zawierające wiersze 2, 4, 6 ... Zatem w ramce znajdują się dwa pola, co daje częstotliwość pola 25 × 2 = 50 Hz.

Widoczna część sygnału wideo dostarczanego przez odbiornik HD-MAC to 1152i / 25, co dokładnie podwaja rozdzielczość pionową standardowej rozdzielczości. Ilość informacji jest mnożona przez 4, biorąc pod uwagę, że koder rozpoczął swoją pracę od siatki próbkowania 1440x1152i / 25.

Historia standardowa

Prace nad specyfikacją HD-MAC rozpoczęły się oficjalnie w maju 1986 roku. Ich celem była reakcja na japońską propozycję wspieraną przez Stany Zjednoczone, która miała na celu ustanowienie zaprojektowanego przez NHK systemu Hi-Vision jako światowego standardu. Oprócz zachowania europejskiego przemysłu elektronicznego istniała również potrzeba stworzenia standardu, który byłby zgodny z systemami częstotliwości pola 50 Hz (używanymi przez zdecydowaną większość krajów na świecie). Prawdę mówiąc, precyzyjne 60 Hz japońskiej propozycji niepokoiło również Stany Zjednoczone, ponieważ ich infrastruktura standardowej rozdzielczości oparta na NTSC M wykorzystywała praktyczną częstotliwość 59,94 Hz. Ta pozornie niewielka różnica mogła spowodować wiele kłopotów.

We wrześniu 1988 roku Japończycy przeprowadzili pierwsze transmisje z igrzysk olimpijskich w wysokiej rozdzielczości, używając swojego systemu Hi-Vision ( materiał NHK produkował w tym formacie od 1982 roku). W tym samym miesiącu, wrześniu, Europa po raz pierwszy pokazała wiarygodną alternatywę, a mianowicie kompletną sieć nadawczą HD-MAC na IBC 88 w Brighton . Pokaz obejmował pierwsze prototypy kamer wideo HD z progresywnym skanowaniem (Thomson / LER).

Podczas Zimowych Igrzysk Olimpijskich w Albertville 1992 i Letnich Igrzysk Olimpijskich w Barcelonie w 1992 roku odbyła się publiczna demonstracja transmisji HD-MAC. W „Eurosites” ustawiono 60 odbiorników HD-MAC na mecze w Albertville i 700 na mecze w Barcelonie, aby pokazać możliwości standardu. 1250 linii (1152 widocznych) projektorów CRT zostało wykorzystanych do stworzenia obrazu o szerokości kilku metrów w przestrzeni publicznej Barcelony na igrzyska olimpijskie. Było też kilka telewizorów kineskopowych 16: 9 firmy Thomson "Space system". W projekcie czasami wykorzystywano telewizory z projekcją wsteczną . Ponadto około 80 000 widzów odbiorników D2-MAC również mogło oglądać kanał (choć nie w jakości HD). Szacuje się, że 350 000 ludzi w całej Europie mogło zobaczyć ten pokaz europejskiej telewizji HDTV. Projekt został sfinansowany przez EWG. Przekonwertowany sygnał PAL był używany przez głównych nadawców, takich jak SWR , BR i 3sat . Standard HD-MAC został również zademonstrowany na Seville Expo '92 , przy użyciu wyłącznie sprzętu zaprojektowanego do współpracy ze standardem, takim jak kamery Plumbicon i CCD , telewizory CRT z bezpośrednim i tylną projekcją, VTR BCH 1000 typu B, światłowody jednomodowe, i odtwarzacze Laserdisc z odpowiednimi płytami. Sprzęt produkcyjny był widoczny dla publiczności przez okna.

Ponieważ wolne pasmo UHF było bardzo ograniczone, HD-MAC był użyteczny "de facto" tylko dla dostawców telewizji kablowej i satelitarnej, gdzie ich przepustowość była mniej ograniczona, podobnie jak Hi-Vision, który był nadawany tylko przez NHK przez dedykowany kanał satelitarny o nazwie BShi . Jednak standard nigdy nie stał się popularny wśród nadawców. Mimo wszystko analogowa telewizja HDTV nie mogłaby zastąpić konwencjonalnego SDTV (naziemnego) PAL / SECAM, przez co zestawy HD-MAC stałyby się nieatrakcyjne dla potencjalnych konsumentów.

Wymagano, aby wszyscy nadawcy satelitarni o dużej mocy używali MAC od 1986 r. Jednak uruchomienie satelitów średniej mocy przez SES i wykorzystanie PAL umożliwiło nadawcom obejście HD-MAC, zmniejszając koszty transmisji. HD-MAC (wariant MAC o wysokiej rozdzielczości) został jednak pozostawiony dla transkontynentalnych łączy satelitarnych.

Standard HD-MAC został porzucony w 1993 roku i od tego czasu wszystkie wysiłki UE i EBU koncentrują się na systemie DVB (Digital Video Broadcasting), który umożliwia zarówno SDTV, jak i HDTV.

Ten artykuł o targach IFA 1993 zawiera pogląd na stan projektu bliski jego zakończenia. Wspomina o „specjalnej kompilacji BBC zakodowanej w HD-MAC i odtworzonej z magnetowidu D1”.

Rozwój HD-MAC został zatrzymany wraz z projektem EUREKA w 1996 r., Ponieważ jakość obrazu nie została uznana za wystarczająco dobrą, odbiorniki telewizyjne nie miały wystarczającej rozdzielczości, współczynnik proporcji 16: 9, który później stał się standardem, był postrzegany jako egzotyczny oraz odbiorcze telewizory nie były wystarczająco duże, aby pokazać jakość obrazu w standardzie, a te, które były, były telewizorami CRT, przez co były wyjątkowo ciężkie.

Szczegóły techniczne

Transmisja multipleksowanych komponentów analogowych (symulacja) .jpg

Przenoszenie

Transmisje analogowe SDTV PAL / SECAM wykorzystują 6-, 7- ( VHF ) lub 8 MHz ( UHF ). Linia 819 (system E) wykorzystywała kanały VHF o szerokości 14 MHz. W przypadku HD-MAC medium transmisyjne musi gwarantować szerokość pasma podstawowego co najmniej 11,14 MHz. Przekłada się to na odstępy międzykanałowe 12 MHz w sieciach kablowych. Specyfikacja dopuszcza kanały 8 MHz, ale w tym przypadku dane pomocnicze nie mogą być już poprawnie dekodowane i możliwe jest jedynie wyodrębnienie sygnału o standardowej rozdzielczości za pomocą odbiornika D2-MAC. W przypadku nadawania satelitarnego, ze względu na rozszerzenie widma modulacji FM, używany byłby cały transponder satelitarny, uzyskując szerokość pasma od 27 do 36 MHz. Podobnie wygląda sytuacja w przypadku definicji standardu analogowego: dany transponder może obsługiwać tylko jeden kanał analogowy. Więc z tego punktu widzenia przejście na HD nie stanowi niedogodności.

Redukcja przepustowości

Operacja BRE (kodowanie z redukcją pasma) rozpoczęła się od analogowego wideo HD (nawet jeśli źródłem był rejestrator cyfrowy, zostało ono ponownie przekształcone na analogowe, aby zasilać koder). Określono, że ma częstotliwość pola 50 Hz. Może być z przeplotem, z 25 klatkami na sekundę (w zaleceniu nazywany 1250/50/2) lub może być skanowany progresywnie z szybkością 50 pełnych klatek na sekundę (zwany 1250/50/1). W praktyce zastosowano wersję z przeplotem. W każdym razie liczba widocznych linii wynosiła 1152, czyli dwa razy więcej niż standardowa rozdzielczość pionowa 576 linii. Pełna liczba linii w okresie klatki, łącznie z tymi, które nie mogą być wyświetlone, wynosiła 1250. Wykonano to dla okresu linii 32 µs. Zgodnie z zaleceniami ITU dotyczącymi parametrów standardów HDTV, aktywna część linii miała długość 26,67 µs (patrz również dokument kamery LDK 9000).

Gdyby zastosowano współczesny trend dotyczący kwadratowych pikseli, dałoby to siatkę próbkowania 2048x1152. W standardzie nie było jednak takiego wymagania, ponieważ monitory CRT nie wymagają dodatkowego skalowania, aby móc wyświetlać piksele niekwadratowe. Zgodnie ze specyfikacją częstotliwość próbkowania dla wejścia z przeplotem wynosiła 72 MHz, co daje 72 x 26,67 = 1920 próbek poziomych. Następnie został ponownie przekształcony do 1440 z próbkowanej domeny. Sygnał wejściowy często pochodził ze źródeł uprzednio próbkowanych z częstotliwością jedynie 54 MHz ze względów ekonomicznych, a zatem już zawierał nie więcej niż analogowy odpowiednik 1440 próbek na linię. W każdym razie punktem wyjścia dla BRE była siatka próbkowania 1440x1152 (dwukrotnie większa rozdzielczość pozioma i pionowa cyfrowego SD), z przeplotem, przy 25 fps.

Aby poprawić rozdzielczość poziomą normy D2-MAC , trzeba było tylko zwiększyć jej przepustowość. Było to łatwe do zrobienia, ponieważ w przeciwieństwie do PAL dźwięk nie jest przesyłany na podnośnej, ale jest multipleksowany z obrazem. Jednak zwiększenie pionowej szerokości pasma było bardziej złożone, ponieważ częstotliwość linii musiała pozostać na poziomie 15,625 kHz, aby była kompatybilna z D2-MAC. Dało to trzy możliwości:

  • 50 klatek na sekundę z tylko 288 liniami dla szybko poruszających się scen (tryb 20 ms)
  • 25 klatek na sekundę z 576 liniami dla normalnie poruszających się scen (tryb 40 ms)
  • 12,5 klatek na sekundę przy wszystkich 1152 liniach w zwolnionym tempie (tryb 80 ms)

Ponieważ żaden z trzech trybów nie byłby wystarczający, wybór podczas kodowania nie dotyczył całego obrazu, ale małych bloków 16 × 16 pikseli. Sygnał zawierał wtedy wskazówki (strumień cyfrowy DATV), które kontrolowały, którą metodę usuwania przeplotu powinien zastosować dekoder.

Tryb 20 ms oferował lepszą rozdzielczość czasową, ale 80 ms był jedynym, który zapewniał wysoką rozdzielczość przestrzenną w zwykłym znaczeniu. Tryb 40 ms wyrzucił jedno z pól HD i zrekonstruował je w odbiorniku przy pomocy danych kompensacji ruchu. Podano również wskazówki w przypadku ruchu całego kadru (panoramowanie kamery,…), aby poprawić jakość rekonstrukcji.

Koder mógł pracować w trybie pracy „Kamera”, korzystając z trzech trybów kodowania, ale także w trybie „filmowym”, w którym nie był używany tryb kodowania 20 ms.

Tryb 80 ms wykorzystał zmniejszoną liczbę klatek na sekundę 12,5 kl./s do rozłożenia zawartości klatki HD na dwie klatki SD, co oznacza cztery pola 20 ms = 80 ms, stąd nazwa.

Ale to nie wystarczyło, ponieważ jedna klatka HD zawiera odpowiednik 4 klatek SD. Można to „rozwiązać” przez podwojenie szerokości pasma sygnału D2-MAC, zwiększając w ten sposób dopuszczalną rozdzielczość poziomą o ten sam współczynnik. Zamiast tego zachowano standardową przepustowość kanału D2-MAC, a jeden piksel na dwa został usunięty z każdej linii. To podpróbkowanie zostało wykonane według wzoru quincux. Zakładając, że piksele na linii niezależnie ponumerowane od 1 do 1440, tylko piksele 1,3,5 ... zostały zachowane z pierwszej linii, piksele 2, 4, 6 ... z drugiej, 1, 3, 5 ... znowu od trzeciego i tak dalej. W ten sposób informacje ze wszystkich kolumn ramki HD były przekazywane do odbiornika. Każdy brakujący piksel był otoczony czterema przesłanymi pikselami (z wyjątkiem boków) i mógł być z nich interpolowany. Uzyskana rozdzielczość pozioma 720 została następnie obcięta do 697 próbek na linię limitu multipleksu wideo D2-HDMAC.

W wyniku tych operacji uzyskano współczynnik redukcji 4: 1, umożliwiający przesyłanie sygnału wideo o wysokiej rozdzielczości w standardowym kanale D2-MAC. Próbki zatrzymane przez BRE zostały zmontowane w ważny sygnał wizyjny D2-MAC o standardowej rozdzielczości i ostatecznie przekonwertowane na sygnał analogowy w celu transmisji. Parametry modulacji były takie, aby zachować niezależność próbek.

Aby w pełni zdekodować obraz, odbiornik musiał ponownie próbkować sygnał, a następnie kilkakrotnie odczytywać z pamięci. BRD (dekoder przywracania szerokości pasma) w odbiorniku rekonstruowałby następnie z niego siatkę próbkowania 1394x1152, pod kontrolą strumienia DATV, w celu wprowadzenia go do jego przetwornika cyfrowo-analogowego.

Końcowe wyjście to 1250 (1152 widocznych) linii, 25 kl./s, przeplatany, analogowy sygnał wideo HD, o częstotliwości pola 50 Hz.

Skanowanie progresywne

Systemy europejskie są ogólnie określane jako normy 50 Hz (częstotliwość pola). Oba pola są oddalone od siebie o 20 ms. Projekt Eu95 stwierdził, że będzie ewoluował w kierunku 1152p / 50 i jest brany pod uwagę jako możliwe źródło w specyfikacji D2-HDMAC. W tym formacie pełna klatka jest rejestrowana co 20 ms, zachowując w ten sposób jakość ruchu telewizji i uzupełniając ją solidnymi klatkami pozbawionymi artefaktów, reprezentującymi tylko jedną chwilę, tak jak ma to miejsce w kinie. Częstotliwość klatek 24 fps w kinie jest jednak nieco niska i wymagana jest duża ilość rozmazania ruchu, aby oko mogło postrzegać płynny ruch. Częstotliwość 50 Hz jest ponad dwukrotnie większa, a rozmazanie ruchu można proporcjonalnie zmniejszyć, co pozwala uzyskać ostrzejszy obraz.

W praktyce 50P nie było zbytnio używane. Niektóre testy zostały nawet wykonane przez nakręcenie filmu z prędkością 50 fps, a następnie telecinowanie.

Thomson / LER zaprezentował kamerę progresywną. Jednak używał formy próbkowania kwinkunksów i dlatego miał pewne ograniczenia przepustowości.

Wymóg ten oznaczał przesunięcie granic technologicznych tamtych czasów i przyczyniłby się do notorycznego braku czułości niektórych kamer Eu 95 (szczególnie CRT). To pragnienie światła było jednym z problemów, które nękały operatorów kręcących francuski film „L'affaire Seznec (sprawa Sezneca)” w 1250i. Niektóre kamery CCD zostały opracowane w kontekście projektu, patrz na przykład LDK9000  : stosunek sygnału do szumu 50 DB przy 30 MHz, 1000 luksów przy F / 4.

System Eu95 zapewniłby lepszą kompatybilność z technologią kinową niż jego konkurent, po pierwsze ze względu na skanowanie progresywne, a po drugie ze względu na wygodę i jakość transferu między standardami 50 Hz a filmem (brak artefaktów ruchu, wystarczy odwrócić zwykłe " Proces przyspieszania PAL ”poprzez spowolnienie szybkości klatek w stosunku 25/24). Pobranie jednej klatki na dwie ze strumienia 50p zapewniłoby odpowiednie wideo 25p jako punkt wyjścia dla tej operacji. Jeśli sekwencja zostanie sfotografowana z prędkością 50 P i całkowicie otwartą migawką, spowoduje to takie samo rozmazanie ruchu, jak ujęcie 25P z półotwartą migawką, co jest typowym ustawieniem podczas nagrywania standardową kamerą filmową.

W praktyce wydaje się, że Hi-Vision odniósł większy sukces w tym względzie, ponieważ był używany w filmach takich jak Giulia e Giulia (1987) i książki Prospero (1991) .

Nagranie

Szpula w szpuli BCH 1000 HD-MAC VTR

Konsument

W 1988 roku został zaprezentowany konsumencki prototyp magnetofonu. Miał on 80 minut nagrywania i wykorzystywał 1,25 cm "metalową" taśmę. Szerokość pasma wynosiła 10,125 MHz, a stosunek sygnału do szumu 42 dB.

Wizyjny HD-MAC prototyp został zaprojektowany jako dobrze. Wersja, która została zaprezentowana w 1988 roku, mogła nagrywać 20 minut z każdej strony 30-centymetrowej płyty. Szerokość pasma wynosiła 12 MHz, a stosunek sygnału do szumu 32 dB. Ten nośnik był używany przez kilka godzin na Expo 92.

Profesjonalny sprzęt

Od strony studia i produkcji było zupełnie inaczej. Techniki redukcji przepustowości HD-MAC obniżają szybkość pikseli HD do poziomu SD. Zatem teoretycznie byłoby możliwe użycie cyfrowego rejestratora wideo SD, zakładając, że zapewnia on wystarczającą ilość miejsca dla strumienia pomocniczego DATV, który wymaga mniej niż 1,1 Mbit / s. Wideo SD wykorzystujące format 4: 2: 0 (12 bitów na piksel) wymaga 720x576x25x12 bitów na sekundę, czyli nieco mniej niż 125 Mbit / s, aby porównać je z 270 Mbit / s dostępnymi na maszynie D-1 .

Nie ma jednak prawdziwego powodu, aby sprzęt studyjny był ograniczany przez HD-MAC, ponieważ ten ostatni jest tylko standardem transmisji, służącym do przekazywania materiału HD z nadajnika do widzów. Ponadto dostępne są zasoby techniczne i finansowe do przechowywania wideo HD o lepszej jakości, do edycji i archiwizacji.

W praktyce więc stosowano inne metody. Na początku projektu Eureka95 jedynym sposobem nagrywania sygnału HD z kamery był ogromny 1-calowy automat taśmowy BTS BCH 1000, który był oparty na formacie taśmy wideo typu B , ale z 8 Głowice wideo zamiast dwóch normalnie używanych, wraz z wyższą prędkością liniową taśmy 66 cm / s, dostosowując się w ten sposób do wymagań większej przepustowości HD-MAC.

Plan w ramach projektu Eureka95 polegał na opracowaniu nieskompresowanego cyfrowego rejestratora próbkowania 72 MHz, nazwanego rejestratorem „Gigabit”. Oczekiwano, że jego opracowanie zajmie rok, więc w międzyczasie zmontowano dwa alternatywne systemy zapisu cyfrowego, oba wykorzystując jako punkt wyjścia nieskompresowany cyfrowy rejestrator komponentów o standardowej rozdzielczości „D1”.

Podpróbkowany Quincunx lub podwójny / podwójny system D1 opracowany przez Thomsona wykorzystywał dwa cyfrowe rejestratory D-1, które były zsynchronizowane w relacji master / slave. Nieparzyste pola mogą być wtedy rejestrowane na jednym z D-1, a nawet pola na drugim. Poziomo system zarejestrował tylko połowę poziomego pasma, z próbkami pobranymi w kwinkunksowej siatce próbkowania. Dało to systemowi pełną wydajność pasma w kierunku ukośnym, ale zmniejszyło się o połowę w poziomie lub w pionie, w zależności od dokładnej charakterystyki czasowo-przestrzennej obrazu.

System Quadriga został opracowany przez BBC w 1988 roku na 4 zsynchronizowanych rejestratorach D1, próbkowaniu 54 MHz i rozprowadzał sygnał w taki sposób, że bloki po 4 piksele były przesyłane po kolei do każdego rejestratora. Tak więc, gdyby oglądana była pojedyncza taśma, obraz wyglądałby na uczciwą, ale zniekształconą reprezentację całego obrazu, umożliwiając podejmowanie decyzji edycyjnych na pojedynczym nagraniu, a edycja na trzech maszynach byłaby możliwa na pojedynczej kwadrydze poprzez przetwarzanie każdego z nich. cztery kanały po kolei, z identycznymi edycjami na pozostałych trzech kanałach następnie pod kontrolą zaprogramowanego kontrolera edycji.

Oryginalne rejestratory D1 były ograniczone do równoległego interfejsu wideo z bardzo nieporęcznymi krótkimi kablami, ale nie stanowiło to problemu, ponieważ sygnały cyfrowe były zawarte w 5 stojakach o połowie wysokości (4 D1 i stelaż interfejsu / sterowania / przeplotu), który tworzą Quadrigę i początkowo wszystkie sygnały zewnętrzne były komponentami analogowymi. Wprowadzenie SDI (270Mbit / s Serial Digital Interface) uprościło okablowanie do czasu, gdy BBC skonstruowało drugą kwadrygę.

Philips skonstruował również Quadrigę, ale użył nieco innego formatu, z obrazem HD podzielonym na cztery ćwiartki, z których każdy trafia do jednego z czterech rejestratorów. Z wyjątkiem nieco dłuższego opóźnienia przetwarzania, działał on podobnie do podejścia BBC, a obie wersje sprzętu Quadriga zostały stworzone tak, aby były interoperacyjne, przełączane między trybami przeplatanymi i kwadrantowymi.

Około 1993 roku Philips, w ramach joint venture z Bosch ( BTS ), wyprodukował system nagrywania „BRR” (lub Bit Rate Reduction), umożliwiający nagrywanie sygnału Full HD na pojedynczym rejestratorze D1 (lub D5 HD ). Wersja obrazu o niskiej rozdzielczości mogłaby być oglądana na środku ekranu, gdyby taśma była odtwarzana na konwencjonalnym rejestratorze D1 i była otoczona czymś, co wyglądało na szum, ale w rzeczywistości było po prostu zakodowane / skompresowane dane w podobny sposób do późniejszych technik kompresji cyfrowej MPEG, ze stopniem kompresji 5: 1, zaczynając od próbkowania 72 MHz. Niektóre urządzenia BRR zawierały również interfejsy Quadriga, w celu ułatwienia konwersji między formatami nagrywania, a także możliwość przełączania między wersjami formatu Quadriga BBC i Philips. W tym czasie sygnały Quadrigi były przenoszone czterema kablami SDI.

Wreszcie, z pomocą firmy Toshiba, około 2000 roku, wyprodukowano gigabitowy rejestrator, obecnie znany jako D6 HDTV VTR „Voodoo”, kilka lat po zaprzestaniu prac nad systemem 1250-line na rzecz wspólnego formatu obrazu, dzisiejszy system HDTV.

Dlatego jakość archiwów Eureka 95 jest wyższa niż to, co widzowie mogliby zobaczyć na wyjściu dekodera HD-MAC.

Przenieś na film

Na potrzeby realizacji filmu L'affaire Seznec opartego na HD firma Thomson poświadczyła, że ​​będzie w stanie przenieść HD na film 35 mm. Ale żadna z prób nie zakończyła się sukcesem (strzelanie zostało wykonane na dual-D1). Jednak inny francuski film nakręcony w 1994 roku, Du fond du coeur: Germaine et Benjamin , podobno osiągnął taki transfer. Mówi się, że został nakręcony w cyfrowej wysokiej rozdzielczości, w 1250 liniach. Jeśli tak, byłby to prawdopodobnie pierwszy cyfrowy film w wysokiej rozdzielczości, wykorzystujący przyjazne dla filmu pole częstotliwości 50 Hz, 7 lat przed Vidocq i 8 lat przed Star Wars: Episode II - Attack of the Clones .. Z historycznej perspektywy HD można wspomnieć o wczesnych próbach, takich jak „ Harlow ”, nakręcony w 1965 roku przy użyciu analogowego procesu 819 linii zbliżonego do HD, który później ewoluował do wyższych rozdzielczości (patrz Elektroniczna ).

Życie pozagrobowe projektu

Zdobyto doświadczenie w zakresie ważnych elementów składowych, takich jak nagrywanie cyfrowe HD, przetwarzanie cyfrowe z kompensacją ruchu, kamery HD CCD, a także czynniki wpływające na akceptację lub odrzucenie nowego formatu przez profesjonalistów, a wszystko to zostało dobrze wykorzystane w późniejszym Projekt Digital Video Broadcasting, który w przeciwieństwie do HD-MAC jest wielkim światowym sukcesem. Pomimo wczesnych twierdzeń konkurentów, że nie może on obsługiwać HD, wkrótce został wdrożony w Australii właśnie w tym celu.

Kamery i magnetofony zostały ponownie wykorzystane do wczesnych eksperymentów w cyfrowym kinie wysokiej rozdzielczości.

Stany Zjednoczone sprowadziły do ​​domu niektóre kamery Eu95, które miały zostać zbadane w kontekście ich własnych wysiłków na rzecz rozwoju standardu HDTV.

We Francji firma o nazwie VTHR (Video Transmission Haute Resolution) przez pewien czas używała sprzętu Eu95 do retransmisji wydarzeń kulturalnych do małych wiosek (później przeszła na przeskalowany 15 Mbit / s MPEG2 SD).

W 1993 roku firma Texas Instruments zbudowała prototyp DMD 2048x1152. W artykułach nie ma uzasadnienia dla wyboru tej konkretnej rozdzielczości w porównaniu z japońskim systemem aktywnych linii 1035 lub alternatywnie podwojenia 480 linii standardowej telewizji amerykańskiej do 960, ale w ten sposób mogłaby objąć wszystkie rozdzielczości oczekiwane na rynku, w tym europejski, który okazał się najwyższy. Pewne dziedzictwo tego rozwoju można zobaczyć w cyfrowych projektorach filmowych „2K” i „4K” wykorzystujących chipy TI DLP, które działają w nieco szerszej niż zwykle rozdzielczości 2048 × 1080 lub 4096 × 2160, dając współczynnik proporcji 1,896: 1 bez rozciągania anamorficznego (w porównaniu z 1,778: 1 zwykłego formatu 16: 9, z 1920 lub 3840 pikselami poziomymi), daje nieco (6,7%) większą rozdzielczość poziomą z obiektywami anamorficznymi podczas wyświetlania specjalnie przygotowanych dla nich filmów 2,21: 1 (lub szerszych) oraz dalsze ulepszenia (~ 13,78% ) poprzez zredukowane czarne pasy, jeśli są używane bez takich soczewek.

Od 2010 roku dostępne były niektóre monitory komputerowe o rozdzielczości 2048x1152 (np. Samsung 2343BWX 23, Dell SP2309W). Jest to mało prawdopodobne, aby odnosiło się to do Eu95, zwłaszcza, że ​​częstotliwość odświeżania będzie na ogół domyślnie ustawiona na „60 Hz” (lub 59,94 Hz), ale po prostu wygodna rozdzielczość „HD +” stworzona dla chwalenia się wszechobecnymi panelami HD 1920 x 1080, z możliwie najcieńszym faktyczna poprawa rozdzielczości przy zachowaniu tej samej rozdzielczości 16: 9 do odtwarzania wideo bez przycinania lub czarnych pasków (najbliższa najbliższa "wygodna" rozdzielczość 16: 9 jest stosunkowo dużo większa, a więc dużo droższa 2560x1600 "2,5K" jak np. Apple Cinema i wyświetlacze Retina); jest to również "zgrabna" szerokość 2-krotna, dwukrotnie większa od jednorazowego standardowego XGA (więc np. strony internetowe zaprojektowane dla tej szerokości można płynnie powiększać do 200%) i zdarza się, że jest 4x większa niż Panele 1024x576 powszechnie używane w tańszych netbookach i tabletach mobilnych (podobnie jak standard 2,5K to 4x WXGA 1280x800 stosowany w ultraprzenośnych laptopach i tabletach średniej klasy). W ten sposób można to uznać za formę ewolucji zbieżnej specyfikacji - chociaż istnieje niewielka szansa, że ​​te dwa standardy są bezpośrednio powiązane, ich szczegóły zostaną wylądowane za pomocą zasadniczo podobnych metod.

Chociaż fakt ten jest obecnie interesujący głównie z perspektywy historycznej, większość monitorów PC CRT z większymi lampami miała maksymalną częstotliwość skanowania poziomego wynoszącą 70 kHz lub wyższą, co oznacza, że ​​mogłyby obsłużyć 2048 x 1152 przy 60 Hz progresywnie, gdyby zostały ustawione na niestandardową rozdzielczość pionowe marginesy wygaszania niż sam HD-MAC / Eu95 dla tych ocenianych na mniej niż 75 kHz). Monitory obsługujące niższą częstotliwość odświeżania, w tym mniejsze modele niezdolne do 70 kHz, ale dobre dla co najmniej 58 kHz (najlepiej 62,5 kHz) i zdolne do obsługi niższej częstotliwości odświeżania pionowego, można zamiast tego ustawić na 50 Hz progresywnie lub nawet 100 Przeplot Hz w celu uniknięcia migotania, które w przeciwnym razie spowodowałoby.

Zobacz też

Systemy transmisji telewizyjnej

Powiązane normy:

Bibliografia

Linki zewnętrzne