Technika - Audio-Video - Testy sprzętu stereo i wideo - Audio-Video - Testy sprzętu stereo i wideo Portal avtest.pl to najlepszy serwis o tematyce audio-video. Prezentujemy nowości z rynku oraz profesjonalne testy sprzętu. Redakcja miesięcznika Audio-Video zaprasza! https://m.avtest.pl/artykuly/technika 2024-05-05T11:39:36+00:00 Dwa oblicza MQA — mała „encyklopedia" kontrowersyjnego formatu 2022-08-08T07:23:16+00:00 2022-08-08T07:23:16+00:00 https://m.avtest.pl/artykuly/technika/item/1303-dwa-oblicza-mqa-mala-encyklopedia-kontrowersyjnego-formatu Webmaster webmaster@av.com.pl <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/f863e4fb1b47b206b2276d9b70a5b183_S.jpg" alt="Dwa oblicza MQA — mała „encyklopedia" kontrowersyjnego formatu" /></div><div class="K2FeedIntroText"><p>Żaden z dotychczas opracowanych formatów i kodeków audio nie wywołał takich emocji, jak MQA (Master Quality Audio Authenticated). Przyjrzyjmy się bliżej temu wynalazkowi — tak od strony teorii, jak i praktyki.</p> </div><div class="K2FeedFullText"> <table style="width: 100%;" border="0" cellspacing="0" cellpadding="5"> <tbody> <tr valign="top"> <td style="width: 50%;"> <p>&nbsp;</p> </td> <td style="width: 50%;"> <p><strong>Tekst: </strong>Filip Kulpa | <strong>Ilustracje:</strong> MQA</p> <p><em>Artykuł pochodzi z Audio-Video 9/2021 - <a href="https://sklep.avtest.pl/produkt/audio-video-pdf-09-2021/"><strong>KUP PEŁNE WYDANIE PDF</strong></a><br /></em></p> </td> </tr> <tr valign="top"> <td style="width: 50%;"> <p>

audioklan

</p> <p>&nbsp;</p> </td> <td style="width: 50%;"> <p> </p> <p>&nbsp;</p> </td> </tr> </tbody> </table> <hr /> <h3>MQA (Master Quality Audio Authenticated)</h3> <p><br />4 grudnia 2014 r., londyński hotel The Shard — to tutaj, podczas bardzo oficjalnej gali, Bob Stuart, CEO firmy Meridian, obwieszcza światu hi-fi narodziny nowego kodeka audio, który ma zrewolucjonizować jakość dźwięku dostępną w streamingu, ale nie tylko. Zdarzenie to poprzedza (pół roku wcześniej) prezentacja innowacyjnego rozwiązania o nazwie MQA (Master Quality Authenticated), która odbywa się w brytyjskiej sekcji AES (Audio Engineering Society). W ślad za nią pojawia się artykuł zaprezentowany podczas 137. konwencji AES w Los Angeles (październik 2014 r.). Wkrótce później MQA zostaje anonsowane na wystawie CES w Las Vegas.</p> <p>Minęło ponad sześć lat. Najwyższy zatem czas odpowiedzieć na pytania: na czym polega MQA i czy ma w ogóle sens? Nim to jednak zrobimy, przypomnijmy, że Bob Stuart, a dokładniej firma Meridian, na której czele stoi od początku jej istnienia, w latach 2000 opracowała kodek MLP (Meridian Lossless Packing), zaaprobowany w ramach standardu DVD-Audio, a następnie jako opcja dla formatu Blu-ray. Zadaniem MLP była bezstratna kompresja wielokanałowego sygnału fonicznego PCM hi-res na płytach DVD-Audio. Stworzenie MLP było niewątpliwie dużym sukcesem marketingowym niewielkiej specjalistycznej firmy z Wielkiej Brytanii, która zdołała się przebić do oficjeli dużych producentów zgrupowanych wokół DVD Forum. 15 lat później ci sami ludzie postanawiają rzucić jeszcze większe wyzwanie całemu rynkowi fonograficznemu.<br /><br /></p> <h2>Niełatwe początki</h2> <p>Do promocji i —&nbsp;co nawet ważniejsze —licencjonowania nowej techniki zostaje powołana spółka MQA, Ltd, na której czele stoi wspomniany Bob Stuart, wieloletni członek Audio Engineering Society, autor wspomnianego kodeka MLP i licznych prac naukowo-badawczych z dziedziny cyfrowej obróbki sygnałów, psychoakustyki i neurobiologii. Sprawa zapowiada się bardzo poważnie.</p> <p>Od początku staje się jednak jasne, że nowy wynalazek ma dwa oblicza. Z jednej strony ma umożliwić uzyskanie jakości dźwięku hi-res przy wykorzystaniu strumienia danych o przepływności porównywalnej z zapisem PCM 16/44,1 w kontenerze FLAC –&nbsp;po to, by możliwy był streaming z urządzeń mobilnych. Jednocześnie MQA ma być wstecznie kompatybilny z urządzeniami, które nie są dostosowane do odtwarzania sygnału o jakości wyższej niż PCM 16 bitów/48 kHz. Z drugiej natomiast, MQA ma zapewnić stały strumień gotówki płynącej z licencji udzielanej producentom sprzętu muzycznego i wydawcom muzyki. Ten drugi aspekt spotyka się z dezaprobatą części obu środowisk. W lutym 2017 r. na stronie internetowej szkockiego Linna (www.linn.co.uk) zostaje opublikowany wielce nieprzychylny dla MQA artykuł, w którym autor wyjaśnia wieloetapowy mechanizm pobierania opłat licencyjnych. Wielkim sojusznikiem MQA zostaje Warner (maj 2016 r.). Tydzień później organizacja RIAA uznaje MQA za format Hi-Res Music, a potem do obozu MQA dołącza jeszcze Sony. Wygląda więc na to, że MQA nabiera masy krytycznej, by wystrzelić ostro do przodu. Tak jednak się nie dzieje. Pierwsza faza przyswajania nowego formatu idzie opornie. Owszem, grono producentów oferujących przetworniki czy streamery zgodne z MQA systematycznie rośnie, ale tempo procesu nie przystaje do oczekiwań. Dopiero na przełomie 2018 i 2019 r. zainteresowanie nowym wynalazkiem przybiera na sile, gdy platforma Tidal włącza MQA do swojej oferty, tworząc najwyższy pakiet jakościowy o nazwie „Tidal Masters”. Początkowo repertuar jest dość skromny, jednak w 2020 i w 2021 roku ma miejsce prawdziwy wysyp nagrań w MQA. Sprawa jest ciekawa o tyle, że kontrowersje wokół MQA wcale nie ustają, wręcz przeciwnie.</p> <p>Kilkanaście miesięcy temu, na platformie YouTube, użytkownik o nazwie Golden Sound, opublikował bardzo krytyczny materiał, z którego wynika, że MQA jest procesem wysoce stratnym, wprowadzającym do nagrań duże ilości szumu kwantyzacji i zniekształceń, a mechanizm kodowania w Tidalu odrzuca spreparowane sygnały testowe. Oglądając to wideo trudno nie odnieść wrażenia, że osoba, która przygotowała ów materiał ma przede wszystkim na celu zniechęcić do subskrypcji Tidala. Pada tam nawet argument, że streamy w jakości teoretycznie bezstratnej (Tidal Hi-Fi) też są w MQA, choć platforma tego nie komunikuje, a w związku z tym użytkownicy nie mają świadomości, że słuchają materiału zapisanego „stratnie”. Nie zamierzam się odnosić do tych rewelacji, pozwolę sobie jednak zauważyć, że po pierwsze, owa krytyka nie uderza bezpośrednio w MQA, a po drugie sam fakt, że koder odrzucił sygnały testowe stoi w sprzeczności z zasadą działania nowego kodeka, który opracowano wyłącznie z myślą o efektywnym zapisie, przechowywaniu i strumieniowaniu sygnałów muzycznych. Trudno też na równi stawiać opinię nieznanej osoby z kręgów producentów muzycznych z autorytetem człowieka niezwykle zasłużonego dla branży audio na przestrzeni ostatnich kilkudziesięciu lat. Tutaj w pełni zgadzam się z Hansem Beekhuyzenem (prowadzącym inny kanał na YT). Z drugiej jednak strony, nie można zapominać, że kodek MQA jest chroniony patentem, tak więc nikt, poza jego autorami, nie ma dostępu do kodu ani algorytmów. Producenci sprzętu audio otrzymują „czarną skrzynkę” — również nie wiedząc, co dokładnie implementują w swoich urządzeniach. Jednym z pierwszych producentów, który podważał sens stosowania MQA był Chord Electronics, a dokładniej Rob Watts. Swój sceptycyzm wobec MQA wyraził również Paul McGowan (PS Audio). Pytałem o tę kwestię także Eelco Grimma. Przyznał, że sam pomysł jest ciekawy, ale problem stanowią używana w MQA filtry interpolujące.</p> <p>Ponieważ klienci coraz cześciej pytali o MQA, to producenci nie mieli wyjścia i pod wpływem narastającej presji zaczęli implementować MQA w swoich urządzeniach, niekiedy może nawet wbrew własnym przekonaniom. Obecnie spora część przetworników c/a i streamerów obsługuje MQA, a liczba tych urządzeń powoli, acz systematycznie rośnie.<br /><br /></p> <h2>Tajemniczy deblurring</h2> <p>U podstaw opracowania nowego formatu legły dwa, trzeba przyznać, że całkiem interesujące założenia. Po pierwsze, zapis liniowy LPCM (ang. linear pulse code modulation) jest nieefektywny z punktu widzenia jego dostosowania do czułości naszego słuchu. Nie potrzebujemy bowiem dynamiki na poziomie 144 dB (typowej dla 24-bitowego zapisu PCM) w pełnym zakresie akustycznym. To dość oczywisty, a dotąd jednak pomijany aspekt związany z zapisem dźwięku hi-res. Prawdziwym argumentem przemawiającym za nową technologią miało być jednak co innego: możliwość niwelowania rozmycia czasowego impulsów (ang. deblurring) —&nbsp;efektu powstającego w procesie cyfryzacji analogowego sygnału audio (jak również podczas konwersji c/a), którego nie da się wyeliminować przy skończonej, a do tego „rozsądnej” częstotliwości próbkowania. Tutaj Bob Stuart używa przemawiających do wyobraźni wykresów, z których wynika, że typowy zapis PCM o próbkowaniu 44,1 kHz rozmywa impuls w skali rzędu 80 µs, natomiast przy zapisie PCM 192 kHz rozmycie jest wciąż znaczące. W teorii MQA ma być lepsze, osiągając poziom zapisu PCM 352,8 lub 384 kHz. Jak tego dokonuje? W tym momencie pojawia się pierwsza zagadka i niejednoznaczność. O ile bowiem można sobie jeszcze jakoś wyobrazić kompensację niedoskonałości znanego konwertera a/c użytego do zgrania do plików taśm-matek, to trudno odgadnąć, jak mogłaby wyglądać procedura „ściągania” sygnatury wszystkich układów ADC użytych w latach 80. W tym celu konieczna byłaby niezwykle szczegółowa dokumentacja techniczna każdej sesji nagraniowej dokładna wiedza na temat charakterystyk impulsowych ówczesnych konwerterów a/c. Pomnóżmy to przez tysiące albumów powstałych w tamtych czasach, a łatwo dojść do podejrzenia, że zadanie może mieć charakter życzeniowy. Wytwórnie, które wspierają MQA nie dzielą się takimi informacjami. Wątpliwości pomogła rozwiać sesja pytań i odpowiedzi (Q&amp;A) z Bobem Stuartem — publikujemy ją w dalszej części tego materiału.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/816mqafeature.MQAfig18.jpg" alt="816mqafeature.MQAfig18" width="600" height="370" /></p> <p style="text-align: center;"><em>U podstaw prac nad MQA leżą badania nad możliwościami ludzkiego słuchu oraz ich relacją w stosunku do technicznych ograniczeń sprzętu rejestrującego (mikrofony) i sposobów kodowania. Diagram pokazuje, jak bardzo różne są to obszary. Ilustr. MQA.</em></p> <h2><br />Muzyczne origami</h2> <p>Druga wątpliwość, czy może raczej niejednoznaczność, wiąże się ze sposobem obróbki i kodowania sygnału muzycznego. Mówi się, że MQA jest formatem stratnym, choć autorzy wynalazku utrzymują, że jest inaczej. Skąd ta rozbieżność? MQA powołuje się na badania neurobiologiczne oraz teorię przetwarzania sygnałów a/c i c/a, z których wynika, że zakres użytecznej informacji można (arbitralnie, ze względu na krotności użytecznych częstotliwości próbkowania) podzielić na pola A, B i C (ilustracje obok). Pole A odpowiada (mniej więcej) zapisowi CD (16/44,1), natomiast cały obszar wykresu ma reprezentować zapis LPCM 24/192. Dowiadujemy się ponadto, że istotny muzycznie zakres informacji mieści się w pomarańczowym trójkącie – tak ma wynikać z badań rzeczywistych nagrań muzycznych. Na dowód tego mamy spektrum FFT próbki muzycznej (linia ciemnożółta), która faktycznie mieści się w owym trójkącie, i to z dużym zapasem. Faktem jest, że energia muzyczna (i poziom nagrania) w realnym świecie maleją wraz z częstotliwością — przy 10 kHz jest dużo ciszej niż przy 1 kHz, zaś powyżej 20 kHz ilość energii muzycznej stanowi drobny ułamek tej przy 1 kHz. Fakt, że pomarańczowy trójkąt nie sięga powyżej 50 kHz jest zrozumiały — wyższe częstotliwości znajdują się już generalnie poza widmem instrumentów akustycznych, chociaż jeśli weźmiemy pod uwagę pełne spektrum alikwotów talerzy perkusyjnych, trąbki czy klawesynu, to niekoniecznie tak jest (rzeczywiste widmo akustyczne tych instrumentów sięga powyżej 60 kHz). Przyjmijmy jednak, że dotychczasowe założenia nie budzą wątpliwości, tj. że są z grubsza prawdziwe.</p> <p>Koder MQA dzieli pasmo na wspomniane zakresy A (0–24 kHz), B (24–48 kHz) i C (48–96 kHz). Konsekwentnie, zakresom B i C przypisuje mniejsze znaczenie niż A (co jest całkowicie logiczne), a jednym z najważniejszych tricków algorytmu kompresji MQA jest schowanie (upakowanie) informacji B i C poniżej poziomu szumów w zakresie A. Aby osiągnąć ten cel, stosowane jest „zawinięcie” danych audio z podziałem pasma B na dwa podpasma B1 i B2. Ten podział nie jest już opisany przez MQA — wyjaśnia go jednak Bob Stuart w bezpośrednich odpowiedziach na moje pytania. Dodatkowo do sygnału dodawany jest kształtowany szumowo strumień danych (linia zielona) zawierający dane o nagraniu, instrukcje dla dekodera oraz informacje audio z pasm B i C. Z poziomu linii zielonej można wnioskować, że ta informacja ingeruje w słowa sygnału cyfrowego na poziomie 18. bitu. MQA twierdzi, że sygnał „zielony” jest całkowicie usuwany przez dekoder MQA, ale w przypadku systemów 16-bitowych umożliwia usłyszenie „więcej muzyki”, a jego „odcisk" na sygnale jest równoważny zaledwie 0,15 bitu.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/rys_1.png" alt="rys 1" width="1200" height="859" /></p> <p style="text-align: center;"><em>Diagram informacyjny Shannona. Szary prostokąt opisuje przestrzeń kodowania dla płyty CD, złoty wykres obrazuje piki muzyczne w typowym nagraniu muzycznym. Linie czerwona i brązowa pokazują maksymalne i uśrednione wartości szumu. Wszystkie istotne muzycznie informacje zawierają się w pomarańczowym trójkącie.</em></p> <p>W opisie MQA pojawia się kolejna wskazówka: pasma B1 i B2 mogą zostać ukryte w sygnale „zielonym” lub poniżej, czyli na dalszych (mniej znaczących) bitach. Zwróćmy uwagę, że wyjściowo dysponujemy 24-bitowym zapisem audio, który chcielibyśmy, aby był bezstratny. Ingerencja w mniej znaczące bity danych stoi w sprzeczności z rozumieniem pojęcia dokładności bitowej. Zauważmy jednak, że pojęcie bit-perfect nigdzie nie pojawia się w materiałach MQA. Jest w nich jedynie mowa o bezstratności sygnału muzycznego — w rozumieniu zachowania informacji w częstotliwościach ponadakustycznych, od początku do końca całego procesu. Dalszy opis wynalazcy stawia jednak pod znakiem zapytania zasadność tej tezy. Pada bowiem sformułowanie, że koder B wykorzystuje sygnał przybliżający (interpolację) do tego, by uzyskać bezstratność przesunięcia omawianego pasma w region A.</p> <p>Ostatni etap kodowania MQA polega na zwinięciu całej informacji, a więc także pasma C (dotąd znajdującego się w obszarze B) i upakowaniu całości w stosunkowo „lekki” plik FLAC 24/48. Zdaniem twórców formatu, taki zapis zabrzmi lepiej niż CD — także w sytuacji, gdy odtwarzamy go za pośrednictwem urządzenia pozbawionego dekodera MQA.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/mqa/fig26_fold1.png" alt="fig26 fold1" width="1200" height="872" /></p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/mqa/fig28_fold2.png" alt="fig28 fold2" width="1200" height="852" /></p> <p style="text-align: center;"><em>Objaśnienia do dwóch powyższych grafik zamieszczono w tekście. Ilustr. MQA.</em></p> <h2><br />Dekodowanie – co wiemy?</h2> <p>Pełne rozpakowanie i rozkodowanie plików w formacie MQA jest procesem dwuetapowym, choć w materiałach źródłowych jest mowa nawet o podwójnym „unfoldzie", czyli rozwinięciu danych audio z pasma B. W teorii, jak wyjaśnia Bob Stuart (patrz wywiad), „unfoldów” może być więcej niż dwa.</p> <p>Jednym z założeń twórców było stworzenie kodeka maksymalnie elastycznego, który w zależności od możliwości technicznych po stronie odbiorcy, umożliwi częściowe lub całkowite wykorzystanie potencjału nowego kodeka oraz samego nagrania hi-res. Z tego też powodu wyodrębniono tzw. rdzeń procesu (MQA Core), który może być realizowany programowo (choć nie musi) przez oprogramowanie komputera (Roon, Audirvana, Tidal, etc.) lub nawet smartfona, ewentualnie hardware’owo —&nbsp;wewnątrz urządzenia odtwarzającego. Po tej operacji sygnał audio zyskuje jakość opisaną pomarańczowym trójkątem, a więc PCM 24/96 lub 24/88,2 — zależnie od wyjściowej częstotliwości próbkowania nagrania (jest zwiększana dwukrotnie). Tak rozpakowany strumień MQA może być następnie wypuszczony poprzez złącze USB, Lightning czy nawet S/PDIF do renderera MQA. Renderer MQA to urządzenie komplementarne dla całego procesu, zawsze ściśle powiązane z przetwornikiem c/a, a więc uwzględniające jego parametry. Jak wyjaśnia</p> <p>Bob Stuart: „idea enkapsulacji i renderingu jako procesów komplementarnych jest kluczowa, ponieważ gwarantuje, że całkowite rozmycie czasowe w systemie odtwarzającym jest tak małe, jak to tylko możliwe”. Podczas renderingu, częstotliwość próbkowania wynikowego sygnału audio zwiększa się znów dwukrotnie—&nbsp;do 176,4/192 kHz. W przypadku niektórych nagrań może jednak wzrastać czterokrotnie — do 352,8 lub 384 kHz.</p> <p>Jeśli urządzenie wyjściowe ma ograniczenie częstotliwości próbkowania do 44,1 lub 48 kHz, strumień MQA przechodzi jedynie proces poświadczenia (ang. authentication), gwarantując możliwość sczytania danych zawartych w sygnale „zielonym”. Jest to prawie najgorsza z możliwych opcji (zasadniczo dedykowana dla urządzeń mobilnych bez zewnętrznego DAC-a), choć i tak lepsza — jak argumentuje MQA — niż odczyt na urządzeniu w ogóle niekompatybilnym z MQA.</p> <h2><br />MQA CD</h2> <p>Istnieje jeszcze jedna, specyficzna wersja formatu MQA ograniczona do 16-bitowego kontenera FLAC lub zapisu na płycie CD, którą da się odtworzyć za pośrednictwem kompatybilnego odtwarzacza CD. Do tej pory, w Japonii ukazało się już kilkaset tytułów w formacie MQA CD. Konieczność „pomieszczenia” sygnału MQA na płycie kompaktowej nie jest jedyną przyczyną, dla której stosuje się 16-bitowe MQA. Część nagrań jest bowiem dostępna wyłącznie w takiej rozdzielczości.<br /><br /></p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/MQA-CD1.jpg" alt="MQA CD1" width="1200" height="1078" /></p> <p style="text-align: center;"><em>Na japońskim rynku, wciąż bardzo przychylnym dla CD, ukazało się już ponad 600 tytułów w formacie MQA.</em></p> <p>&nbsp;</p> <h2>Odsłuch</h2> <p>Niezależnie od tego, jak poważne lub przeciwnie — nieuzasadnione, wynikające z niepełnej, fragmentarycznej wiedzy lub zwykłych uprzedzeń — są wątpliwości dotyczące technicznej strony działania MQA, należy pokusić się o subiektywną (siłą rzeczy!) ocenę jakości dźwięku uzyskiwaną z nagrań w formacie MQA w konfrontacji z kodowaniem liniowym PCM, ewentualnie formatem DSD. Okazuje się, także i w tej sferze sprawa nie jest do końca jednoznaczna. To znaczy taka by była, gdyby nie to, że MQA funkcjonuje w dwóch, bardzo nierównych przestrzeniach: niszowym, choć powiększającym się downloadzie i płytach CD oraz zdecydowanie dominującym streamingu z Tidala.</p> <p>Nie mieliśmy jeszcze do czynienia z płytami MQA CD, przeprowadziliśmy natomiast próby z tymi samymi nagraniami zapisanymi w formie plików hi-res PCM i odpowiadającym im plikom MQA w kontenerze FLAC. Początkowo skorzystaliśmy z downloadów ze strony wytwórni 2L (www.2l.no). Repertuar ten nie musi każdemu odpowiadać, ale na podstawie odsłuchu kilkunastu par utworów odsłuchiwanych w dwóch różnych systemach, uznaliśmy, że jakość dźwięku w formacie MQA uzyskiwana z przetworników c/a z pełnym wsparciem tego formatu, jak również tylko w przypadku dekodowania rdzenia za pomocą Roona dorównuje lub nawet przerasta jakość uzyskiwaną z tych samych nagrań w jakości PCM 24 bity/192 kHz. Dawało się odczuć znakomite poczucie aury, bardzo dużą szczegółowość i namacalność dźwięku. Nagrania MQA z materiału źródłowego 352,8 kHz brzmiały, według naszej oceny, porównywalnie do analogicznych plików PCM 352,8 kHz i lepiej niż downsamplowany materiał PCM 24/192.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/playlista.png" alt="playlista" width="1200" height="907" /></p> <p style="text-align: center;"><em>Fragment zbioru nagrań testowych zaimportowanych do biblioteki Roona.</em></p> <p>&nbsp;</p> <p>W trakcie prac nad niniejszym materiałem, Bob Stuart udostępnił mi testowy zestaw nagrań zapisanych w MQA oraz ich dokładnych odpowiedników źródłowych w jakości LPCM 24/192 stanowiącej obecnie „złoty standard” hi-res audio. Sampler ważący 3,5 GB przygotowano w bardzo wygodny sposób, edytując tytuły utworów, wyraźnie je oznaczając dopiskiem MQA dla łatwego rozróżnienia od „oryginałów”. Pliki zgrałem na dysk SSD stanowiący bibliotekę Roona i umieściłem w kolejce odtwarzania. Odsłuch polegał na przeskakiwaniu kolejnych utworów i kilkukrotnych porównaniach materiału referencyjnego (PCM) z MQA. Repertuar był&nbsp;bardzo przekrojowy, zawierający nagrania mono z lat 50 (Louis Armstrong), jak również współczesne produkcje, niekoniecznie audiofilskie, oraz różne gatunki muzyczne, z akcentem na jazz i blues. Znalazły się tutaj nawet takie perełki, jak choćby „The Köln Concert” Keitha Jarreta. Z odsłuchów przeprowadzonych w moim regularnym, wysoce transparentym i dynamicznym systemie, z wykorzystaniem dCS-a Bartoka w roli renderera i Roona jako dekodera rdzenia wyłania się wysoce przychylny obraz możliwości MQA. W żadnym przypadku (z około 20 utworów) nie stwierdziłem pogorszenia jakości dźwięku po wybraniu wersji MQA. Drugim zaskoczeniem była mała skala różnic pomiędzy obydwiema wersjami. Oczekiwałem dość oczywistych wskazówek, tymczasem były one znacznie mniejsze przy odsłuchu różnych streamerów USB Audio (!), nie mówiąc już o transportach CD. Zwracam uwagę, że mówimy o sytuacjach, w których porównujemy teoretycznie ten sam strumień bitowy — tyle że podawany z różnych urządzeń, w różny sposób! Na tle tych różnic — przeważnie oczywistych w wykorzystanym systemie — te same nagrania w formatach MQA i PCM brzmiały niemalże identycznie.</p> <p><strong>Jeśli mam być szczery, to nie jestem wcale pewien, że w ślepym teście uzyskałbym statystycznie znaczący wynik, jednak kolejne odtworzenia tych samych utworów prowadziły do ustalenia pewnego wzorca preferencji.</strong> Ów wzorzec sprowadzał się do tego, że chcąc kolejny raz posłuchać tych naprawdę świetnych nagrań, wybierałem te oznaczone jako MQA… Anglicy mawiają „hearing is believing” (tłum. usłyszeć znaczy uwierzyć) i trudno o lepszą puentę dla tego eksperymentu. Z czego wynikała nieznaczna, ale jednak preferencja dla MQA? Najkrócej rzecz ujmując, z wrażenia lepszego „kontrastu”. Odpowiedniki źródłowe wydawały się lekko rozbielone, minimalnie mdłe. Z MQA zyskiwałem nieco lepszą saturację, wrażenie czerni, jak również odrobinę energii i precyzji. Rozmiary sceny dźwiękowej i bas — tutaj nie odnotowałem powtarzalnych różnic.</p> <p><strong>Odmiennie przedstawiają się wnioski z porównań w przypadku Tidala.</strong> Powstaje tutaj zasadniczy problem dotyczący pochodzenia poszczególnych wersji tych samych nagrań: nigdy nie mamy pewności, że z Tidala słuchamy tej samej wersji mastera, którą posiadamy w pliku z legalnego downloadu czy nawet ze zgrania płyty CD. Ogólny konsensus z przeprowadzonych przeze mnie i red. Lackiego porównań nie jest zbyt przychylny dla MQA z Tidala. W moim odczuciu, te streamy nie dorównywały jakością „peceemom” hi-res, oferując mniej więcej zbliżony poziom naturalności i namacalności dźwięku, jak ripy płyt CD. Wniosek ten koresponduje z wynikami wcześniejszych porównań streamów w jakości Hi-Fi (PCM 16/44,1) i ripów płyt CD lub downoladów o tej samej jakości.<br /><br /></p> <h2>Warto, nie warto?</h2> <p>Czy jest sens kupować DAC lub streamer obsługujący MQA? Najkrótsza prawidłowa odpowiedź na to pytanie brzmi: tak. Czy warto brać pod uwagę dekodowanie MQA jako argument przemawiający za zakupem tego, a nie innego modelu streamera czy przetwornika c/a? Nie powinno to być głównym kryterium wyboru. Pamiętajmy, że jakość brzmienia źródła cyfrowego determinuje szereg rozwiązań, począwszy od rodzaju kości DAC-a, poprzez sposób obróbki sygnału cyfrowego, jitter, jakość i rodzaj toru analogowego, zasilania, elementów pasywnych itd. Niewątpliwie, MQA jest pożądanym dodatkiem i tak należy ten format rozpatrywać. Odrębną kwestią jest to, w jaki sposób wykorzystać jego niemały potencjał. W naszej opinii, jedyną pewną metodą jest odsłuch plików MQA zgromadzonych na dysku. W odpowiednio przezroczystym systemie będziemy w stanie usłyszeć ich przewagę nad materiałem PCM, zaś w najgorszym razie — usłyszmy mniej więcej to samo. Z kolei MQA z Tidalu raczej nie zagra tak dobrze, jak downloady hi-res 24/96 czy 24/192, co jednak nie powinno prowadzić do wniosku, że MQA to naciąganie. U podstaw MQA leżą poważne badania naukowe z dziedziny neurobiologii ludzkiego słuchu oraz analizy i przetwarzania sygnałów audio, z których wynika, że kontynuowana przez dekady metoda zwiększania częstotliwości próbkowania to poniekąd ślepy zaułek — rozwiązanie, które sprawdza się do pewnego momentu (czytaj: częstotliwości próbkowania), a później prowadzi już tylko do rozrastania się plików i dysków je magazynujących. MQA przełamuje to myślenie, a efekty uzyskane w kontrolowanych warunkach odsłuchowych pokazują, że jest to format co najmniej równoważny wobec liniowego kodowania PCM, z którego świat audio korzysta już od ponad 40 lat. Zachęcamy do porównań downoladów, zakupienia kilku albumów w formacie MQA i ich posłuchania w dobrym systemie. To powinno rozwiać wszelkie wątpliwości.</p> <p>&nbsp;</p> <h2>MQA w pytaniach i odpowiedziach —&nbsp;rozmowa z Bobem Stuartem</h2> <p><strong><img style="border: 1px solid #000000; margin-left: 25px; margin-bottom: 25px; float: right;" src="https://m.avtest.pl/images/technika/mqa/bob_12.png" alt="Bob Stuart" width="360" height="456" />AV: Zacznijmy od kwestii ogólnej, nieraz podnoszonej w środowisku audiofilów: po co nam kolejny kodek audio w 2021 r., skoro ani transfer danych przez internet, ani pojemność dysków nie są już problemem ani ograniczeniem. W początkowej fazie promocji MQA podkreślano wydajność tego formatu – możliwość przesłania sygnału hi-res audio w strumieniu odpowiadającym zapisowi CD. Dziś Tidalowi wyrosła groźna konkurencja w postaci Apple Music, Qobuza, Amazona HD czy Spotify — serwisów oferujących bezstratne strumienie hi-res audio.</strong></p> <p><strong>Bob Stuart:</strong> W tym pytaniu zawarto głęboko nieprawdziwe założenia. Dzięki zrozumieniu procesów, jak ludzki słuch postrzega dźwięk i jak to się ma do nowoczesnych technik kodowania dźwięku, MQA zachowuje WSZYSTKIE informacje, które są potrzebne i bardzo niewiele tych, które są zbędne. Z tego powodu, o efektywności MQA można mówić w kategoriach efektu ubocznego wynikającego z użytych algorytmów w celu uzyskania lepszej jakości dźwięku.</p> <p>Nasz team składa się z wiodących ekspertów w bezstratnej obróbce sygnału i kompresji. Używamy unikatowych metod dla uzyskania najbardziej efektywnego strumienia danych. MQA dostarcza wyższą rozdzielczość niż konwencjonalna „cyfra”, szczególnie jeśli chodzi o drobne struktury w domenie czasowej, na które nasz słuch jest najbardziej wyczulony.</p> <p>Tylko w źle poinformowanej przestrzeni audiofilskiej uznaje się za rozsądne nie rozwiązywanie problemu polegającego na tym, że format hi-res PCM jest zarówno wysoce nieefektywny, jak i niedopasowany do ludzkiego słuchu. Ponadto — to już taki wyspiarski punkt widzenia — szerokie pasmo (szybki transfer danych – przyp. F.K.) nigdy nie jest za darmo, a jego parametry nie będą rosnąć w nieskończoność. Ślad węglowy internetu i streamingu jest znaczący; strumieniowanie wideo już zaczyna być analizowane pod kątem możliwych regulacji prawnych.</p> <p>Efektywne kodeki obniżają koszty funkcjonowania infrastruktury — niezależnie od tego, jak duża jest nasza „rura”. Serwisy streamingowe płacą znacznie więcej za przechowywanie i przesyłanie plików, które są niepotrzebnie duże. Dla właściciela dużej platformy oszczędność wynikająca z używania MQA zamiast szybkiego PCM-u idzie w dziesiątki milionów dolarów rocznie. Co więcej, technika muzycznego origami pozwala upakować nagranie hi-res w strumieniu 48 kHz, który jest 100% kompatybilny w przód i w tył z transmisjami wideo i radiem, co pozwoli zaoferować znacznie lepszy dźwięk także w tych mediach.</p> <p>Wspomniane serwisy są nieodpowiedzialne z komercyjnego i ekologicznego punktu widzenia. Redukcja danych sprzyja obniżeniu emisji gazów cieplarnianych, natomiast zwiększanie strumienia audio czy wideo daje dokładnie odwrotny skutek. Popyt na wysoką jakość strumienia nie powinien negatywnie odbijać się na naszej planecie. To także jest wpisane w dewizę MQA. Co więcej, serwisy takie, jak Apple czy Amazon używają techniki adaptacyjnego streamingu w celu redukcji przepływności w czasie rzeczywistym, co powoduje, że niekoniecznie wiemy, jaki strumień w danym momencie do nas płynie. Jak wyjaśnię w dalszej części, strumień MQA jest z definicji poświadczony (ang. authenticated), podczas gdy wymienione serwisy bezstratne udostępniają pliki bez żadnej gwarancji ich zawartości czy pochodzenia. W tym sensie pomysł rozszerzania pasma transmisji, by dostarczać coś nie do końca sprawdzonego wydaje się jeszcze bardziej wadliwy.</p> <p><strong>AV: Deblurring jest fascynującym konceptem. Z naszej wcześniejszej korespondencji wywnioskowałem, że zespół MQA jest w stanie zdjąć „odcisk palca” magnetofonu użytego w zapisie analogowego mastera, jeśli stan urządzenia na to pozwala, a taśma jest w dobrym stanie. Jak taki proces wygląda w praktyce i ile takich projektów zrealizowano?</strong></p> <p>BS: Używamy specjalnych sygnałów testowych, które są nagrywane na taśmę referencyjną za pomocą badanego magnetofonu, a następnie odtwarzane w przód i w tył. Łącząc kilka różnych pomiarów otrzymujemy „odcisk” napędu, głowicy i elektroniki. Taka charakteryzacja była robiona wiele razy dla różnych magnetofonów (analogowych i cyfrowych) w studiach masteringowych, a rezultaty użyte w setkach wydań MQA.</p> <p><strong>AV: W przypadku masterów (nagrań) cyfrowych wspomniałeś, że procedura może przebiegać na trzy różne sposoby. Albo inżynier od masteringu korzysta z waszych narzędzi, albo dokonywany jest pomiar użytego przetwornika ADC, albo używa się automatycznego procesu „bazującego na koderze, który przećwiczono na podstawie wielu przykładów znanych systemów. […]” Padło również sformułowanie:</strong></p> <p>„Nie ma znowu tak wiele typów przetworników ADC. W rzeczywistości garść rodzajów chipów pokrywa zdecydowaną większość rynku studyjnego. Po 6 latach bliskiej współpracy ze studiami masteringowymi regularnie sprawdzamy zautomatyzowany proces kodowania, konfrontując wyniki z odsłuchami. Po kilku milionach zakodowań jest to gładki proces, który rzadko przynosi niespodzianki”. Rodzi się pytanie, która z tych opcji jest najczęściej stosowana?</p> <p>BS: Gdy tylko jest to możliwe, realizujemy „projekty w białych rękawiczkach”, charakteryzując konkretny konwerter a/c. Było to robione dla kilku niezależnych specjalistów. Często się zdarza, że z danym wydawcą tworzymy procedurę, w którą oni sami są głębiej zaangażowani, tworząc wstępny setup dla swoich systemów, który potem jest ponownie wykorzystywany przy kolejnych wydaniach. Ponieważ ta zautomatyzowana metoda przynosi dobre rezultaty, a inwestycja mieści się w budżecie wydawców, jest ona najczęściej stosowana. Jesteśmy zadowoleni z każdej z tych metod — wybór konkretnej uzależniamy od dostępnego budżetu.</p> <p><strong>AV: Wiemy, że koder MQA dzieli zakres częstotliwości w nagraniu na trzy pasma: A, B i C, z czego B jest dzielone na podpasma B1 i B2. Jaki zakres częstotliwości jest typowy dla B: 24–48 kHz? Czy jest on z góry ustalony, czy może zależny od spektrum lub innych cech nagrania? Wiadomo, że niektóre instrumenty, jak trąbka czy talerze mogą produkować harmoniczne o częstotliwościach znacznie przekraczających 48 kHz.</strong></p> <p>BS: Zakładając, że pytanie dotyczy materiału źródłowego o próbkowaniu 192 kHz, to tak, jak sugerujesz, cała zawartość muzyczna w drugiej oktawie (B) zostaje uchwycona. To, że rdzeń o próbkowaniu 96 kHz jest tak często stosowany wynika z tego, że w nagraniach komercyjnych nie pojawiają się informacje w zakresie częstotliwości powyżej 48 kHz. Tak mówią nam statystyki milionów dotąd przeanalizowanych utworów muzycznych. Koder analizuje spektrum szczytów sygnału muzycznego i określa, czy w tym zakresie pasma użyteczna informacja jest poniżej, czy powyżej poziomu szumów. Jeśli powyżej, to koder wyświetla ostrzeżenie i wówczas mamy możliwość zastosowania wyższego tempa transmisji (niż 48 kHz – przyp. F.K.), jednak są to niezwykle rzadkie przypadki (garść na miliony zakodowanych utworów). Dlaczego tak to wygląda? Rzeczywiście, użycie specjalnego mikrofonu, który rejestruje w bliskim polu trąbkę czy klawesyn pozwala zarejestrować harmoniczne powyżej 48 kHz. Sęk w tym, że nie obserwujemy tego efektu w nagraniach komercyjnych — albo dlatego, że nie pozwala na to sam mikrofon, albo po prostu znajduje się on zbyt daleko od instrumentu (efekt tłumienia bardzo krótkiej fali akustycznej – przyp. F.K.). Co więcej, instrumenty elektroniczne zachowują się w pewnym sensie podobnie do akustycznych – również nie produkują dźwięków powyżej rozważanego zakresu.</p> <p><strong>AV: Jaka jest relacja pasm B1 i B2 i czemu służy ten dodatkowy podział?</strong></p> <p>BS: Podział między pasma A i B jest bezstratny, tak samo bezstratny jest podział pomiędzy B1 i B2. Ten drugi pozwala nam zoptymalizować efektywność kodeka przy doskonałym zachowaniu odpowiedzi w domenie czasowej.</p> <p><strong>AV: Czy poniżej poziomu szumów w paśmie A faktycznie znajduje się dość przestrzeni, by móc w niej pomieścić całą informację muzyczną z pasma B w przypadku nagrań klasycznych i jazzowych? To bardzo istotne, jeśli chce się wykazać, że MQA jest formatem bezstratnym.</strong></p> <p>BS: Opublikowaliśmy dane pokazujące rzeczywisty poziom szumów w nagraniach. Zwykle jest to przestrzeń wystarczająca nie tylko do ukrycia w niej informacji wysokoczęstotliwościowej, ale także do tego, by mieć dostateczny margines bezpieczeństwa. W bardzo rzadkich przypadkach, gdy energia wysokoczęstotliwościowa nie może zostać upchnięta poniżej progu szumów w pasmie A, koder wyśle ostrzeżenie i zatrzyma się.</p> <p><strong>AV: Jaka jest rola pasma C, skoro zawiera ono głównie szum kwantyzacji? Czy koder jest w stanie wyekstrahować stamtąd dodatkową informację muzyczną (jeśli jest tam takowa)?</strong></p> <p>BS: Pasmo C jest artefaktem częstotliwości próbkowania. Przetwornik a/c generuje szum własny nawet przy braku sygnału (ciszy). W rozważanym rejonie obserwujemy, że szum jest niezależny od sygnału muzycznego w niższych oktawach. Inaczej mówiąc, jest to szum przypadkowy, losowy. Nie słychać go, ale jeśli byśmy go odfiltrowali, wówczas usłyszelibyśmy działanie filtru. C nie zawiera zatem użytecznej informacji, pożera za to mnóstwo danych w uproszczonym kodowaniu PCM.</p> <p><strong>AV: Kształtowany szumowo sygnał zielony na wykresie, według informacji na Waszej stronie: „zawiera informację o nagraniu, instrukcje dla dekodera, jak również B i C”. W których bitach oryginalnego sygnału 24-bitowego jest zawarty?</strong></p> <p>BS: Sygnał ten jest bezstratnie usuwany przez dekoder, tak więc zapis MQA wykonany w studiu zostaje odzyskany bit po bicie.</p> <p><strong>AV: Jak mają się te wszystkie manipulacje na sygnale do idei bezstratności MQA?</strong></p> <p>BS: Celem MQA jest bezstratność w domenie analogowej. To, do czego się odnosisz, to bezstratność na poziomie sygnału cyfrowego, w której to koncepcji byliśmy pionierami w latach 90 (MLP — przyp. F.K.). Rozwiązuje ona tylko wąski aspekt znacznie szerszego problemu — jak przesuwać dane audio z umiarkowaną efektywnością. Plik bezstratny mówi nam, że dane zostały precyzyjnie przetransferowane, ale nie jest to świadectwo jakości sygnału, jego rozdzielczości, a jedynie kontenera. Problem, z którym postanowiliśmy się zmierzyć jest większy, poważniejszy — jak usunąć artefakty procesu konwertowania sygnału audio do postaci cyfrowej, a potem sygnału cyfrowego do analogowego. Nasz przekaz pod tym względem nigdy się nie zmienił. Deblurring, enkapsulacja, origami, a następnie dekodowanie, poświadczenie i renderowanie osiągają założony cel w sposób, który jest wstecznie kompatybilny. Naturalnie, gdy sygnał zostanie już zakodowany do MQA, jest przekazywany z wytwórni muzycznej w bezstratnym kontenerze. Założeniem jest uzyskanie znacznie lepszej jakości audio o zdecydowanie poprawionej rozdzielczości czasowej. Biorąc pod uwagę to, że wyczyściliśmy dane i przygotowaliśmy je dla danego DAC-a (w procesie renderingu – przyp. F.K.), faktycznie można wysnuć wniosek, że dane zostały zmienione. Zaznaczam, że dzieje się tak tylko dlatego, żeby uzyskać lepszy efekt końcowy! Równie dobrze można powiedzieć, że mycie okna jest zabiegiem stratnym, ponieważ zmyliśmy brud z szyby. A chyba nikt nie zaprzeczy, że mycie okna poprawia widok.</p> <p><strong>AV: Unfolding (rozpakowywanie) – czy jest to proces dwu- czy czasami nawet trzyetapowy? </strong><br /><strong>a.) Czy słuszne jest myślenie, że pierwszy unfold „odwija” dane z pasma B, czemu towarzyszy dwukrotne zwiększenie częstotliwości próbkowania? </strong><br /><strong>b.) Drugi unfold ponownie podwaja częstotliwość próbkowania, ale istnieją nagrania w MQA pochodzące z materiałów 352,8 lub 384 kHz. Jak te wszystkie rozwinięcia mają się do pasma C?</strong></p> <p>BS: System MQA bazuje na idei, że rdzeń (Core) zawiera całą istotną muzycznie zawartość nagrania. Odpowiedź na pytanie a.) brzmi twierdząco. Odpowiedź na pytanie b.) jest natomiast bardziej złożona. W opisanym przypadku, materiału o próbkowaniu powyżej 96 kHz i tempa transmisji 48 kHz rdzeń jest tworzony w procesie zawinięcia kapsułkowego (ang. encapsulation fold) za pomocą systemu bazującego na hierarchii krzywych B-sklejanych, co zostało wytłumaczone w jednej z prac przedstawionych na konwencji AES. Koncepcyjnie rzecz biorąc, kodowanie i dekodowanie bazują na dwóch kolejnych etapach rozwinięć od i do analogu (za analog uważa się sygnał o nieskończonej częstotliwości próbkowania).</p> <p>Jeśli myślimy o odtwarzaniu, to unfolding może być kontynuowany nie tylko do częstotliwości próbkowania materiału źródłowego, ale także do najwyższej częstotliwości próbkowania obsługiwanej przez dany DAC (nawet do 24 MHz). Choć sama idea uwzględnia dużą liczbę unfoldów, to jednak można je arbitralnie spleść w mniejszą liczbę etapów. Dlatego też urządzenie renderujące odtwarzany sygnał 8x (np. 352,8 kHz) lub 16x (np. 768 kHz) może zrenderować rdzeń MQA za pomocą jednego lub więcej kroków. Nie ma faktycznego rozróżnienia pomiędzy drugim, trzecim czy czwartym rozwinięciem. Kaskada tych kroków może być wykonana jednorazowo lub etapami — tak długo, jak wyjście analogowe „pasuje" do intencji kodera.</p> <p><strong>AV: Omówmy pokrótce dekodowanie rdzenia i rendering od strony użytkowej. Czym różni się jedno od drugiego i czym są urządzenia określane jako MQA Renderer i MQA Full Decoder?</strong></p> <p>BS: Dekoder rdzenia MQA (ang. MQA Core Decoder) może działać na różnych platformach. Jest wbudowany w odtwarzacze programowe takie, jak Roon, Audirvana, ale również w przetworniki c/a, amplitunery A/V, odtwarzacze CD, streamery, odtwarzacze przenośne (DAP-y), cyfrowe zestawy głośnikowe itd. Dekoder rdzenia dokonuje pojedynczego rozwinięcia do podwojonej częstotliwości próbkowania (2x), wydobywając ukryte informacje muzyczne z pasma B. Drugie rozwinięcie zawsze ma miejsce w rendererze, który jest komplementarnym etapem do enkapsulacji (w koderze). Ponieważ intencją jest wykreowanie analogowego sygnału audio, renderer jest zawsze ściśle powiązany z przetwornikiem c/a. Zwracam uwagę, że każdy renderer jest inny — dopasowany w taki sposób do każdego przetwornika c/a, aby dać właściwy sygnał na jego wyjściu (analogowym). Komplementarność enkapsulacji (rdzenia) i renderingu jest krytyczną cechą systemu — zapewnia możliwie najmniejsze rozmycie czasowe w całym łańcuchu sygnałowym, od początku do końca. Z tego powodu nie istnieją renderery z wyjściem cyfrowym.</p> <p>Dekoder rdzenia MQA może być połączony z rendererem w jednym urządzeniu typu Full Decoder DAC.</p> <p><strong>AV: MQA na Tidalu. Z moich i nie tylko moich doświadczeń wynika, że materiał muzyczny na tej platformie potrafi brzmieć inaczej niż w przypadku plików uzyskanych ze zgrania płyt CD lub z downoladów. Znane są mi przypadki teoretycznie tych samych albumów, jak np. „Slowhand” Erica Claptona, które brzmią zaskakująco różnie w wersji hi-res z HDTracks i w wersji MQA na Tidalu. Gdzie leży przyczyna tych rozbieżności?</strong></p> <p>BS: Bardzo trudno jest przeprowadzać miarodajne porównania pomiędzy poszczególnymi serwisami streamingowymi. Generalnie nie znamy pochodzenia pliku z downloadu i ze streamingu. Założenie, że są one jednakowe często okazuje się błędne. Właśnie z tego powodu zaimplementowaliśmy do MQA mechanizm poświadczenia (ang. authentication). Chodzi o to, że pliki PCM nie zawsze są masterami ze studia. Gdy wytwórnia wypuszcza album w formacie PCM, jest to przeważnie eksport z projektu masteringowego, a niekoniecznie master jako taki (najczęściej zmiennoprzecinkowy). Mastering jest procesem kształtowania nagrania pod kątem mechanizmu jego dostarczenia. Z tego powodu, plik PCM może mieć różne częstotliwości próbkowania, różne poziomy, różne kompresje. W dystrybucji istnieją różne wymogi dla platform streamingowych, radia, czy płyt. Plik może być zmieniany, normalizowany lub transkodowany przez dystrybutora. To jest kluczowa różnica względem dawnych czasów, gdy master był używany wewnętrznie przez daną wytwórnię płytową dla celów replikacji — produkowania płyt czy kaset.</p> <p>Należy także zauważyć, że zależnie od treści (nagrania) może istnieć jeden zatwierdzony master i wiele jego pochodnych. Dlatego zawsze prosimy, aby MQA przygotowywać z definitywnie potwierdzonego źródła.</p> <p>W przypadku popularnych nagrań żyjący artyści i/lub ich producenci nierzadko wpadają na pomysł wykonania remasteringu lub wzbogacenia starego albumu. Wówczas istnieje więcej niż jeden zatwierdzony master. Przykłady to chociażby Led Zeppelin czy The Beatles, a także — jak w przytoczonym przykładzie — Eric Clapton i wspomniany przez ciebie „Slowhand”. Istnieje aż pięć wersji mastera tego albumu z różnych okresów (!). Ten w posiadaniu HDTracks jest stary i nie stanowi źródła dla streamingu z Tidala czy innych serwisów. Były remastery edycji specjalnej, rocznicowej… Moi ludzie podpowiedzieli mi, że trzy z tych masterów są na Tidalu w MQA. Całkiem możliwe, że nie ma miejsc, w których mógłbyś rzetelnie porównać wersję PCM z MQA…</p> <p>Gdy wytwórnia decyduje się na wydanie MQA, ma ono powstać na bazie najwyższej jakości dostępnego mastera (PCM lub DSD). Dla każdego nagrania powinna istnieć tylko jedna taka wersja. Wydanie MQA jest podpisywane przez właściciela licencji, artystę lub producenta. To jest właśnie to poświadczenie. Plik lub stream MQA jest dostarczany w bezstratnym kontenerze (zwykle we FLAC-u). W celu prawidłowego odtworzenia, cały tor odczytu musi być zgodny bitowo (bezstratny). Omawiana koncepcja została przychylnie przyjęta przez społeczność twórców, ponieważ jest to jedyny sposób, w jaki można zapewnić to, że słuchacz otrzymuje dokładnie ten zapis, który powinien i słyszy go zgodnie z intencją twórców.</p> <p><strong>AV: 16-bitowe MQA — po co i dlaczego jest oferowane, poza płytami MQA CD wydawanymi w Japonii?</strong></p> <p>BS: W przypadku płyt MQA CD materiał może pochodzić z dowolnego źródła o częstotliwości próbkowania od 44,1 do 352,8 kHz, 24-bitowego, zmiennoprzecinkowego lub DSD64/128/256 itd. Jest wykonany z plików zawierających bliskie przybliżenie użytecznych danych audio powyżej 22 kHz. Działa to naprawdę dobrze.</p> <p>Drugim przypadkiem użycia 16-bitowych plików MQA jest dostępność oryginalnego mastera wyłącznie w jakości 16 bitów/44,1 kHz (z taką sytuacją mamy do czynienia np. w przypadku albumu „Brothers in Arms” –przyp. F.K). Nie istnieje potrzeba rozszerzania zapisu o dodatkowe 8 bitów, skoro proces MQA zajmuje tylko 0,15 bita i zachowuje dynamikę 16-bitowego nagrania. Co więcej, godziłoby to w zasady, które omówiłem w odpowiedzi na pierwsze pytanie. Sztuczne zwiększenie długości słów byłoby nieodpowiedzialne w sytuacji, gdy ludzie płacą za pakiety danych lub mają narzucone limity ich wykorzystania — tym bardziej, że nie byłoby z tego żadnych korzyści.</p> <p>&nbsp;</p> <p><em>Artykuł pochodzi z Audio-Video 9/2021 - <a href="https://sklep.avtest.pl/produkt/audio-video-pdf-09-2021/"><strong>KUP PEŁNE WYDANIE</strong></a></em></p></div>
<div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/f863e4fb1b47b206b2276d9b70a5b183_S.jpg" alt="Dwa oblicza MQA — mała „encyklopedia" kontrowersyjnego formatu" /></div><div class="K2FeedIntroText"><p>Żaden z dotychczas opracowanych formatów i kodeków audio nie wywołał takich emocji, jak MQA (Master Quality Audio Authenticated). Przyjrzyjmy się bliżej temu wynalazkowi — tak od strony teorii, jak i praktyki.</p> </div><div class="K2FeedFullText"> <table style="width: 100%;" border="0" cellspacing="0" cellpadding="5"> <tbody> <tr valign="top"> <td style="width: 50%;"> <p>&nbsp;</p> </td> <td style="width: 50%;"> <p><strong>Tekst: </strong>Filip Kulpa | <strong>Ilustracje:</strong> MQA</p> <p><em>Artykuł pochodzi z Audio-Video 9/2021 - <a href="https://sklep.avtest.pl/produkt/audio-video-pdf-09-2021/"><strong>KUP PEŁNE WYDANIE PDF</strong></a><br /></em></p> </td> </tr> <tr valign="top"> <td style="width: 50%;"> <p>

audioklan

</p> <p>&nbsp;</p> </td> <td style="width: 50%;"> <p> </p> <p>&nbsp;</p> </td> </tr> </tbody> </table> <hr /> <h3>MQA (Master Quality Audio Authenticated)</h3> <p><br />4 grudnia 2014 r., londyński hotel The Shard — to tutaj, podczas bardzo oficjalnej gali, Bob Stuart, CEO firmy Meridian, obwieszcza światu hi-fi narodziny nowego kodeka audio, który ma zrewolucjonizować jakość dźwięku dostępną w streamingu, ale nie tylko. Zdarzenie to poprzedza (pół roku wcześniej) prezentacja innowacyjnego rozwiązania o nazwie MQA (Master Quality Authenticated), która odbywa się w brytyjskiej sekcji AES (Audio Engineering Society). W ślad za nią pojawia się artykuł zaprezentowany podczas 137. konwencji AES w Los Angeles (październik 2014 r.). Wkrótce później MQA zostaje anonsowane na wystawie CES w Las Vegas.</p> <p>Minęło ponad sześć lat. Najwyższy zatem czas odpowiedzieć na pytania: na czym polega MQA i czy ma w ogóle sens? Nim to jednak zrobimy, przypomnijmy, że Bob Stuart, a dokładniej firma Meridian, na której czele stoi od początku jej istnienia, w latach 2000 opracowała kodek MLP (Meridian Lossless Packing), zaaprobowany w ramach standardu DVD-Audio, a następnie jako opcja dla formatu Blu-ray. Zadaniem MLP była bezstratna kompresja wielokanałowego sygnału fonicznego PCM hi-res na płytach DVD-Audio. Stworzenie MLP było niewątpliwie dużym sukcesem marketingowym niewielkiej specjalistycznej firmy z Wielkiej Brytanii, która zdołała się przebić do oficjeli dużych producentów zgrupowanych wokół DVD Forum. 15 lat później ci sami ludzie postanawiają rzucić jeszcze większe wyzwanie całemu rynkowi fonograficznemu.<br /><br /></p> <h2>Niełatwe początki</h2> <p>Do promocji i —&nbsp;co nawet ważniejsze —licencjonowania nowej techniki zostaje powołana spółka MQA, Ltd, na której czele stoi wspomniany Bob Stuart, wieloletni członek Audio Engineering Society, autor wspomnianego kodeka MLP i licznych prac naukowo-badawczych z dziedziny cyfrowej obróbki sygnałów, psychoakustyki i neurobiologii. Sprawa zapowiada się bardzo poważnie.</p> <p>Od początku staje się jednak jasne, że nowy wynalazek ma dwa oblicza. Z jednej strony ma umożliwić uzyskanie jakości dźwięku hi-res przy wykorzystaniu strumienia danych o przepływności porównywalnej z zapisem PCM 16/44,1 w kontenerze FLAC –&nbsp;po to, by możliwy był streaming z urządzeń mobilnych. Jednocześnie MQA ma być wstecznie kompatybilny z urządzeniami, które nie są dostosowane do odtwarzania sygnału o jakości wyższej niż PCM 16 bitów/48 kHz. Z drugiej natomiast, MQA ma zapewnić stały strumień gotówki płynącej z licencji udzielanej producentom sprzętu muzycznego i wydawcom muzyki. Ten drugi aspekt spotyka się z dezaprobatą części obu środowisk. W lutym 2017 r. na stronie internetowej szkockiego Linna (www.linn.co.uk) zostaje opublikowany wielce nieprzychylny dla MQA artykuł, w którym autor wyjaśnia wieloetapowy mechanizm pobierania opłat licencyjnych. Wielkim sojusznikiem MQA zostaje Warner (maj 2016 r.). Tydzień później organizacja RIAA uznaje MQA za format Hi-Res Music, a potem do obozu MQA dołącza jeszcze Sony. Wygląda więc na to, że MQA nabiera masy krytycznej, by wystrzelić ostro do przodu. Tak jednak się nie dzieje. Pierwsza faza przyswajania nowego formatu idzie opornie. Owszem, grono producentów oferujących przetworniki czy streamery zgodne z MQA systematycznie rośnie, ale tempo procesu nie przystaje do oczekiwań. Dopiero na przełomie 2018 i 2019 r. zainteresowanie nowym wynalazkiem przybiera na sile, gdy platforma Tidal włącza MQA do swojej oferty, tworząc najwyższy pakiet jakościowy o nazwie „Tidal Masters”. Początkowo repertuar jest dość skromny, jednak w 2020 i w 2021 roku ma miejsce prawdziwy wysyp nagrań w MQA. Sprawa jest ciekawa o tyle, że kontrowersje wokół MQA wcale nie ustają, wręcz przeciwnie.</p> <p>Kilkanaście miesięcy temu, na platformie YouTube, użytkownik o nazwie Golden Sound, opublikował bardzo krytyczny materiał, z którego wynika, że MQA jest procesem wysoce stratnym, wprowadzającym do nagrań duże ilości szumu kwantyzacji i zniekształceń, a mechanizm kodowania w Tidalu odrzuca spreparowane sygnały testowe. Oglądając to wideo trudno nie odnieść wrażenia, że osoba, która przygotowała ów materiał ma przede wszystkim na celu zniechęcić do subskrypcji Tidala. Pada tam nawet argument, że streamy w jakości teoretycznie bezstratnej (Tidal Hi-Fi) też są w MQA, choć platforma tego nie komunikuje, a w związku z tym użytkownicy nie mają świadomości, że słuchają materiału zapisanego „stratnie”. Nie zamierzam się odnosić do tych rewelacji, pozwolę sobie jednak zauważyć, że po pierwsze, owa krytyka nie uderza bezpośrednio w MQA, a po drugie sam fakt, że koder odrzucił sygnały testowe stoi w sprzeczności z zasadą działania nowego kodeka, który opracowano wyłącznie z myślą o efektywnym zapisie, przechowywaniu i strumieniowaniu sygnałów muzycznych. Trudno też na równi stawiać opinię nieznanej osoby z kręgów producentów muzycznych z autorytetem człowieka niezwykle zasłużonego dla branży audio na przestrzeni ostatnich kilkudziesięciu lat. Tutaj w pełni zgadzam się z Hansem Beekhuyzenem (prowadzącym inny kanał na YT). Z drugiej jednak strony, nie można zapominać, że kodek MQA jest chroniony patentem, tak więc nikt, poza jego autorami, nie ma dostępu do kodu ani algorytmów. Producenci sprzętu audio otrzymują „czarną skrzynkę” — również nie wiedząc, co dokładnie implementują w swoich urządzeniach. Jednym z pierwszych producentów, który podważał sens stosowania MQA był Chord Electronics, a dokładniej Rob Watts. Swój sceptycyzm wobec MQA wyraził również Paul McGowan (PS Audio). Pytałem o tę kwestię także Eelco Grimma. Przyznał, że sam pomysł jest ciekawy, ale problem stanowią używana w MQA filtry interpolujące.</p> <p>Ponieważ klienci coraz cześciej pytali o MQA, to producenci nie mieli wyjścia i pod wpływem narastającej presji zaczęli implementować MQA w swoich urządzeniach, niekiedy może nawet wbrew własnym przekonaniom. Obecnie spora część przetworników c/a i streamerów obsługuje MQA, a liczba tych urządzeń powoli, acz systematycznie rośnie.<br /><br /></p> <h2>Tajemniczy deblurring</h2> <p>U podstaw opracowania nowego formatu legły dwa, trzeba przyznać, że całkiem interesujące założenia. Po pierwsze, zapis liniowy LPCM (ang. linear pulse code modulation) jest nieefektywny z punktu widzenia jego dostosowania do czułości naszego słuchu. Nie potrzebujemy bowiem dynamiki na poziomie 144 dB (typowej dla 24-bitowego zapisu PCM) w pełnym zakresie akustycznym. To dość oczywisty, a dotąd jednak pomijany aspekt związany z zapisem dźwięku hi-res. Prawdziwym argumentem przemawiającym za nową technologią miało być jednak co innego: możliwość niwelowania rozmycia czasowego impulsów (ang. deblurring) —&nbsp;efektu powstającego w procesie cyfryzacji analogowego sygnału audio (jak również podczas konwersji c/a), którego nie da się wyeliminować przy skończonej, a do tego „rozsądnej” częstotliwości próbkowania. Tutaj Bob Stuart używa przemawiających do wyobraźni wykresów, z których wynika, że typowy zapis PCM o próbkowaniu 44,1 kHz rozmywa impuls w skali rzędu 80 µs, natomiast przy zapisie PCM 192 kHz rozmycie jest wciąż znaczące. W teorii MQA ma być lepsze, osiągając poziom zapisu PCM 352,8 lub 384 kHz. Jak tego dokonuje? W tym momencie pojawia się pierwsza zagadka i niejednoznaczność. O ile bowiem można sobie jeszcze jakoś wyobrazić kompensację niedoskonałości znanego konwertera a/c użytego do zgrania do plików taśm-matek, to trudno odgadnąć, jak mogłaby wyglądać procedura „ściągania” sygnatury wszystkich układów ADC użytych w latach 80. W tym celu konieczna byłaby niezwykle szczegółowa dokumentacja techniczna każdej sesji nagraniowej dokładna wiedza na temat charakterystyk impulsowych ówczesnych konwerterów a/c. Pomnóżmy to przez tysiące albumów powstałych w tamtych czasach, a łatwo dojść do podejrzenia, że zadanie może mieć charakter życzeniowy. Wytwórnie, które wspierają MQA nie dzielą się takimi informacjami. Wątpliwości pomogła rozwiać sesja pytań i odpowiedzi (Q&amp;A) z Bobem Stuartem — publikujemy ją w dalszej części tego materiału.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/816mqafeature.MQAfig18.jpg" alt="816mqafeature.MQAfig18" width="600" height="370" /></p> <p style="text-align: center;"><em>U podstaw prac nad MQA leżą badania nad możliwościami ludzkiego słuchu oraz ich relacją w stosunku do technicznych ograniczeń sprzętu rejestrującego (mikrofony) i sposobów kodowania. Diagram pokazuje, jak bardzo różne są to obszary. Ilustr. MQA.</em></p> <h2><br />Muzyczne origami</h2> <p>Druga wątpliwość, czy może raczej niejednoznaczność, wiąże się ze sposobem obróbki i kodowania sygnału muzycznego. Mówi się, że MQA jest formatem stratnym, choć autorzy wynalazku utrzymują, że jest inaczej. Skąd ta rozbieżność? MQA powołuje się na badania neurobiologiczne oraz teorię przetwarzania sygnałów a/c i c/a, z których wynika, że zakres użytecznej informacji można (arbitralnie, ze względu na krotności użytecznych częstotliwości próbkowania) podzielić na pola A, B i C (ilustracje obok). Pole A odpowiada (mniej więcej) zapisowi CD (16/44,1), natomiast cały obszar wykresu ma reprezentować zapis LPCM 24/192. Dowiadujemy się ponadto, że istotny muzycznie zakres informacji mieści się w pomarańczowym trójkącie – tak ma wynikać z badań rzeczywistych nagrań muzycznych. Na dowód tego mamy spektrum FFT próbki muzycznej (linia ciemnożółta), która faktycznie mieści się w owym trójkącie, i to z dużym zapasem. Faktem jest, że energia muzyczna (i poziom nagrania) w realnym świecie maleją wraz z częstotliwością — przy 10 kHz jest dużo ciszej niż przy 1 kHz, zaś powyżej 20 kHz ilość energii muzycznej stanowi drobny ułamek tej przy 1 kHz. Fakt, że pomarańczowy trójkąt nie sięga powyżej 50 kHz jest zrozumiały — wyższe częstotliwości znajdują się już generalnie poza widmem instrumentów akustycznych, chociaż jeśli weźmiemy pod uwagę pełne spektrum alikwotów talerzy perkusyjnych, trąbki czy klawesynu, to niekoniecznie tak jest (rzeczywiste widmo akustyczne tych instrumentów sięga powyżej 60 kHz). Przyjmijmy jednak, że dotychczasowe założenia nie budzą wątpliwości, tj. że są z grubsza prawdziwe.</p> <p>Koder MQA dzieli pasmo na wspomniane zakresy A (0–24 kHz), B (24–48 kHz) i C (48–96 kHz). Konsekwentnie, zakresom B i C przypisuje mniejsze znaczenie niż A (co jest całkowicie logiczne), a jednym z najważniejszych tricków algorytmu kompresji MQA jest schowanie (upakowanie) informacji B i C poniżej poziomu szumów w zakresie A. Aby osiągnąć ten cel, stosowane jest „zawinięcie” danych audio z podziałem pasma B na dwa podpasma B1 i B2. Ten podział nie jest już opisany przez MQA — wyjaśnia go jednak Bob Stuart w bezpośrednich odpowiedziach na moje pytania. Dodatkowo do sygnału dodawany jest kształtowany szumowo strumień danych (linia zielona) zawierający dane o nagraniu, instrukcje dla dekodera oraz informacje audio z pasm B i C. Z poziomu linii zielonej można wnioskować, że ta informacja ingeruje w słowa sygnału cyfrowego na poziomie 18. bitu. MQA twierdzi, że sygnał „zielony” jest całkowicie usuwany przez dekoder MQA, ale w przypadku systemów 16-bitowych umożliwia usłyszenie „więcej muzyki”, a jego „odcisk" na sygnale jest równoważny zaledwie 0,15 bitu.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/rys_1.png" alt="rys 1" width="1200" height="859" /></p> <p style="text-align: center;"><em>Diagram informacyjny Shannona. Szary prostokąt opisuje przestrzeń kodowania dla płyty CD, złoty wykres obrazuje piki muzyczne w typowym nagraniu muzycznym. Linie czerwona i brązowa pokazują maksymalne i uśrednione wartości szumu. Wszystkie istotne muzycznie informacje zawierają się w pomarańczowym trójkącie.</em></p> <p>W opisie MQA pojawia się kolejna wskazówka: pasma B1 i B2 mogą zostać ukryte w sygnale „zielonym” lub poniżej, czyli na dalszych (mniej znaczących) bitach. Zwróćmy uwagę, że wyjściowo dysponujemy 24-bitowym zapisem audio, który chcielibyśmy, aby był bezstratny. Ingerencja w mniej znaczące bity danych stoi w sprzeczności z rozumieniem pojęcia dokładności bitowej. Zauważmy jednak, że pojęcie bit-perfect nigdzie nie pojawia się w materiałach MQA. Jest w nich jedynie mowa o bezstratności sygnału muzycznego — w rozumieniu zachowania informacji w częstotliwościach ponadakustycznych, od początku do końca całego procesu. Dalszy opis wynalazcy stawia jednak pod znakiem zapytania zasadność tej tezy. Pada bowiem sformułowanie, że koder B wykorzystuje sygnał przybliżający (interpolację) do tego, by uzyskać bezstratność przesunięcia omawianego pasma w region A.</p> <p>Ostatni etap kodowania MQA polega na zwinięciu całej informacji, a więc także pasma C (dotąd znajdującego się w obszarze B) i upakowaniu całości w stosunkowo „lekki” plik FLAC 24/48. Zdaniem twórców formatu, taki zapis zabrzmi lepiej niż CD — także w sytuacji, gdy odtwarzamy go za pośrednictwem urządzenia pozbawionego dekodera MQA.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/mqa/fig26_fold1.png" alt="fig26 fold1" width="1200" height="872" /></p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/mqa/fig28_fold2.png" alt="fig28 fold2" width="1200" height="852" /></p> <p style="text-align: center;"><em>Objaśnienia do dwóch powyższych grafik zamieszczono w tekście. Ilustr. MQA.</em></p> <h2><br />Dekodowanie – co wiemy?</h2> <p>Pełne rozpakowanie i rozkodowanie plików w formacie MQA jest procesem dwuetapowym, choć w materiałach źródłowych jest mowa nawet o podwójnym „unfoldzie", czyli rozwinięciu danych audio z pasma B. W teorii, jak wyjaśnia Bob Stuart (patrz wywiad), „unfoldów” może być więcej niż dwa.</p> <p>Jednym z założeń twórców było stworzenie kodeka maksymalnie elastycznego, który w zależności od możliwości technicznych po stronie odbiorcy, umożliwi częściowe lub całkowite wykorzystanie potencjału nowego kodeka oraz samego nagrania hi-res. Z tego też powodu wyodrębniono tzw. rdzeń procesu (MQA Core), który może być realizowany programowo (choć nie musi) przez oprogramowanie komputera (Roon, Audirvana, Tidal, etc.) lub nawet smartfona, ewentualnie hardware’owo —&nbsp;wewnątrz urządzenia odtwarzającego. Po tej operacji sygnał audio zyskuje jakość opisaną pomarańczowym trójkątem, a więc PCM 24/96 lub 24/88,2 — zależnie od wyjściowej częstotliwości próbkowania nagrania (jest zwiększana dwukrotnie). Tak rozpakowany strumień MQA może być następnie wypuszczony poprzez złącze USB, Lightning czy nawet S/PDIF do renderera MQA. Renderer MQA to urządzenie komplementarne dla całego procesu, zawsze ściśle powiązane z przetwornikiem c/a, a więc uwzględniające jego parametry. Jak wyjaśnia</p> <p>Bob Stuart: „idea enkapsulacji i renderingu jako procesów komplementarnych jest kluczowa, ponieważ gwarantuje, że całkowite rozmycie czasowe w systemie odtwarzającym jest tak małe, jak to tylko możliwe”. Podczas renderingu, częstotliwość próbkowania wynikowego sygnału audio zwiększa się znów dwukrotnie—&nbsp;do 176,4/192 kHz. W przypadku niektórych nagrań może jednak wzrastać czterokrotnie — do 352,8 lub 384 kHz.</p> <p>Jeśli urządzenie wyjściowe ma ograniczenie częstotliwości próbkowania do 44,1 lub 48 kHz, strumień MQA przechodzi jedynie proces poświadczenia (ang. authentication), gwarantując możliwość sczytania danych zawartych w sygnale „zielonym”. Jest to prawie najgorsza z możliwych opcji (zasadniczo dedykowana dla urządzeń mobilnych bez zewnętrznego DAC-a), choć i tak lepsza — jak argumentuje MQA — niż odczyt na urządzeniu w ogóle niekompatybilnym z MQA.</p> <h2><br />MQA CD</h2> <p>Istnieje jeszcze jedna, specyficzna wersja formatu MQA ograniczona do 16-bitowego kontenera FLAC lub zapisu na płycie CD, którą da się odtworzyć za pośrednictwem kompatybilnego odtwarzacza CD. Do tej pory, w Japonii ukazało się już kilkaset tytułów w formacie MQA CD. Konieczność „pomieszczenia” sygnału MQA na płycie kompaktowej nie jest jedyną przyczyną, dla której stosuje się 16-bitowe MQA. Część nagrań jest bowiem dostępna wyłącznie w takiej rozdzielczości.<br /><br /></p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/MQA-CD1.jpg" alt="MQA CD1" width="1200" height="1078" /></p> <p style="text-align: center;"><em>Na japońskim rynku, wciąż bardzo przychylnym dla CD, ukazało się już ponad 600 tytułów w formacie MQA.</em></p> <p>&nbsp;</p> <h2>Odsłuch</h2> <p>Niezależnie od tego, jak poważne lub przeciwnie — nieuzasadnione, wynikające z niepełnej, fragmentarycznej wiedzy lub zwykłych uprzedzeń — są wątpliwości dotyczące technicznej strony działania MQA, należy pokusić się o subiektywną (siłą rzeczy!) ocenę jakości dźwięku uzyskiwaną z nagrań w formacie MQA w konfrontacji z kodowaniem liniowym PCM, ewentualnie formatem DSD. Okazuje się, także i w tej sferze sprawa nie jest do końca jednoznaczna. To znaczy taka by była, gdyby nie to, że MQA funkcjonuje w dwóch, bardzo nierównych przestrzeniach: niszowym, choć powiększającym się downloadzie i płytach CD oraz zdecydowanie dominującym streamingu z Tidala.</p> <p>Nie mieliśmy jeszcze do czynienia z płytami MQA CD, przeprowadziliśmy natomiast próby z tymi samymi nagraniami zapisanymi w formie plików hi-res PCM i odpowiadającym im plikom MQA w kontenerze FLAC. Początkowo skorzystaliśmy z downloadów ze strony wytwórni 2L (www.2l.no). Repertuar ten nie musi każdemu odpowiadać, ale na podstawie odsłuchu kilkunastu par utworów odsłuchiwanych w dwóch różnych systemach, uznaliśmy, że jakość dźwięku w formacie MQA uzyskiwana z przetworników c/a z pełnym wsparciem tego formatu, jak również tylko w przypadku dekodowania rdzenia za pomocą Roona dorównuje lub nawet przerasta jakość uzyskiwaną z tych samych nagrań w jakości PCM 24 bity/192 kHz. Dawało się odczuć znakomite poczucie aury, bardzo dużą szczegółowość i namacalność dźwięku. Nagrania MQA z materiału źródłowego 352,8 kHz brzmiały, według naszej oceny, porównywalnie do analogicznych plików PCM 352,8 kHz i lepiej niż downsamplowany materiał PCM 24/192.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/mqa/playlista.png" alt="playlista" width="1200" height="907" /></p> <p style="text-align: center;"><em>Fragment zbioru nagrań testowych zaimportowanych do biblioteki Roona.</em></p> <p>&nbsp;</p> <p>W trakcie prac nad niniejszym materiałem, Bob Stuart udostępnił mi testowy zestaw nagrań zapisanych w MQA oraz ich dokładnych odpowiedników źródłowych w jakości LPCM 24/192 stanowiącej obecnie „złoty standard” hi-res audio. Sampler ważący 3,5 GB przygotowano w bardzo wygodny sposób, edytując tytuły utworów, wyraźnie je oznaczając dopiskiem MQA dla łatwego rozróżnienia od „oryginałów”. Pliki zgrałem na dysk SSD stanowiący bibliotekę Roona i umieściłem w kolejce odtwarzania. Odsłuch polegał na przeskakiwaniu kolejnych utworów i kilkukrotnych porównaniach materiału referencyjnego (PCM) z MQA. Repertuar był&nbsp;bardzo przekrojowy, zawierający nagrania mono z lat 50 (Louis Armstrong), jak również współczesne produkcje, niekoniecznie audiofilskie, oraz różne gatunki muzyczne, z akcentem na jazz i blues. Znalazły się tutaj nawet takie perełki, jak choćby „The Köln Concert” Keitha Jarreta. Z odsłuchów przeprowadzonych w moim regularnym, wysoce transparentym i dynamicznym systemie, z wykorzystaniem dCS-a Bartoka w roli renderera i Roona jako dekodera rdzenia wyłania się wysoce przychylny obraz możliwości MQA. W żadnym przypadku (z około 20 utworów) nie stwierdziłem pogorszenia jakości dźwięku po wybraniu wersji MQA. Drugim zaskoczeniem była mała skala różnic pomiędzy obydwiema wersjami. Oczekiwałem dość oczywistych wskazówek, tymczasem były one znacznie mniejsze przy odsłuchu różnych streamerów USB Audio (!), nie mówiąc już o transportach CD. Zwracam uwagę, że mówimy o sytuacjach, w których porównujemy teoretycznie ten sam strumień bitowy — tyle że podawany z różnych urządzeń, w różny sposób! Na tle tych różnic — przeważnie oczywistych w wykorzystanym systemie — te same nagrania w formatach MQA i PCM brzmiały niemalże identycznie.</p> <p><strong>Jeśli mam być szczery, to nie jestem wcale pewien, że w ślepym teście uzyskałbym statystycznie znaczący wynik, jednak kolejne odtworzenia tych samych utworów prowadziły do ustalenia pewnego wzorca preferencji.</strong> Ów wzorzec sprowadzał się do tego, że chcąc kolejny raz posłuchać tych naprawdę świetnych nagrań, wybierałem te oznaczone jako MQA… Anglicy mawiają „hearing is believing” (tłum. usłyszeć znaczy uwierzyć) i trudno o lepszą puentę dla tego eksperymentu. Z czego wynikała nieznaczna, ale jednak preferencja dla MQA? Najkrócej rzecz ujmując, z wrażenia lepszego „kontrastu”. Odpowiedniki źródłowe wydawały się lekko rozbielone, minimalnie mdłe. Z MQA zyskiwałem nieco lepszą saturację, wrażenie czerni, jak również odrobinę energii i precyzji. Rozmiary sceny dźwiękowej i bas — tutaj nie odnotowałem powtarzalnych różnic.</p> <p><strong>Odmiennie przedstawiają się wnioski z porównań w przypadku Tidala.</strong> Powstaje tutaj zasadniczy problem dotyczący pochodzenia poszczególnych wersji tych samych nagrań: nigdy nie mamy pewności, że z Tidala słuchamy tej samej wersji mastera, którą posiadamy w pliku z legalnego downloadu czy nawet ze zgrania płyty CD. Ogólny konsensus z przeprowadzonych przeze mnie i red. Lackiego porównań nie jest zbyt przychylny dla MQA z Tidala. W moim odczuciu, te streamy nie dorównywały jakością „peceemom” hi-res, oferując mniej więcej zbliżony poziom naturalności i namacalności dźwięku, jak ripy płyt CD. Wniosek ten koresponduje z wynikami wcześniejszych porównań streamów w jakości Hi-Fi (PCM 16/44,1) i ripów płyt CD lub downoladów o tej samej jakości.<br /><br /></p> <h2>Warto, nie warto?</h2> <p>Czy jest sens kupować DAC lub streamer obsługujący MQA? Najkrótsza prawidłowa odpowiedź na to pytanie brzmi: tak. Czy warto brać pod uwagę dekodowanie MQA jako argument przemawiający za zakupem tego, a nie innego modelu streamera czy przetwornika c/a? Nie powinno to być głównym kryterium wyboru. Pamiętajmy, że jakość brzmienia źródła cyfrowego determinuje szereg rozwiązań, począwszy od rodzaju kości DAC-a, poprzez sposób obróbki sygnału cyfrowego, jitter, jakość i rodzaj toru analogowego, zasilania, elementów pasywnych itd. Niewątpliwie, MQA jest pożądanym dodatkiem i tak należy ten format rozpatrywać. Odrębną kwestią jest to, w jaki sposób wykorzystać jego niemały potencjał. W naszej opinii, jedyną pewną metodą jest odsłuch plików MQA zgromadzonych na dysku. W odpowiednio przezroczystym systemie będziemy w stanie usłyszeć ich przewagę nad materiałem PCM, zaś w najgorszym razie — usłyszmy mniej więcej to samo. Z kolei MQA z Tidalu raczej nie zagra tak dobrze, jak downloady hi-res 24/96 czy 24/192, co jednak nie powinno prowadzić do wniosku, że MQA to naciąganie. U podstaw MQA leżą poważne badania naukowe z dziedziny neurobiologii ludzkiego słuchu oraz analizy i przetwarzania sygnałów audio, z których wynika, że kontynuowana przez dekady metoda zwiększania częstotliwości próbkowania to poniekąd ślepy zaułek — rozwiązanie, które sprawdza się do pewnego momentu (czytaj: częstotliwości próbkowania), a później prowadzi już tylko do rozrastania się plików i dysków je magazynujących. MQA przełamuje to myślenie, a efekty uzyskane w kontrolowanych warunkach odsłuchowych pokazują, że jest to format co najmniej równoważny wobec liniowego kodowania PCM, z którego świat audio korzysta już od ponad 40 lat. Zachęcamy do porównań downoladów, zakupienia kilku albumów w formacie MQA i ich posłuchania w dobrym systemie. To powinno rozwiać wszelkie wątpliwości.</p> <p>&nbsp;</p> <h2>MQA w pytaniach i odpowiedziach —&nbsp;rozmowa z Bobem Stuartem</h2> <p><strong><img style="border: 1px solid #000000; margin-left: 25px; margin-bottom: 25px; float: right;" src="https://m.avtest.pl/images/technika/mqa/bob_12.png" alt="Bob Stuart" width="360" height="456" />AV: Zacznijmy od kwestii ogólnej, nieraz podnoszonej w środowisku audiofilów: po co nam kolejny kodek audio w 2021 r., skoro ani transfer danych przez internet, ani pojemność dysków nie są już problemem ani ograniczeniem. W początkowej fazie promocji MQA podkreślano wydajność tego formatu – możliwość przesłania sygnału hi-res audio w strumieniu odpowiadającym zapisowi CD. Dziś Tidalowi wyrosła groźna konkurencja w postaci Apple Music, Qobuza, Amazona HD czy Spotify — serwisów oferujących bezstratne strumienie hi-res audio.</strong></p> <p><strong>Bob Stuart:</strong> W tym pytaniu zawarto głęboko nieprawdziwe założenia. Dzięki zrozumieniu procesów, jak ludzki słuch postrzega dźwięk i jak to się ma do nowoczesnych technik kodowania dźwięku, MQA zachowuje WSZYSTKIE informacje, które są potrzebne i bardzo niewiele tych, które są zbędne. Z tego powodu, o efektywności MQA można mówić w kategoriach efektu ubocznego wynikającego z użytych algorytmów w celu uzyskania lepszej jakości dźwięku.</p> <p>Nasz team składa się z wiodących ekspertów w bezstratnej obróbce sygnału i kompresji. Używamy unikatowych metod dla uzyskania najbardziej efektywnego strumienia danych. MQA dostarcza wyższą rozdzielczość niż konwencjonalna „cyfra”, szczególnie jeśli chodzi o drobne struktury w domenie czasowej, na które nasz słuch jest najbardziej wyczulony.</p> <p>Tylko w źle poinformowanej przestrzeni audiofilskiej uznaje się za rozsądne nie rozwiązywanie problemu polegającego na tym, że format hi-res PCM jest zarówno wysoce nieefektywny, jak i niedopasowany do ludzkiego słuchu. Ponadto — to już taki wyspiarski punkt widzenia — szerokie pasmo (szybki transfer danych – przyp. F.K.) nigdy nie jest za darmo, a jego parametry nie będą rosnąć w nieskończoność. Ślad węglowy internetu i streamingu jest znaczący; strumieniowanie wideo już zaczyna być analizowane pod kątem możliwych regulacji prawnych.</p> <p>Efektywne kodeki obniżają koszty funkcjonowania infrastruktury — niezależnie od tego, jak duża jest nasza „rura”. Serwisy streamingowe płacą znacznie więcej za przechowywanie i przesyłanie plików, które są niepotrzebnie duże. Dla właściciela dużej platformy oszczędność wynikająca z używania MQA zamiast szybkiego PCM-u idzie w dziesiątki milionów dolarów rocznie. Co więcej, technika muzycznego origami pozwala upakować nagranie hi-res w strumieniu 48 kHz, który jest 100% kompatybilny w przód i w tył z transmisjami wideo i radiem, co pozwoli zaoferować znacznie lepszy dźwięk także w tych mediach.</p> <p>Wspomniane serwisy są nieodpowiedzialne z komercyjnego i ekologicznego punktu widzenia. Redukcja danych sprzyja obniżeniu emisji gazów cieplarnianych, natomiast zwiększanie strumienia audio czy wideo daje dokładnie odwrotny skutek. Popyt na wysoką jakość strumienia nie powinien negatywnie odbijać się na naszej planecie. To także jest wpisane w dewizę MQA. Co więcej, serwisy takie, jak Apple czy Amazon używają techniki adaptacyjnego streamingu w celu redukcji przepływności w czasie rzeczywistym, co powoduje, że niekoniecznie wiemy, jaki strumień w danym momencie do nas płynie. Jak wyjaśnię w dalszej części, strumień MQA jest z definicji poświadczony (ang. authenticated), podczas gdy wymienione serwisy bezstratne udostępniają pliki bez żadnej gwarancji ich zawartości czy pochodzenia. W tym sensie pomysł rozszerzania pasma transmisji, by dostarczać coś nie do końca sprawdzonego wydaje się jeszcze bardziej wadliwy.</p> <p><strong>AV: Deblurring jest fascynującym konceptem. Z naszej wcześniejszej korespondencji wywnioskowałem, że zespół MQA jest w stanie zdjąć „odcisk palca” magnetofonu użytego w zapisie analogowego mastera, jeśli stan urządzenia na to pozwala, a taśma jest w dobrym stanie. Jak taki proces wygląda w praktyce i ile takich projektów zrealizowano?</strong></p> <p>BS: Używamy specjalnych sygnałów testowych, które są nagrywane na taśmę referencyjną za pomocą badanego magnetofonu, a następnie odtwarzane w przód i w tył. Łącząc kilka różnych pomiarów otrzymujemy „odcisk” napędu, głowicy i elektroniki. Taka charakteryzacja była robiona wiele razy dla różnych magnetofonów (analogowych i cyfrowych) w studiach masteringowych, a rezultaty użyte w setkach wydań MQA.</p> <p><strong>AV: W przypadku masterów (nagrań) cyfrowych wspomniałeś, że procedura może przebiegać na trzy różne sposoby. Albo inżynier od masteringu korzysta z waszych narzędzi, albo dokonywany jest pomiar użytego przetwornika ADC, albo używa się automatycznego procesu „bazującego na koderze, który przećwiczono na podstawie wielu przykładów znanych systemów. […]” Padło również sformułowanie:</strong></p> <p>„Nie ma znowu tak wiele typów przetworników ADC. W rzeczywistości garść rodzajów chipów pokrywa zdecydowaną większość rynku studyjnego. Po 6 latach bliskiej współpracy ze studiami masteringowymi regularnie sprawdzamy zautomatyzowany proces kodowania, konfrontując wyniki z odsłuchami. Po kilku milionach zakodowań jest to gładki proces, który rzadko przynosi niespodzianki”. Rodzi się pytanie, która z tych opcji jest najczęściej stosowana?</p> <p>BS: Gdy tylko jest to możliwe, realizujemy „projekty w białych rękawiczkach”, charakteryzując konkretny konwerter a/c. Było to robione dla kilku niezależnych specjalistów. Często się zdarza, że z danym wydawcą tworzymy procedurę, w którą oni sami są głębiej zaangażowani, tworząc wstępny setup dla swoich systemów, który potem jest ponownie wykorzystywany przy kolejnych wydaniach. Ponieważ ta zautomatyzowana metoda przynosi dobre rezultaty, a inwestycja mieści się w budżecie wydawców, jest ona najczęściej stosowana. Jesteśmy zadowoleni z każdej z tych metod — wybór konkretnej uzależniamy od dostępnego budżetu.</p> <p><strong>AV: Wiemy, że koder MQA dzieli zakres częstotliwości w nagraniu na trzy pasma: A, B i C, z czego B jest dzielone na podpasma B1 i B2. Jaki zakres częstotliwości jest typowy dla B: 24–48 kHz? Czy jest on z góry ustalony, czy może zależny od spektrum lub innych cech nagrania? Wiadomo, że niektóre instrumenty, jak trąbka czy talerze mogą produkować harmoniczne o częstotliwościach znacznie przekraczających 48 kHz.</strong></p> <p>BS: Zakładając, że pytanie dotyczy materiału źródłowego o próbkowaniu 192 kHz, to tak, jak sugerujesz, cała zawartość muzyczna w drugiej oktawie (B) zostaje uchwycona. To, że rdzeń o próbkowaniu 96 kHz jest tak często stosowany wynika z tego, że w nagraniach komercyjnych nie pojawiają się informacje w zakresie częstotliwości powyżej 48 kHz. Tak mówią nam statystyki milionów dotąd przeanalizowanych utworów muzycznych. Koder analizuje spektrum szczytów sygnału muzycznego i określa, czy w tym zakresie pasma użyteczna informacja jest poniżej, czy powyżej poziomu szumów. Jeśli powyżej, to koder wyświetla ostrzeżenie i wówczas mamy możliwość zastosowania wyższego tempa transmisji (niż 48 kHz – przyp. F.K.), jednak są to niezwykle rzadkie przypadki (garść na miliony zakodowanych utworów). Dlaczego tak to wygląda? Rzeczywiście, użycie specjalnego mikrofonu, który rejestruje w bliskim polu trąbkę czy klawesyn pozwala zarejestrować harmoniczne powyżej 48 kHz. Sęk w tym, że nie obserwujemy tego efektu w nagraniach komercyjnych — albo dlatego, że nie pozwala na to sam mikrofon, albo po prostu znajduje się on zbyt daleko od instrumentu (efekt tłumienia bardzo krótkiej fali akustycznej – przyp. F.K.). Co więcej, instrumenty elektroniczne zachowują się w pewnym sensie podobnie do akustycznych – również nie produkują dźwięków powyżej rozważanego zakresu.</p> <p><strong>AV: Jaka jest relacja pasm B1 i B2 i czemu służy ten dodatkowy podział?</strong></p> <p>BS: Podział między pasma A i B jest bezstratny, tak samo bezstratny jest podział pomiędzy B1 i B2. Ten drugi pozwala nam zoptymalizować efektywność kodeka przy doskonałym zachowaniu odpowiedzi w domenie czasowej.</p> <p><strong>AV: Czy poniżej poziomu szumów w paśmie A faktycznie znajduje się dość przestrzeni, by móc w niej pomieścić całą informację muzyczną z pasma B w przypadku nagrań klasycznych i jazzowych? To bardzo istotne, jeśli chce się wykazać, że MQA jest formatem bezstratnym.</strong></p> <p>BS: Opublikowaliśmy dane pokazujące rzeczywisty poziom szumów w nagraniach. Zwykle jest to przestrzeń wystarczająca nie tylko do ukrycia w niej informacji wysokoczęstotliwościowej, ale także do tego, by mieć dostateczny margines bezpieczeństwa. W bardzo rzadkich przypadkach, gdy energia wysokoczęstotliwościowa nie może zostać upchnięta poniżej progu szumów w pasmie A, koder wyśle ostrzeżenie i zatrzyma się.</p> <p><strong>AV: Jaka jest rola pasma C, skoro zawiera ono głównie szum kwantyzacji? Czy koder jest w stanie wyekstrahować stamtąd dodatkową informację muzyczną (jeśli jest tam takowa)?</strong></p> <p>BS: Pasmo C jest artefaktem częstotliwości próbkowania. Przetwornik a/c generuje szum własny nawet przy braku sygnału (ciszy). W rozważanym rejonie obserwujemy, że szum jest niezależny od sygnału muzycznego w niższych oktawach. Inaczej mówiąc, jest to szum przypadkowy, losowy. Nie słychać go, ale jeśli byśmy go odfiltrowali, wówczas usłyszelibyśmy działanie filtru. C nie zawiera zatem użytecznej informacji, pożera za to mnóstwo danych w uproszczonym kodowaniu PCM.</p> <p><strong>AV: Kształtowany szumowo sygnał zielony na wykresie, według informacji na Waszej stronie: „zawiera informację o nagraniu, instrukcje dla dekodera, jak również B i C”. W których bitach oryginalnego sygnału 24-bitowego jest zawarty?</strong></p> <p>BS: Sygnał ten jest bezstratnie usuwany przez dekoder, tak więc zapis MQA wykonany w studiu zostaje odzyskany bit po bicie.</p> <p><strong>AV: Jak mają się te wszystkie manipulacje na sygnale do idei bezstratności MQA?</strong></p> <p>BS: Celem MQA jest bezstratność w domenie analogowej. To, do czego się odnosisz, to bezstratność na poziomie sygnału cyfrowego, w której to koncepcji byliśmy pionierami w latach 90 (MLP — przyp. F.K.). Rozwiązuje ona tylko wąski aspekt znacznie szerszego problemu — jak przesuwać dane audio z umiarkowaną efektywnością. Plik bezstratny mówi nam, że dane zostały precyzyjnie przetransferowane, ale nie jest to świadectwo jakości sygnału, jego rozdzielczości, a jedynie kontenera. Problem, z którym postanowiliśmy się zmierzyć jest większy, poważniejszy — jak usunąć artefakty procesu konwertowania sygnału audio do postaci cyfrowej, a potem sygnału cyfrowego do analogowego. Nasz przekaz pod tym względem nigdy się nie zmienił. Deblurring, enkapsulacja, origami, a następnie dekodowanie, poświadczenie i renderowanie osiągają założony cel w sposób, który jest wstecznie kompatybilny. Naturalnie, gdy sygnał zostanie już zakodowany do MQA, jest przekazywany z wytwórni muzycznej w bezstratnym kontenerze. Założeniem jest uzyskanie znacznie lepszej jakości audio o zdecydowanie poprawionej rozdzielczości czasowej. Biorąc pod uwagę to, że wyczyściliśmy dane i przygotowaliśmy je dla danego DAC-a (w procesie renderingu – przyp. F.K.), faktycznie można wysnuć wniosek, że dane zostały zmienione. Zaznaczam, że dzieje się tak tylko dlatego, żeby uzyskać lepszy efekt końcowy! Równie dobrze można powiedzieć, że mycie okna jest zabiegiem stratnym, ponieważ zmyliśmy brud z szyby. A chyba nikt nie zaprzeczy, że mycie okna poprawia widok.</p> <p><strong>AV: Unfolding (rozpakowywanie) – czy jest to proces dwu- czy czasami nawet trzyetapowy? </strong><br /><strong>a.) Czy słuszne jest myślenie, że pierwszy unfold „odwija” dane z pasma B, czemu towarzyszy dwukrotne zwiększenie częstotliwości próbkowania? </strong><br /><strong>b.) Drugi unfold ponownie podwaja częstotliwość próbkowania, ale istnieją nagrania w MQA pochodzące z materiałów 352,8 lub 384 kHz. Jak te wszystkie rozwinięcia mają się do pasma C?</strong></p> <p>BS: System MQA bazuje na idei, że rdzeń (Core) zawiera całą istotną muzycznie zawartość nagrania. Odpowiedź na pytanie a.) brzmi twierdząco. Odpowiedź na pytanie b.) jest natomiast bardziej złożona. W opisanym przypadku, materiału o próbkowaniu powyżej 96 kHz i tempa transmisji 48 kHz rdzeń jest tworzony w procesie zawinięcia kapsułkowego (ang. encapsulation fold) za pomocą systemu bazującego na hierarchii krzywych B-sklejanych, co zostało wytłumaczone w jednej z prac przedstawionych na konwencji AES. Koncepcyjnie rzecz biorąc, kodowanie i dekodowanie bazują na dwóch kolejnych etapach rozwinięć od i do analogu (za analog uważa się sygnał o nieskończonej częstotliwości próbkowania).</p> <p>Jeśli myślimy o odtwarzaniu, to unfolding może być kontynuowany nie tylko do częstotliwości próbkowania materiału źródłowego, ale także do najwyższej częstotliwości próbkowania obsługiwanej przez dany DAC (nawet do 24 MHz). Choć sama idea uwzględnia dużą liczbę unfoldów, to jednak można je arbitralnie spleść w mniejszą liczbę etapów. Dlatego też urządzenie renderujące odtwarzany sygnał 8x (np. 352,8 kHz) lub 16x (np. 768 kHz) może zrenderować rdzeń MQA za pomocą jednego lub więcej kroków. Nie ma faktycznego rozróżnienia pomiędzy drugim, trzecim czy czwartym rozwinięciem. Kaskada tych kroków może być wykonana jednorazowo lub etapami — tak długo, jak wyjście analogowe „pasuje" do intencji kodera.</p> <p><strong>AV: Omówmy pokrótce dekodowanie rdzenia i rendering od strony użytkowej. Czym różni się jedno od drugiego i czym są urządzenia określane jako MQA Renderer i MQA Full Decoder?</strong></p> <p>BS: Dekoder rdzenia MQA (ang. MQA Core Decoder) może działać na różnych platformach. Jest wbudowany w odtwarzacze programowe takie, jak Roon, Audirvana, ale również w przetworniki c/a, amplitunery A/V, odtwarzacze CD, streamery, odtwarzacze przenośne (DAP-y), cyfrowe zestawy głośnikowe itd. Dekoder rdzenia dokonuje pojedynczego rozwinięcia do podwojonej częstotliwości próbkowania (2x), wydobywając ukryte informacje muzyczne z pasma B. Drugie rozwinięcie zawsze ma miejsce w rendererze, który jest komplementarnym etapem do enkapsulacji (w koderze). Ponieważ intencją jest wykreowanie analogowego sygnału audio, renderer jest zawsze ściśle powiązany z przetwornikiem c/a. Zwracam uwagę, że każdy renderer jest inny — dopasowany w taki sposób do każdego przetwornika c/a, aby dać właściwy sygnał na jego wyjściu (analogowym). Komplementarność enkapsulacji (rdzenia) i renderingu jest krytyczną cechą systemu — zapewnia możliwie najmniejsze rozmycie czasowe w całym łańcuchu sygnałowym, od początku do końca. Z tego powodu nie istnieją renderery z wyjściem cyfrowym.</p> <p>Dekoder rdzenia MQA może być połączony z rendererem w jednym urządzeniu typu Full Decoder DAC.</p> <p><strong>AV: MQA na Tidalu. Z moich i nie tylko moich doświadczeń wynika, że materiał muzyczny na tej platformie potrafi brzmieć inaczej niż w przypadku plików uzyskanych ze zgrania płyt CD lub z downoladów. Znane są mi przypadki teoretycznie tych samych albumów, jak np. „Slowhand” Erica Claptona, które brzmią zaskakująco różnie w wersji hi-res z HDTracks i w wersji MQA na Tidalu. Gdzie leży przyczyna tych rozbieżności?</strong></p> <p>BS: Bardzo trudno jest przeprowadzać miarodajne porównania pomiędzy poszczególnymi serwisami streamingowymi. Generalnie nie znamy pochodzenia pliku z downloadu i ze streamingu. Założenie, że są one jednakowe często okazuje się błędne. Właśnie z tego powodu zaimplementowaliśmy do MQA mechanizm poświadczenia (ang. authentication). Chodzi o to, że pliki PCM nie zawsze są masterami ze studia. Gdy wytwórnia wypuszcza album w formacie PCM, jest to przeważnie eksport z projektu masteringowego, a niekoniecznie master jako taki (najczęściej zmiennoprzecinkowy). Mastering jest procesem kształtowania nagrania pod kątem mechanizmu jego dostarczenia. Z tego powodu, plik PCM może mieć różne częstotliwości próbkowania, różne poziomy, różne kompresje. W dystrybucji istnieją różne wymogi dla platform streamingowych, radia, czy płyt. Plik może być zmieniany, normalizowany lub transkodowany przez dystrybutora. To jest kluczowa różnica względem dawnych czasów, gdy master był używany wewnętrznie przez daną wytwórnię płytową dla celów replikacji — produkowania płyt czy kaset.</p> <p>Należy także zauważyć, że zależnie od treści (nagrania) może istnieć jeden zatwierdzony master i wiele jego pochodnych. Dlatego zawsze prosimy, aby MQA przygotowywać z definitywnie potwierdzonego źródła.</p> <p>W przypadku popularnych nagrań żyjący artyści i/lub ich producenci nierzadko wpadają na pomysł wykonania remasteringu lub wzbogacenia starego albumu. Wówczas istnieje więcej niż jeden zatwierdzony master. Przykłady to chociażby Led Zeppelin czy The Beatles, a także — jak w przytoczonym przykładzie — Eric Clapton i wspomniany przez ciebie „Slowhand”. Istnieje aż pięć wersji mastera tego albumu z różnych okresów (!). Ten w posiadaniu HDTracks jest stary i nie stanowi źródła dla streamingu z Tidala czy innych serwisów. Były remastery edycji specjalnej, rocznicowej… Moi ludzie podpowiedzieli mi, że trzy z tych masterów są na Tidalu w MQA. Całkiem możliwe, że nie ma miejsc, w których mógłbyś rzetelnie porównać wersję PCM z MQA…</p> <p>Gdy wytwórnia decyduje się na wydanie MQA, ma ono powstać na bazie najwyższej jakości dostępnego mastera (PCM lub DSD). Dla każdego nagrania powinna istnieć tylko jedna taka wersja. Wydanie MQA jest podpisywane przez właściciela licencji, artystę lub producenta. To jest właśnie to poświadczenie. Plik lub stream MQA jest dostarczany w bezstratnym kontenerze (zwykle we FLAC-u). W celu prawidłowego odtworzenia, cały tor odczytu musi być zgodny bitowo (bezstratny). Omawiana koncepcja została przychylnie przyjęta przez społeczność twórców, ponieważ jest to jedyny sposób, w jaki można zapewnić to, że słuchacz otrzymuje dokładnie ten zapis, który powinien i słyszy go zgodnie z intencją twórców.</p> <p><strong>AV: 16-bitowe MQA — po co i dlaczego jest oferowane, poza płytami MQA CD wydawanymi w Japonii?</strong></p> <p>BS: W przypadku płyt MQA CD materiał może pochodzić z dowolnego źródła o częstotliwości próbkowania od 44,1 do 352,8 kHz, 24-bitowego, zmiennoprzecinkowego lub DSD64/128/256 itd. Jest wykonany z plików zawierających bliskie przybliżenie użytecznych danych audio powyżej 22 kHz. Działa to naprawdę dobrze.</p> <p>Drugim przypadkiem użycia 16-bitowych plików MQA jest dostępność oryginalnego mastera wyłącznie w jakości 16 bitów/44,1 kHz (z taką sytuacją mamy do czynienia np. w przypadku albumu „Brothers in Arms” –przyp. F.K). Nie istnieje potrzeba rozszerzania zapisu o dodatkowe 8 bitów, skoro proces MQA zajmuje tylko 0,15 bita i zachowuje dynamikę 16-bitowego nagrania. Co więcej, godziłoby to w zasady, które omówiłem w odpowiedzi na pierwsze pytanie. Sztuczne zwiększenie długości słów byłoby nieodpowiedzialne w sytuacji, gdy ludzie płacą za pakiety danych lub mają narzucone limity ich wykorzystania — tym bardziej, że nie byłoby z tego żadnych korzyści.</p> <p>&nbsp;</p> <p><em>Artykuł pochodzi z Audio-Video 9/2021 - <a href="https://sklep.avtest.pl/produkt/audio-video-pdf-09-2021/"><strong>KUP PEŁNE WYDANIE</strong></a></em></p></div>
Wpływ obciążenia na pasmo przenoszenia wkładki 2020-07-16T08:55:08+00:00 2020-07-16T08:55:08+00:00 https://m.avtest.pl/artykuly/technika/item/1113-wplyw-obciazenia-na-pasmo-przenoszenia-wkladki Webmaster webmaster@av.com.pl <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/884076e32a85fde4d5ab4fe1dc1af0d4_S.jpg" alt="Wpływ obciążenia na pasmo przenoszenia wkładki" /></div><div class="K2FeedIntroText"><p>Ciekawy temat, niestety rzadko poruszany przez producentów wkładek gramofonowych i przedwzmacniaczy korekcyjnych:&nbsp;Jak (i dlaczego?) impedancja obciążenia wpływa na parametry odsłuchu? Będzie trochę technicznie, ale chyba warto.</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Ludwik Igielski, Filip Kulpa</p> <hr /> <p style="text-align: center;"><img style="border: 1px solid #000000;" title="Lyra Delos" src="https://m.avtest.pl/images/technika/Lyra-Delos-main.jpg" alt="Lyra Delos" /></p> <p>Wśród miłośników gramofonów oraz młodych adeptów techniki analogowej panuje powszechne mniemanie, że za słabą jakość brzmienia gramofonów są odpowiedzialne złe dopasowanie mechaniczne między ramieniem a wkładką, słaba zdolność śledzenia rowka przez wkładkę czy nawet jej określone cechy dźwiękowe. Nie zawsze okazuje się to prawdą. Nierzadko przyczyna problemu tkwi w nieodpowiednim dopasowaniu elektrycznym wkładki i wejścia phono.<br />Wkładki gramofonowe generują bardzo mały sygnał wyjściowy (szczególnie dotyczy to niskopoziomowych przetworników MC). Ponadto zawierają składniki reaktancyjne (cewki), przez co charakter obciążenia może wpływać na charakterystykę częstotliwościową układu. Poziom wyjściowy wkładek MC bywa na tyle mały, że czasem używa się sprzężenia transformatorowego z przedwzmacniaczem, a to kolejne źródło ewentualnego niedopasowania. O tym również przeczytacie w tym artykule.</p> <p>&nbsp;</p> <h2>Rezonans elektryczny</h2> <p>W każdym układzie drgającym występuje zjawiski rezonansu. Instynktownie, bez głębszej wiedzy technicznej, rozumiemy naturę rezonansu mechanicznego –&nbsp;w szczególności zjawisko dotyczy także gramofonów (ale to temat na inną okazję). Nieco trudniejszym pojęciem jest rezonans elektryczny. Dla potrzeb niniejszych rozważań ograniczymy się do stwierdzenia, że obwód elektryczny zawierający pojemność (C), indukcyjność (L) i rezystancję (R) również jest podatny na to zjawisko – tak samo jak huśtawka, kawał blachy, obudowa głośnika, zawieszenie gramofonu czy układ ramienia i wkładki. Występuje tu pełna analogia do układów mechanicznych. Różnica polega wyłącznie na tym, że jedne parametry zastępujemy innymi.</p> <p>Wkładka gramofonowa wraz z przewodami łączącymi je z przedwzmacniaczem phono oraz nim samym również tworzy obwód RLC, który –&nbsp;w myśl powyższego –&nbsp;jest podatny na występowanie rezonansu elektrycznego. Pojawia się on przy określonej częstotliwości – tzw. częstotliwości rezonansowej. Zazwyczaj występuje ona poza górną granicą pasma akustycznego, może jednak występować w pasmie akustycznym –&nbsp;to w przypadku wkładek z ruchomym magnesem. Jednak nawet gdy rezonans pojawia się przy kilkudziesięciu kilohercach, może mieć wpływ na charakterystykę przenoszenia wkładki oraz brzmienie w ogóle. Z tego właśnie względu poprawne dopasowanie wkładki do obciążenia (przedwzmacniaczem) jest zagadnieniem, którego nie powinno się lekceważyć.</p> <p><strong>Na potrzeby naszych rozważań istotne będą dwie podstawowe zależności:</strong></p> <ul> <li>częstotliwość rezonansową układu wkładka-przedwzmacniacz określają dwie wielkości: indukcyjność wkładki (L) oraz pojemność wejściowa stopnia phono (C), a ściślej – jej suma z wartością pojemności interkonektu i przewodu w ramieniu. Uściślając, liczy się iloczyn obu tych wartości (LC), a uściślając jeszcze bardziej –&nbsp;pierwiastek kwadratowy z tej wartości. Szczegóły w dalszej części artykułu.</li> <li>wielkość rezonansu (obserwowanego jako pik na charakterystyce częstotliwościowej) determinuje rezystancja wejściowa przedwzmacniacza. Jej zadaniem jest tłumienie rezonansu układu na analogicznej zasadzie jak amortyzator tłumi tendencję auta do bujania się na wybojach czy pofalowaniach nawierzchni. Rezystancja obciążenia minimalizuje dzwonienie i przerzuty w sygnale elektrycznym. Parametry obciążenia wpływają na poziom szumów, ale przede wszystkim na przebieg charakterystyki częstotliwościowej – na to, jak duże podbicie/tłumienie sygnału wysokoczęstotliwościowego może wystąpić.</li> </ul> <p>Z punktu widzenia szumów duża wartość rezystancji obciążenia jest korzystna. W odniesieniu do wkładek MC nie jest to jednak zazwyczaj dobre rozwiązanie, ponieważ im większa wartość obciążenia (w skrajnym wypadku – 47 kΩ), tym słabsze tłumienie rezonansu. Optymalny przedwzmacniacz gramofonowy dla wkładek MC powinien się cechować małą impedancją obciążenia: 20–200 Ω. Tak mała wartość utrudnia jednak utrzymanie niskiego poziomu szumów.</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/arcam-rPhono-gniazda.jpg" alt="arcam rPhono gniazda" /></p> <p style="text-align: center;">&nbsp;<strong><em>Współcześnie produkowane przedwzmacniacze phono – nawet te niezbyt drogie, jak Arcam rPhono – są wyposażane w możliwość dość dokładnego strojenia wejść MM i MC.</em></strong></p> <p>&nbsp;</p> <h2>Trochę teorii (dla dociekliwych)</h2> <p>Wkładkę gramofonową można przedstawić w formie układu zastępczego, zawierającego źródło napięcia Vc, połączone szeregowo z indukcyjnością wkładki Lc i rezystancją wkładki Rc. Pojemność kabla połączeniowego i pojemność wejściową przedwzmacniacza przedstawiono za pomocą kondensatora Ca (suma obu wartości), a rezystancję wejściową przedwzmacniacza – jako Ra. Dla dalszych rozważań istotne są wartości Lc, Ca (dalej, dla uproszczenia, będziemy używać symboli L i C) oraz Ra (R).</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/Schemat.png" alt="Schemat" /></p> <p>Za pomocą symulacji kalkulatora zamieszczonego na stronie: <a href="http://www.hagtech.com/loading.html" target="_blank" rel="noopener">http://www.hagtech.com/loading.html</a></p> <p>lub po prostu wzoru:</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/F_rez.png" alt="F rez" width="300" height="125" /></p> <p>można łatwo obliczyć częstotliwość rezonansową układu. Weźmy praktyczny przykład: wkładka Goldring GX1042 (L=570 mH) obciążona typową pojemnością wejściową C=100 pF. Częstotliwość rezonansowa wynosi w tym przypadku 21,1 kHz. Zwiększenie pojemności wejściowej do 200 pF (co nie jest „trudne”, zważywszy na fakt, że przeciętny interkonekt ma pojemność rzędu 100 pF, którą należy zsumować z pojemnością wejściową stopnia phono) przesuwa rezonans układu do zaledwie 14,9 kHz, co bezdyskusyjnie będzie wpływać na reprodukcję wysokich tonów. Dalsze zwiększanie pojemności wejściowej –&nbsp;na przykład do 400 pF – przesuwa pik do częstotliwości 10,5 kHz, co będzie tym bardziej słyszalne.</p> <p>Warto wspomnieć, że standardowa rezystancja obciążenia dla wejść MM wynosząca 47 kΩ zapewnia dość skuteczne tłumienie rezonansów, jednak nie da się łatwo przewidzieć, jak duże byłoby podbicie. Tym bardziej, że w naszym obwodzie wkładki i obciążenia (przedwzmacniacza) tworzy się filtr dolnoprzepustowy. Ze względu na duże wartości indukcyjności wkładek MM (kilkaset mH) pasmo wkładki tego typu jest dość silnie ograniczone. I tak, dla naszej przykładowej wkładki (L=570 mH) górna granica odcięcia wynosi 13,1 kHz. Na ten wczesny spadek nakłada się wspomniany rezonans układu wkładka-przedwzmacniacz – zależny od pojemności wejściowej i kabla. Nic dziwnego, że charakterystyka przenoszenia systemu analogowego, opartego na wkładce MM, nie może być płaska w górnym zakresie pasma akustycznego.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/wkladki/inductance.gif" alt="inductance" /></p> <p style="text-align: center;"><strong><em>Symulacja wpływu indukcyjności wewnętrznej wkładki (MM/MC) na jej rezonans i pasmo przenoszenia. Wartości bezwzględne nie są istotne – ważna jest ogólna tendencja. Źródło: <a href="https://www.hagtech.com">www.hagtech.com</a></em></strong></p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/wkladki/capacitance.gif" alt="capacitance" /></p> <p style="text-align: center;"><strong><em>Symulacja wpływu pojemności wejściowej przedwzmacniacza (wraz z kablem) na rezonans i pasmo przenoszenia wkładki MM. Niewielka pojemność może pomóc „wyciągnąć" dość słabo rozciągniętą górę większości wkładek MM, ale zbyt duża pojemność obciążenia (powyżej 200 pF) spowoduje mocne podbicie góry. Wartościami bezwzględnymi nie należy się sugerować. Źródło: <a href="https://www.hagtech.com">www.hagtech.com</a></em></strong></p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/wkladki/cart-load-f2.gif" alt="cart load f2" /></p> <p style="text-align: center;"><strong><em>Symulacja wpływu pojemności obciążenia dla wkładki MM o indukcyjności 500 mH. Obciążenie 47 kΩ dobrze tłumi rezonans i przy pojemności wejściowej 100 pF otrzymujemy płaską charakterystykę. Źródło: <a href="http://sound.whsites.net">http://sound.whsites.net</a></em></strong></p> <p>&nbsp;</p> <p><strong>Generalnie rzecz biorąc, im wkładka ma mniejszą indukcyjność, tym szersze jest jej pasmo przenoszenia.</strong> Oznacza to, że wkładki MC mają o wiele szersze pasmo niż wkładki MM. Weźmy dla przykładu wkładkę MC (Audio-Technica AT-OC9XSL) o indukcyjności 25 uH (1 kHz) – (to aż o cztery rzędy wielkości mniejsza wartość niż dla wkładek MM!) i jej obciążenie rezystancją 100 Ω – typową wartością „domyślną” dla wejść MC. Otrzymujemy wynik 637 kHz, tymczasem pasmo przenoszenia dobrych wkładek MC sięga z reguły 50–60 kHz. Skąd tak duża różnica? Nie można zapominać, że wkładka MC jest elementem mechanicznym, o określonej masie, a co za tym idzie –&nbsp;bezwładności. Oczekiwanie, że igła wraz ze wspornikiem mogłyby przenosić drgania o częstotliwości 500 kHz jest nierealistyczne.</p> <p>Proste wyliczenia częstotliwości rezonansowej układu wkładka MC-przedwzmacniacz phono także dają wyniki rzędu setek kiloherców (a nawet powyżej 1 MHz), więc wydawać by się mogło, że problem konieczności tłumienia rezonansu w tym wypadku nie istnieje. Niestety, mało który producent wkładek MC podaje wartości indukcyjności, a pomiar tej wartości zwykłym miernikiem rodzi ryzyko uszkodzenia cewki i jest obarczony dużym błędem. Tak więc w znakomitej większości przypadków nie możemy określić, choćby w przybliżeniu, jak wysoko leży rezonans i jak szerokie jest pasmo, a w związku z tym – jak bardzo należy ów rezonans tłumić mniejszą rezystancją obciążenia. Co w tej sytuacji? Jedyną miarodajną metodą jest pomiar pasma przenoszenia wkładki za pomocą specjalistycznej płyty testowej (co wymaga użycia urządzenia pomiarowego, oscyloskopu) i wyciągnięcie na tej podstawie wniosku, czy potrzebne jest większe (za dużo góry), czy też mniejsze (za mało góry) tłumienie.</p> <p>Optymalną wartość obciążenia w zależności od indukcyjności wkładki i pojemności wejściowej obciążenia można także próbować określić ze wzoru:</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/Ropt.png" alt="Ropt" width="300" height="143" /></p> <p>Reasumując, wkładki MC mają dużo szersze pasmo przenoszenia niż bardziej popularne i przystępne cenowo przetworniki MM. Szerokość tego pasma zależy jednak od wartości rezystancji wejściowej przedwzmacniacza (i do pewnego stopnia także pojemności).</p> <p>&nbsp;</p> <h2>Obciążenie MC – praktyka</h2> <p>W praktyce, najczęściej stosowaną rezystancją obciążenia wejścia MC jest wartość 100 Ω, co wynika także z ogólnego zalecenia dotyczącego dopasowania impedancji wejściowej wzmacniacza do rezystancji cewki wkładki. Mówi ona, że ta pierwsza wartość powinna być od 5 do 10 razy większa od drugiej. Natomiast w przypadku transformatorów wielokrotność powinna wynosić od 1 do 5 razy. Przyczyną tego jest fakt, że indukcja w cewkach transformatora ma bezpośredni wpływ na wielkość obciążenia wkładki.</p> <p>Zwiększanie rezystancji obciążenia ze 100 na przykład do 330 Ω czy 1 kΩ powoduje zmniejszenie tłumienia rezonansu wysokoczęstotliwościowego i generalnie przyczynia się do uzyskania nieco jaśniejszego brzmienia wkładek MC. W ich przypadku <strong>wpływ pojemności wejściowej jest znacznie mniejszy niż dla wkładek MM.</strong> Niektórzy producenci, jak np. Lyra, udzielają bardzo konkretnych wskazówek dotyczących rekomendowanych wartości obciążenia zależnie od pojemności wejściowej. Większa wartość pojemności wejściowej redukuje optymalną wartość obciążenia (i vice versa), przy czym ta współzależność jest raczej słaba i nie ma charakteru liniowego, o czym warto pamiętać.</p> <p>Niektóre przedwzmacniacze gramofonowe MC nie umożliwiają dokładnego dopasowania w zakresie impedancji i pojemności. Dotyczy to głównie sytuacji, gdy jest to moduł wbudowany we wzmacniacz zintegrowany albo występuje jako część przedwzmacniacza kompletnego. Ma to swoje dobre i złe strony. Korzystną cechą będzie to, że z góry zadana rezystancja wejściowa prawdopodobnie będzie miała wartość w zakresie od 50 do 100 Ω, co stanowi przydatną wartość dla wielu modeli wkładek z ruchomymi cewkami. I tylko w sporadycznych przypadkach może się okazać zbyt mała. Ograniczeniem takiego rozwiązania jest gorsza kompatybilność z bardziej nietypowymi wkładkami. Z tego względu godne polecenia są te modele phonostage’y, które wyposażono w obrotowe przełączniki lub potencjometry umożliwiające zmianę nastaw wejściowych w czasie rzeczywistym podczas krytycznego odsłuchu.</p> <p>&nbsp;</p> <h2>Czym się objawia brak dopasowania?</h2> <p>Słabe dopasowanie impedancji między wkładką z ruchomymi cewkami a wejściem phono czy urządzeniem zapewniającym dodatkowe wzmocnienie (step-up) najczęściej jest przyczyną rozczarowującej jakości dźwięku. Objawy mogą być różne i trudno jest w tym miejscu uogólnić, czego dokładnie można się spodziewać. Typowe objawy to słyszalne „dzwonienie” wysokich tonów, nierównomierne pasmo przenoszenia (łatwe do wychwycenia), a także zwiększony poziom szumów. Instrumenty strunowe mogą mieć „skrzeczące” brzmienie, wokale będą stłumione, a cały przekaz nie będzie żywy i interesujący.</p> <p>Słyszalne efekty przy zbyt dużej impedancji obciążenia objawiają się zwykle brakiem niskich częstotliwości, nieco twardym lub „technicznym” dźwiękiem, o słabym obrazowaniu. Jeśli z kolei brzmienie jest nieco zawoalowane i martwe, to najprawdopodobniej impedancja obciążenia jest zbyt mała. Jednakże przed podjęciem jakichkolwiek działań dobrze jest ustalić, jak producent określił wymaganą impedancję obciążenia oraz oczywiście sprawdzić parametry wejścia gramofonowego lub transformatora dopasowującego.</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/Moon-110LPV2-spod.jpg" alt="Moon 110LPV2 spod" /></p> <p>&nbsp;</p> <h2>Transformatory dopasowujące</h2> <p>Dla wielu osób może być to dość niezrozumiały i trudny temat z powodu nieliniowości transformacji impedancji. Mówiąc najprościej, zmiana impedancji zależy od kwadratu ilorazu zwojów. W przypadku przekładni 1:10 (20 dB) impedancja jest przekształcana o współczynnik 100. Oznacza to, że przy obciążeniu uzwojenia wtórnego rezystancją 47 kΩ (transformator dołączony do standardowego wejścia MM) uzwojenie pierwotne odzwierciedla impedancję 470 Ω – taką wartość „widzi” wkładka MC.</p> <p>Spotyka się różne rodzaje transformatorów. Standardowe przekładnie to 1:5 (14 dB), 1:10 (20 dB), 1:20 (26 dB) i 1:30 (30 dB). W związku z tym przy współpracy z wejściem 47 kΩ każdy z nich będzie charakteryzował się inną wartością impedancji wejściowej widzianej przez wkładkę.</p> <p><strong>Aby uzyskać właściwe dopasowanie, możliwe są dwa scenariusze:</strong></p> <ul> <li>zmieniamy impedancję wejściową we współpracującym z transformatorem przedwzmacniaczu albo dokładamy równolegle do 47 kΩ dodatkową rezystancję. Wartość można obliczyć ze wzoru na rezystancję zastępczą dwóch rezystorów połączonych równolegle (iloczyn wartości podzielony przez ich sumę).</li> <li>drugą opcją jest umieszczenie równoległego rezystora po stronie pierwotnej transformatora, ale wtedy należy w obliczeniach uwzględnić wartość przekładni zwojowej podniesioną do kwadratu.</li> </ul> <p>Każdy transformator czy cewka charakteryzuje się indukcyjnością, a więc pewną nieliniowością. Z kolei indukcyjność transformatora zmienia się wraz z częstotliwością. I tu mogą się pojawić słyszalne komplikacje, a uzyskane wyniki okazać się nieprzewidywalne. Okolicznością łagodzącą będzie to, że szum wnoszony przez takie urządzenie pasywne praktycznie nie istnieje. Zwłaszcza gdy porównamy z aktywnym przedwzmacniaczem, który zawsze wytwarza pewien poziom niepożądanego szumu.</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/jc3jr_black_back.jpg" alt="jc3jr black back" /></p> <p>Zbyt mała impedancja obciążenia transformatora, tłumiąc efekt dzwonienia i rezonansu elektrycznego, może spowodować znaczny spadek mocy na wyjściu. Jeśli producent transformatora nie określił inaczej, należy zacząć eksperymenty od standardowej wartości 47 kΩ stosowanej dla wkładek MM. Jeśli dźwięk jest zbyt jasny i ofensywny, to warto spróbować zmniejszyć impedancję obciążenia wejściowego, o ile opcja ta jest dostępna.</p> <p>Natomiast jeśli dźwięk jest ciemny, stłumiony i pozbawiony dynamiki, impedancja może być zbyt mała, ale nie zawsze, ponieważ wartość 47–50 kΩ mieści się w zakresie oczekiwanej impedancji wejścia gramofonowego. Prawidłowe obciążenie skutkuje kontrolą nadmiernego „dzwonienia” i ogranicza słyszalne anomalie odpowiedzi częstotliwościowej do minimum.</p> <p>Reasumując, jeśli to możliwe, należy stosować przedwzmacniacze gramofonowe z możliwością doboru impedancji obciążenia zamiast transformatora dopasowującego. Wyjątkiem może być sytuacja, w której transformator został specjalnie zaprojektowany dla konkretnej wkładki.</p> <p>&nbsp;</p> <h2>Dopasowanie wkładek MM</h2> <p>Wkładki z ruchomym magnesem są bardziej popularne, ale i dużo bardziej wrażliwe na pojemność wejściową przedwzmacniacza, rozumianą jako sumę pojemności kabla połączeniowego i pojemności obciążenia samego wejścia. Jest to dość istotny problem, ponieważ –&nbsp;jak wcześniej pokazaliśmy – wpływa na charakterystykę częstotliwościową systemu. W wielu przypadkach pojemność wynika przede wszystkim z samego kabla łączącego gramofon z przedwzmacniaczem. Dobry kabel powinien mieć nie więcej niż 150-200 pF pojemności. Generalnie, im mniej – tym lepiej. Oczywiście w przedwzmacniaczu może istnieć opcja dodania pojemności, ale bezpieczniej jest ograniczyć się do ustawienia minimalnego.</p> <p> </p> <p>&nbsp;</p> <p><strong>Źródła:</strong><br />[1] <a href="http://www.hagtech.com/loading.html" target="_blank" rel="noopener">http://www.hagtech.com/loading.html</a><br />[2] <a href="http://sound.whsites.net/articles/cartridge-loading.html" target="_blank" rel="noopener">http://sound.whsites.net/articles/cartridge-loading.html</a><br />[3] <a href="https://www.mysonic.space/phono-cartridge-impedance-loading" target="_blank" rel="noopener">https://www.mysonic.space/phono-cartridge-impedance-loading</a><br />[4] <a href="https://www.vinylengine.com/cartridge_database_tools.php#MCCartridgeBandwidth" target="_blank" rel="noopener">https://www.vinylengine.com/cartridge_database_tools.php#MCCartridgeBandwidth</a>&nbsp;</p> <p>&nbsp;</p> <h2>Podsumowanie</h2> <p><img style="border: 1px solid #000000;" src="https://m.avtest.pl/images/technika/wkladki/Merlin-ramie-wkladka.jpg" alt="Merlin ramie wkladka" /></p> <p>Wkładki gramofonowe charakteryzują się złożoną naturą elektryczną, skutkującą zachowaniem się, którego nie jesteśmy w stanie z góry przewidzieć. Pomocne są kalkulatory i symulacje, ale i one zawodzą, ponieważ rzadko kiedy znamy dokładne wartości pojemności połączeń elektrycznych (istotne dla wkładek MM) czy indukcyjność wewnętrzną wkładek MC. Niemniej, da się sformułować ogólne wnioski i zależności, co w tym artykule staraliśmy się przedstawić. Mimo to, niektóre kwestie pozostają otwarte i wymagają po prostu testów odsłuchowych, ewentualnie precyzyjnych pomiarów z wykorzystaniem płyty testowej, by móc określić potrzebne korekty parametrów obciążenia.</p> <p>Z naszych doświadczeń wynika, że charakterystyka przenoszenia wkładek zawsze wykazuje duże odchyłki od liniowości powyżej 12–13 kHz, co – jeśli jesteśmy w stanie zmierzyć/usłyszeć – daje konkretne wskazówki, w którym kierunku powinniśmy podążać: zwiększenia czy zmniejszenia tłumienia (w przypadku MC), czy też zwiększenia albo zmniejszenia pojemności wejściowej/kabla. Na to wszystko nakładają się oczywiście osobiste preferencje słuchacza i to one zadecydują o tym, że albo większa pojemność, albo większa rezystancja obciążenia zapewni subiektywnie lepszy efekt. Niemniej, w tego typu eksperymentach, jeśli są prowadzone „po omacku”, warto zachować umiar i kilka razy sprawdzić przeprowadzoną korektę w myśl zależności psychoakustycznej: że brak pogorszenia jakości dźwięku bywa interpretowany jako jego poprawa.</p> <p>&nbsp;</p></div> <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/884076e32a85fde4d5ab4fe1dc1af0d4_S.jpg" alt="Wpływ obciążenia na pasmo przenoszenia wkładki" /></div><div class="K2FeedIntroText"><p>Ciekawy temat, niestety rzadko poruszany przez producentów wkładek gramofonowych i przedwzmacniaczy korekcyjnych:&nbsp;Jak (i dlaczego?) impedancja obciążenia wpływa na parametry odsłuchu? Będzie trochę technicznie, ale chyba warto.</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Ludwik Igielski, Filip Kulpa</p> <hr /> <p style="text-align: center;"><img style="border: 1px solid #000000;" title="Lyra Delos" src="https://m.avtest.pl/images/technika/Lyra-Delos-main.jpg" alt="Lyra Delos" /></p> <p>Wśród miłośników gramofonów oraz młodych adeptów techniki analogowej panuje powszechne mniemanie, że za słabą jakość brzmienia gramofonów są odpowiedzialne złe dopasowanie mechaniczne między ramieniem a wkładką, słaba zdolność śledzenia rowka przez wkładkę czy nawet jej określone cechy dźwiękowe. Nie zawsze okazuje się to prawdą. Nierzadko przyczyna problemu tkwi w nieodpowiednim dopasowaniu elektrycznym wkładki i wejścia phono.<br />Wkładki gramofonowe generują bardzo mały sygnał wyjściowy (szczególnie dotyczy to niskopoziomowych przetworników MC). Ponadto zawierają składniki reaktancyjne (cewki), przez co charakter obciążenia może wpływać na charakterystykę częstotliwościową układu. Poziom wyjściowy wkładek MC bywa na tyle mały, że czasem używa się sprzężenia transformatorowego z przedwzmacniaczem, a to kolejne źródło ewentualnego niedopasowania. O tym również przeczytacie w tym artykule.</p> <p>&nbsp;</p> <h2>Rezonans elektryczny</h2> <p>W każdym układzie drgającym występuje zjawiski rezonansu. Instynktownie, bez głębszej wiedzy technicznej, rozumiemy naturę rezonansu mechanicznego –&nbsp;w szczególności zjawisko dotyczy także gramofonów (ale to temat na inną okazję). Nieco trudniejszym pojęciem jest rezonans elektryczny. Dla potrzeb niniejszych rozważań ograniczymy się do stwierdzenia, że obwód elektryczny zawierający pojemność (C), indukcyjność (L) i rezystancję (R) również jest podatny na to zjawisko – tak samo jak huśtawka, kawał blachy, obudowa głośnika, zawieszenie gramofonu czy układ ramienia i wkładki. Występuje tu pełna analogia do układów mechanicznych. Różnica polega wyłącznie na tym, że jedne parametry zastępujemy innymi.</p> <p>Wkładka gramofonowa wraz z przewodami łączącymi je z przedwzmacniaczem phono oraz nim samym również tworzy obwód RLC, który –&nbsp;w myśl powyższego –&nbsp;jest podatny na występowanie rezonansu elektrycznego. Pojawia się on przy określonej częstotliwości – tzw. częstotliwości rezonansowej. Zazwyczaj występuje ona poza górną granicą pasma akustycznego, może jednak występować w pasmie akustycznym –&nbsp;to w przypadku wkładek z ruchomym magnesem. Jednak nawet gdy rezonans pojawia się przy kilkudziesięciu kilohercach, może mieć wpływ na charakterystykę przenoszenia wkładki oraz brzmienie w ogóle. Z tego właśnie względu poprawne dopasowanie wkładki do obciążenia (przedwzmacniaczem) jest zagadnieniem, którego nie powinno się lekceważyć.</p> <p><strong>Na potrzeby naszych rozważań istotne będą dwie podstawowe zależności:</strong></p> <ul> <li>częstotliwość rezonansową układu wkładka-przedwzmacniacz określają dwie wielkości: indukcyjność wkładki (L) oraz pojemność wejściowa stopnia phono (C), a ściślej – jej suma z wartością pojemności interkonektu i przewodu w ramieniu. Uściślając, liczy się iloczyn obu tych wartości (LC), a uściślając jeszcze bardziej –&nbsp;pierwiastek kwadratowy z tej wartości. Szczegóły w dalszej części artykułu.</li> <li>wielkość rezonansu (obserwowanego jako pik na charakterystyce częstotliwościowej) determinuje rezystancja wejściowa przedwzmacniacza. Jej zadaniem jest tłumienie rezonansu układu na analogicznej zasadzie jak amortyzator tłumi tendencję auta do bujania się na wybojach czy pofalowaniach nawierzchni. Rezystancja obciążenia minimalizuje dzwonienie i przerzuty w sygnale elektrycznym. Parametry obciążenia wpływają na poziom szumów, ale przede wszystkim na przebieg charakterystyki częstotliwościowej – na to, jak duże podbicie/tłumienie sygnału wysokoczęstotliwościowego może wystąpić.</li> </ul> <p>Z punktu widzenia szumów duża wartość rezystancji obciążenia jest korzystna. W odniesieniu do wkładek MC nie jest to jednak zazwyczaj dobre rozwiązanie, ponieważ im większa wartość obciążenia (w skrajnym wypadku – 47 kΩ), tym słabsze tłumienie rezonansu. Optymalny przedwzmacniacz gramofonowy dla wkładek MC powinien się cechować małą impedancją obciążenia: 20–200 Ω. Tak mała wartość utrudnia jednak utrzymanie niskiego poziomu szumów.</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/arcam-rPhono-gniazda.jpg" alt="arcam rPhono gniazda" /></p> <p style="text-align: center;">&nbsp;<strong><em>Współcześnie produkowane przedwzmacniacze phono – nawet te niezbyt drogie, jak Arcam rPhono – są wyposażane w możliwość dość dokładnego strojenia wejść MM i MC.</em></strong></p> <p>&nbsp;</p> <h2>Trochę teorii (dla dociekliwych)</h2> <p>Wkładkę gramofonową można przedstawić w formie układu zastępczego, zawierającego źródło napięcia Vc, połączone szeregowo z indukcyjnością wkładki Lc i rezystancją wkładki Rc. Pojemność kabla połączeniowego i pojemność wejściową przedwzmacniacza przedstawiono za pomocą kondensatora Ca (suma obu wartości), a rezystancję wejściową przedwzmacniacza – jako Ra. Dla dalszych rozważań istotne są wartości Lc, Ca (dalej, dla uproszczenia, będziemy używać symboli L i C) oraz Ra (R).</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/Schemat.png" alt="Schemat" /></p> <p>Za pomocą symulacji kalkulatora zamieszczonego na stronie: <a href="http://www.hagtech.com/loading.html" target="_blank" rel="noopener">http://www.hagtech.com/loading.html</a></p> <p>lub po prostu wzoru:</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/F_rez.png" alt="F rez" width="300" height="125" /></p> <p>można łatwo obliczyć częstotliwość rezonansową układu. Weźmy praktyczny przykład: wkładka Goldring GX1042 (L=570 mH) obciążona typową pojemnością wejściową C=100 pF. Częstotliwość rezonansowa wynosi w tym przypadku 21,1 kHz. Zwiększenie pojemności wejściowej do 200 pF (co nie jest „trudne”, zważywszy na fakt, że przeciętny interkonekt ma pojemność rzędu 100 pF, którą należy zsumować z pojemnością wejściową stopnia phono) przesuwa rezonans układu do zaledwie 14,9 kHz, co bezdyskusyjnie będzie wpływać na reprodukcję wysokich tonów. Dalsze zwiększanie pojemności wejściowej –&nbsp;na przykład do 400 pF – przesuwa pik do częstotliwości 10,5 kHz, co będzie tym bardziej słyszalne.</p> <p>Warto wspomnieć, że standardowa rezystancja obciążenia dla wejść MM wynosząca 47 kΩ zapewnia dość skuteczne tłumienie rezonansów, jednak nie da się łatwo przewidzieć, jak duże byłoby podbicie. Tym bardziej, że w naszym obwodzie wkładki i obciążenia (przedwzmacniacza) tworzy się filtr dolnoprzepustowy. Ze względu na duże wartości indukcyjności wkładek MM (kilkaset mH) pasmo wkładki tego typu jest dość silnie ograniczone. I tak, dla naszej przykładowej wkładki (L=570 mH) górna granica odcięcia wynosi 13,1 kHz. Na ten wczesny spadek nakłada się wspomniany rezonans układu wkładka-przedwzmacniacz – zależny od pojemności wejściowej i kabla. Nic dziwnego, że charakterystyka przenoszenia systemu analogowego, opartego na wkładce MM, nie może być płaska w górnym zakresie pasma akustycznego.</p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/wkladki/inductance.gif" alt="inductance" /></p> <p style="text-align: center;"><strong><em>Symulacja wpływu indukcyjności wewnętrznej wkładki (MM/MC) na jej rezonans i pasmo przenoszenia. Wartości bezwzględne nie są istotne – ważna jest ogólna tendencja. Źródło: <a href="https://www.hagtech.com">www.hagtech.com</a></em></strong></p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/wkladki/capacitance.gif" alt="capacitance" /></p> <p style="text-align: center;"><strong><em>Symulacja wpływu pojemności wejściowej przedwzmacniacza (wraz z kablem) na rezonans i pasmo przenoszenia wkładki MM. Niewielka pojemność może pomóc „wyciągnąć" dość słabo rozciągniętą górę większości wkładek MM, ale zbyt duża pojemność obciążenia (powyżej 200 pF) spowoduje mocne podbicie góry. Wartościami bezwzględnymi nie należy się sugerować. Źródło: <a href="https://www.hagtech.com">www.hagtech.com</a></em></strong></p> <p>&nbsp;</p> <p><img style="display: block; margin-left: auto; margin-right: auto;" src="https://m.avtest.pl/images/technika/wkladki/cart-load-f2.gif" alt="cart load f2" /></p> <p style="text-align: center;"><strong><em>Symulacja wpływu pojemności obciążenia dla wkładki MM o indukcyjności 500 mH. Obciążenie 47 kΩ dobrze tłumi rezonans i przy pojemności wejściowej 100 pF otrzymujemy płaską charakterystykę. Źródło: <a href="http://sound.whsites.net">http://sound.whsites.net</a></em></strong></p> <p>&nbsp;</p> <p><strong>Generalnie rzecz biorąc, im wkładka ma mniejszą indukcyjność, tym szersze jest jej pasmo przenoszenia.</strong> Oznacza to, że wkładki MC mają o wiele szersze pasmo niż wkładki MM. Weźmy dla przykładu wkładkę MC (Audio-Technica AT-OC9XSL) o indukcyjności 25 uH (1 kHz) – (to aż o cztery rzędy wielkości mniejsza wartość niż dla wkładek MM!) i jej obciążenie rezystancją 100 Ω – typową wartością „domyślną” dla wejść MC. Otrzymujemy wynik 637 kHz, tymczasem pasmo przenoszenia dobrych wkładek MC sięga z reguły 50–60 kHz. Skąd tak duża różnica? Nie można zapominać, że wkładka MC jest elementem mechanicznym, o określonej masie, a co za tym idzie –&nbsp;bezwładności. Oczekiwanie, że igła wraz ze wspornikiem mogłyby przenosić drgania o częstotliwości 500 kHz jest nierealistyczne.</p> <p>Proste wyliczenia częstotliwości rezonansowej układu wkładka MC-przedwzmacniacz phono także dają wyniki rzędu setek kiloherców (a nawet powyżej 1 MHz), więc wydawać by się mogło, że problem konieczności tłumienia rezonansu w tym wypadku nie istnieje. Niestety, mało który producent wkładek MC podaje wartości indukcyjności, a pomiar tej wartości zwykłym miernikiem rodzi ryzyko uszkodzenia cewki i jest obarczony dużym błędem. Tak więc w znakomitej większości przypadków nie możemy określić, choćby w przybliżeniu, jak wysoko leży rezonans i jak szerokie jest pasmo, a w związku z tym – jak bardzo należy ów rezonans tłumić mniejszą rezystancją obciążenia. Co w tej sytuacji? Jedyną miarodajną metodą jest pomiar pasma przenoszenia wkładki za pomocą specjalistycznej płyty testowej (co wymaga użycia urządzenia pomiarowego, oscyloskopu) i wyciągnięcie na tej podstawie wniosku, czy potrzebne jest większe (za dużo góry), czy też mniejsze (za mało góry) tłumienie.</p> <p>Optymalną wartość obciążenia w zależności od indukcyjności wkładki i pojemności wejściowej obciążenia można także próbować określić ze wzoru:</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/Ropt.png" alt="Ropt" width="300" height="143" /></p> <p>Reasumując, wkładki MC mają dużo szersze pasmo przenoszenia niż bardziej popularne i przystępne cenowo przetworniki MM. Szerokość tego pasma zależy jednak od wartości rezystancji wejściowej przedwzmacniacza (i do pewnego stopnia także pojemności).</p> <p>&nbsp;</p> <h2>Obciążenie MC – praktyka</h2> <p>W praktyce, najczęściej stosowaną rezystancją obciążenia wejścia MC jest wartość 100 Ω, co wynika także z ogólnego zalecenia dotyczącego dopasowania impedancji wejściowej wzmacniacza do rezystancji cewki wkładki. Mówi ona, że ta pierwsza wartość powinna być od 5 do 10 razy większa od drugiej. Natomiast w przypadku transformatorów wielokrotność powinna wynosić od 1 do 5 razy. Przyczyną tego jest fakt, że indukcja w cewkach transformatora ma bezpośredni wpływ na wielkość obciążenia wkładki.</p> <p>Zwiększanie rezystancji obciążenia ze 100 na przykład do 330 Ω czy 1 kΩ powoduje zmniejszenie tłumienia rezonansu wysokoczęstotliwościowego i generalnie przyczynia się do uzyskania nieco jaśniejszego brzmienia wkładek MC. W ich przypadku <strong>wpływ pojemności wejściowej jest znacznie mniejszy niż dla wkładek MM.</strong> Niektórzy producenci, jak np. Lyra, udzielają bardzo konkretnych wskazówek dotyczących rekomendowanych wartości obciążenia zależnie od pojemności wejściowej. Większa wartość pojemności wejściowej redukuje optymalną wartość obciążenia (i vice versa), przy czym ta współzależność jest raczej słaba i nie ma charakteru liniowego, o czym warto pamiętać.</p> <p>Niektóre przedwzmacniacze gramofonowe MC nie umożliwiają dokładnego dopasowania w zakresie impedancji i pojemności. Dotyczy to głównie sytuacji, gdy jest to moduł wbudowany we wzmacniacz zintegrowany albo występuje jako część przedwzmacniacza kompletnego. Ma to swoje dobre i złe strony. Korzystną cechą będzie to, że z góry zadana rezystancja wejściowa prawdopodobnie będzie miała wartość w zakresie od 50 do 100 Ω, co stanowi przydatną wartość dla wielu modeli wkładek z ruchomymi cewkami. I tylko w sporadycznych przypadkach może się okazać zbyt mała. Ograniczeniem takiego rozwiązania jest gorsza kompatybilność z bardziej nietypowymi wkładkami. Z tego względu godne polecenia są te modele phonostage’y, które wyposażono w obrotowe przełączniki lub potencjometry umożliwiające zmianę nastaw wejściowych w czasie rzeczywistym podczas krytycznego odsłuchu.</p> <p>&nbsp;</p> <h2>Czym się objawia brak dopasowania?</h2> <p>Słabe dopasowanie impedancji między wkładką z ruchomymi cewkami a wejściem phono czy urządzeniem zapewniającym dodatkowe wzmocnienie (step-up) najczęściej jest przyczyną rozczarowującej jakości dźwięku. Objawy mogą być różne i trudno jest w tym miejscu uogólnić, czego dokładnie można się spodziewać. Typowe objawy to słyszalne „dzwonienie” wysokich tonów, nierównomierne pasmo przenoszenia (łatwe do wychwycenia), a także zwiększony poziom szumów. Instrumenty strunowe mogą mieć „skrzeczące” brzmienie, wokale będą stłumione, a cały przekaz nie będzie żywy i interesujący.</p> <p>Słyszalne efekty przy zbyt dużej impedancji obciążenia objawiają się zwykle brakiem niskich częstotliwości, nieco twardym lub „technicznym” dźwiękiem, o słabym obrazowaniu. Jeśli z kolei brzmienie jest nieco zawoalowane i martwe, to najprawdopodobniej impedancja obciążenia jest zbyt mała. Jednakże przed podjęciem jakichkolwiek działań dobrze jest ustalić, jak producent określił wymaganą impedancję obciążenia oraz oczywiście sprawdzić parametry wejścia gramofonowego lub transformatora dopasowującego.</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/Moon-110LPV2-spod.jpg" alt="Moon 110LPV2 spod" /></p> <p>&nbsp;</p> <h2>Transformatory dopasowujące</h2> <p>Dla wielu osób może być to dość niezrozumiały i trudny temat z powodu nieliniowości transformacji impedancji. Mówiąc najprościej, zmiana impedancji zależy od kwadratu ilorazu zwojów. W przypadku przekładni 1:10 (20 dB) impedancja jest przekształcana o współczynnik 100. Oznacza to, że przy obciążeniu uzwojenia wtórnego rezystancją 47 kΩ (transformator dołączony do standardowego wejścia MM) uzwojenie pierwotne odzwierciedla impedancję 470 Ω – taką wartość „widzi” wkładka MC.</p> <p>Spotyka się różne rodzaje transformatorów. Standardowe przekładnie to 1:5 (14 dB), 1:10 (20 dB), 1:20 (26 dB) i 1:30 (30 dB). W związku z tym przy współpracy z wejściem 47 kΩ każdy z nich będzie charakteryzował się inną wartością impedancji wejściowej widzianej przez wkładkę.</p> <p><strong>Aby uzyskać właściwe dopasowanie, możliwe są dwa scenariusze:</strong></p> <ul> <li>zmieniamy impedancję wejściową we współpracującym z transformatorem przedwzmacniaczu albo dokładamy równolegle do 47 kΩ dodatkową rezystancję. Wartość można obliczyć ze wzoru na rezystancję zastępczą dwóch rezystorów połączonych równolegle (iloczyn wartości podzielony przez ich sumę).</li> <li>drugą opcją jest umieszczenie równoległego rezystora po stronie pierwotnej transformatora, ale wtedy należy w obliczeniach uwzględnić wartość przekładni zwojowej podniesioną do kwadratu.</li> </ul> <p>Każdy transformator czy cewka charakteryzuje się indukcyjnością, a więc pewną nieliniowością. Z kolei indukcyjność transformatora zmienia się wraz z częstotliwością. I tu mogą się pojawić słyszalne komplikacje, a uzyskane wyniki okazać się nieprzewidywalne. Okolicznością łagodzącą będzie to, że szum wnoszony przez takie urządzenie pasywne praktycznie nie istnieje. Zwłaszcza gdy porównamy z aktywnym przedwzmacniaczem, który zawsze wytwarza pewien poziom niepożądanego szumu.</p> <p><img src="https://m.avtest.pl/images/technika/wkladki/jc3jr_black_back.jpg" alt="jc3jr black back" /></p> <p>Zbyt mała impedancja obciążenia transformatora, tłumiąc efekt dzwonienia i rezonansu elektrycznego, może spowodować znaczny spadek mocy na wyjściu. Jeśli producent transformatora nie określił inaczej, należy zacząć eksperymenty od standardowej wartości 47 kΩ stosowanej dla wkładek MM. Jeśli dźwięk jest zbyt jasny i ofensywny, to warto spróbować zmniejszyć impedancję obciążenia wejściowego, o ile opcja ta jest dostępna.</p> <p>Natomiast jeśli dźwięk jest ciemny, stłumiony i pozbawiony dynamiki, impedancja może być zbyt mała, ale nie zawsze, ponieważ wartość 47–50 kΩ mieści się w zakresie oczekiwanej impedancji wejścia gramofonowego. Prawidłowe obciążenie skutkuje kontrolą nadmiernego „dzwonienia” i ogranicza słyszalne anomalie odpowiedzi częstotliwościowej do minimum.</p> <p>Reasumując, jeśli to możliwe, należy stosować przedwzmacniacze gramofonowe z możliwością doboru impedancji obciążenia zamiast transformatora dopasowującego. Wyjątkiem może być sytuacja, w której transformator został specjalnie zaprojektowany dla konkretnej wkładki.</p> <p>&nbsp;</p> <h2>Dopasowanie wkładek MM</h2> <p>Wkładki z ruchomym magnesem są bardziej popularne, ale i dużo bardziej wrażliwe na pojemność wejściową przedwzmacniacza, rozumianą jako sumę pojemności kabla połączeniowego i pojemności obciążenia samego wejścia. Jest to dość istotny problem, ponieważ –&nbsp;jak wcześniej pokazaliśmy – wpływa na charakterystykę częstotliwościową systemu. W wielu przypadkach pojemność wynika przede wszystkim z samego kabla łączącego gramofon z przedwzmacniaczem. Dobry kabel powinien mieć nie więcej niż 150-200 pF pojemności. Generalnie, im mniej – tym lepiej. Oczywiście w przedwzmacniaczu może istnieć opcja dodania pojemności, ale bezpieczniej jest ograniczyć się do ustawienia minimalnego.</p> <p> </p> <p>&nbsp;</p> <p><strong>Źródła:</strong><br />[1] <a href="http://www.hagtech.com/loading.html" target="_blank" rel="noopener">http://www.hagtech.com/loading.html</a><br />[2] <a href="http://sound.whsites.net/articles/cartridge-loading.html" target="_blank" rel="noopener">http://sound.whsites.net/articles/cartridge-loading.html</a><br />[3] <a href="https://www.mysonic.space/phono-cartridge-impedance-loading" target="_blank" rel="noopener">https://www.mysonic.space/phono-cartridge-impedance-loading</a><br />[4] <a href="https://www.vinylengine.com/cartridge_database_tools.php#MCCartridgeBandwidth" target="_blank" rel="noopener">https://www.vinylengine.com/cartridge_database_tools.php#MCCartridgeBandwidth</a>&nbsp;</p> <p>&nbsp;</p> <h2>Podsumowanie</h2> <p><img style="border: 1px solid #000000;" src="https://m.avtest.pl/images/technika/wkladki/Merlin-ramie-wkladka.jpg" alt="Merlin ramie wkladka" /></p> <p>Wkładki gramofonowe charakteryzują się złożoną naturą elektryczną, skutkującą zachowaniem się, którego nie jesteśmy w stanie z góry przewidzieć. Pomocne są kalkulatory i symulacje, ale i one zawodzą, ponieważ rzadko kiedy znamy dokładne wartości pojemności połączeń elektrycznych (istotne dla wkładek MM) czy indukcyjność wewnętrzną wkładek MC. Niemniej, da się sformułować ogólne wnioski i zależności, co w tym artykule staraliśmy się przedstawić. Mimo to, niektóre kwestie pozostają otwarte i wymagają po prostu testów odsłuchowych, ewentualnie precyzyjnych pomiarów z wykorzystaniem płyty testowej, by móc określić potrzebne korekty parametrów obciążenia.</p> <p>Z naszych doświadczeń wynika, że charakterystyka przenoszenia wkładek zawsze wykazuje duże odchyłki od liniowości powyżej 12–13 kHz, co – jeśli jesteśmy w stanie zmierzyć/usłyszeć – daje konkretne wskazówki, w którym kierunku powinniśmy podążać: zwiększenia czy zmniejszenia tłumienia (w przypadku MC), czy też zwiększenia albo zmniejszenia pojemności wejściowej/kabla. Na to wszystko nakładają się oczywiście osobiste preferencje słuchacza i to one zadecydują o tym, że albo większa pojemność, albo większa rezystancja obciążenia zapewni subiektywnie lepszy efekt. Niemniej, w tego typu eksperymentach, jeśli są prowadzone „po omacku”, warto zachować umiar i kilka razy sprawdzić przeprowadzoną korektę w myśl zależności psychoakustycznej: że brak pogorszenia jakości dźwięku bywa interpretowany jako jego poprawa.</p> <p>&nbsp;</p></div> Co kryje klasa D? 2018-05-12T12:43:33+00:00 2018-05-12T12:43:33+00:00 https://m.avtest.pl/artykuly/technika/item/829-co-kryje-klasa-d Webmaster webmaster@av.com.pl <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/5d231997759398fd54d0c1f438d55347_S.jpg" alt="Co kryje klasa D?" /></div><div class="K2FeedIntroText"><p>Wzmacniacze impulsowe to wciąż kontrowersyjny temat &ndash; z punktu widzenia audiofil&oacute;w. Ci w większości są zdania, że te konstrukcje nie dorosły (jeszcze?) do tego, by zastąpić &bdquo;bardziej audiofilskie&rdquo; klasy A i AB. Poglądu tego nie podziela jednak rosnąca grupa producent&oacute;w specjalistycznych, z tak znanymi markami jak Marantz czy Theta. Gdzie zatem leży prawda?</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Michał Sommerfeld, Filip Kulpa | <strong>Zdjęcia:&nbsp;</strong>NAD, Marantz, Kii Audio, AV</p> <hr /> <p>Zacznijmy od tego, czym jest wzmacniacz impulsowy, częściej nazwany wzmacniaczem pracującym w klasie klasie D. To szczeg&oacute;lny typ wzmacniacza mocy, w kt&oacute;rym tranzystory końcowe (zwykle mosfety) pracują w trybie szybkiego przełączania pomiędzy stanami pełnego przewodzenia (nasycenia) a całkowitego wyłączenia (odcięcia). Ten schemat pracy wzmacniacza zasadniczo r&oacute;żni się od metody działania &bdquo;normalnych&rdquo; wzmacniaczy w klasie A czy AB, w kt&oacute;rych&hellip;</p> <p>&nbsp;</p> <h2>Klasy wzmacniacza</h2> <p>&hellip;przez elementy aktywne (tranzystor, lampa) cały czas przepływa ustalony prąd spoczynkowy, niezbędny do poprawnej pracy układu. Wartość tego prądu determinuje schemat przewodzenia tranzystor&oacute;w końcowych &ndash; a ściślej to, jak dużą część pełnego okresu sinusoidy przewodzi jeden element wzmacniający. Stąd wynikają definicje poszczeg&oacute;lnych klas pracy wzmacniaczy: A, B, AB, C. Co ciekawe, przyjęty spos&oacute;b definiowania klas pracy wzmacniaczy w og&oacute;le nie tłumaczy specyfiki klasy D. Litera &bdquo;D&rdquo; ma przede wszystkim kontekst historyczny &ndash; została użyta jako konsekwencja ustalonego wiele dekad temu konwencji podziału na wspomniane klasy. Była to po prostu kolejna litera w alfabecie.</p> <p>Należy tez nadmienić, że języku angielskim &bdquo;D&rdquo; jest skr&oacute;tem od słowa &bdquo;Digital&rdquo;, czyli &bdquo;Cyfrowy&rdquo;. A że spos&oacute;b działania wzmacniacza klasy D przypomina urządzenia cyfrowe, konkretnie zaś przetworniki analogowo-cyfrowe, to w branży audio przyjęło się (niepoprawnie!) używać terminu &bdquo;wzmacniacz cyfrowy&rdquo; jako zamiennik dla &bdquo;klasy D&rdquo;, czyli wzmacniacza impulsowego. Jak widać, klasa D jest pojęciem czysto umownym i w gruncie rzeczy nieprecyzyjnym. Ponieważ jednak na stałe weszła do słownika audio, dostosujemy się do przyjętej konwencji.</p> <p>&nbsp;</p> <h2>Sprawność: D kontra A i AB&nbsp;</h2> <p>Klasa pracy wzmacniacza w przybliżeniu determinuje jego sprawność, choć ta zależy także od innych czynnik&oacute;w, w szczeg&oacute;lności od faktycznego obciążenia stopni końcowych, czyli aktualnej mocy wyjściowej. Im jest ona mniejsza &ndash;&nbsp;czyli im ciszej słuchamy muzyki &ndash;&nbsp;tym sprawność stopniowo się obniża. W najbardziej optymistycznym, ale i najmniej życiowym przypadku, klasa A osiąga sprawność 20-25% &ndash;&nbsp;dotyczy to jednak mocy znamionowej. Przy 1/10 mocy, sprawność wzmacniacza tego typu maleje do zaledwie 3%. Klasa AB jest wyraźnie lepsza, choć wciąż bardzo mało efektywna &ndash; odpowiednie liczby to 50 i ok. 15-18%. Oznacza to olbrzymie straty energii elektrycznej, kt&oacute;ra nie tylko jest bezpowrotnie tracona, ale też wydziela się w postaci ciepła, kt&oacute;re niepotrzebnie podgrzewa cały układ elektroniczny, pogarszając warunki jego pracy i skracając żywotność niekt&oacute;rych komponent&oacute;w (np. kondensator&oacute;w). Dla por&oacute;wnania, wzmacniacze w klasie D osiągają maksymalną sprawność rzędu 90-95% oraz aż około 78% przy 1/10 pełnej mocy. Dzięki temu wzmacniacz impulsowy może uzyskiwać znacznie większe moce przy zachowaniu rozsądnych rozmiar&oacute;w obudowy. Nie wolno także zapominać, że mniejsze straty energii to także mniejszy zasilacz, mniejsze radiatory, większa swoboda w optymalizacji układu, a w konsekwencji &ndash; kr&oacute;tsze ścieżki sygnałowe.</p> <p>&nbsp;</p> <h2>Jak działa wzmacniacz impulsowy?</h2> <p>Jak już wspomnieliśmy, we wzmacniaczu impulsowym przez elementy aktywne nie przepływa prąd spoczynkowy. Tranzystory nie zapewniają wzmocnienia sygnału, lecz działają jak przełączniki pracujące w dw&oacute;ch stanach: odcięcia (nieprzewodzenia) do nasycenia. Ten drugi stan odpowiada &bdquo;odkręceniu kurka&rdquo;, tj. podaniu napięcia zasilania na wyjście wzmacniacza; pierwszy je blokuje. Pary tranzystor&oacute;w nigdy nie przewodzą jednocześnie: robi to albo jeden, albo drugi tranzystor (to krytyczny moment &ndash;&nbsp;w przeciwnym razie doszłoby do zwarcia układu zasilania). Stąd właśnie bierze się wysoka sprawność klasy D, ciepło odkłada się na elementach tylko przez kr&oacute;tką chwilę trwania impulsu, podczas gdy w klasycznych rozwiązaniach straty ciepła są ciągłe (prąd spoczynkowy).</p> <p>Minimalną częstotliwość przełączania (kluczowania) determinuje prawo Nyquista m&oacute;wiące to tym, że musi być ona co najmniej dwukrotnie wyższa niż g&oacute;rna granica pasma wzmacnianego sygnału. W praktyce częstotliwość kluczowania może wynosić od 80 nawet do pojedynczych megaherc&oacute;w.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/diagram1-schemat-blokowy.jpg" alt="diagram1 schemat blokowy" /></p> <p style="text-align: center;"><em><strong>Schemat blokowy typowego wzmacniacza w klasie D.</strong></em></p> <p>&nbsp;</p> <p>Pierwszym stopniem wzmacniacza impulsowego jest układ przekształcający z natury ciągły (nieskwantowany) sygnał analogowy (w przypadku sygnał&oacute;w wejściowych bieg sygnału w teorii nieco się upraszcza) na ciąg impuls&oacute;w o naturze binarnej (zerojedynkowej), kt&oacute;re dalej sterują załączaniem i wyłączaniem tranzystor&oacute;w końcowych. Do tego celu używa się generatora sygnału tr&oacute;jkątnego (piłokształtnego) i komparatora. Ten por&oacute;wnuje dwa sygnały wejściowe, dając na wyjściu jeden z dw&oacute;ch możliwych wynik&oacute;w, określając, czy sygnał jest mniejszy, czy większy od wzorca. Najczęściej mamy do czynienia z modulatorami szerokości impulsu (PWM &ndash; Pulse Width Modulation), rzadziej &ndash; z modulacją głębokości impulsu (PDM &ndash;&nbsp;Pulse Density Modulation). W jednym i drugim rozwiązaniu chodzi o to, by za pomocą zerojedynkowych stan&oacute;w możliwie dokładnie opisać sygnał wejściowy. Inaczej m&oacute;wiąc, wzmacniacz produkuje serię impuls&oacute;w o jednakowej amplitudzie, lecz (w przypadku PWM) r&oacute;żnej długości stan&oacute;w &bdquo;0&rdquo; i &bdquo;1&rdquo;.</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/diagram2-dzialanie-modulatora.jpg" alt="diagram2 dzialanie modulatora" style="display: block; margin-left: auto; margin-right: auto;" /></p> <p style="text-align: center;"><em><strong>Idea działania modulatora PWM i rekonstrukcji wyjściowego sygnału analogowego.</strong></em></p> <p>&nbsp;</p> <p>Stopień wypełnienia stanami o dużej amplitudzie (1)&nbsp;reprezentuje amplitudę sygnału (analogowego). To znaczy: dużo szerokich impuls&oacute;w odpowiada dużej amplitudzie sygnału, impulsy wąskie odpowiadają sygnałom małym. Jeśli uśrednimy całość w czasie, okaże się, że do głośnik&oacute;w płynie taki sygnał, jak powinien. By tak się ostatecznie stało, potrzebny jest jeszcze jeden istotny, a podstawowy element wzmacniacza impulsowego: filtr wyjściowy (zwykle szeregowa cewka i r&oacute;wnoległy kondensator &ndash;&nbsp;LC), kt&oacute;rego zadaniem jest tzw. rekonstrukcja sygnału analogowego, czyli &ndash; upraszczając nieco &ndash; oczyszczenie go z wysokoczęstotliwościowego &bdquo;brudu&rdquo;, będącego efektem szybkiego przełączania tranzystor&oacute;w oraz efekt&oacute;w aliasingu. Bez analogowego filtru wyjściowego sygnał PWM o dużej częstotliwości zniszczyłby głośnik wysokotonowy. Całość musi zostać objęta globalnym (i nie tylko) sprzężeniem zwrotnym. W przeciwnym wypadku zniekształcenia wzmacniacza byłyby bardzo duże.</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/class-d-reprezentacja-sinus.jpg" alt="class d reprezentacja sinus" style="display: block; margin-left: auto; margin-right: auto;" /></p> <p style="text-align: center;"><em><strong>Klasa D - reprezentacja sinus.</strong></em></p> <p>&nbsp;</p> <p>Warto jeszcze odnieść się do określenia &bdquo;wzmacniacz cyfrowy&rdquo;, używanego w odniesieniu do urządzeń wyposażonych jedynie w wejścia cyfrowe S/PDIF, AES/EBU czy USB. Większa część ścieżki sygnału może być w nich faktycznie cyfrowa, ale samo wzmocnienie pozostaje, co do zasady, analogowe.</p> <p>&nbsp;</p> <h2>Wyzwania dla klasy D</h2> <p>Pierwszy wzmacniacz w klasie D skonstruowano jeszcze w latach 60.. Nie jest to więc żadne nowinka. Tyle że do tej nowatorskiej koncepcji musiała dojrzeć odpowiednia technika, kt&oacute;ra pojawiła się dopiero stosunkowo niedawno &ndash; mniej więcej w połowie lat 90. Zaprojektowanie dobrego wzmacniacza impulsowego wymaga skomplikowanych symulacji i dużych umiejętności w projektowaniu obwod&oacute;w. Wsp&oacute;łczesne wzmacniacze w klasie D r&oacute;żnią się między sobą częstotliwością kluczowania, użytym sprzężeniem zwrotnym (rodzajem, sposobem implementacji) czy sposobem przełączania tranzystor&oacute;w.</p> <p>Tranzystory MOSFET reagują z pewnym op&oacute;źnieniem, w związku z czym przełączanie ze stanu odcięcia do nasycenia ma pewną zwłokę &ndash; nie jest natychmiastowe. To skutkuje tzw. martwym czasem. Z jednej strony, konstruktorzy dążą do jego skr&oacute;cenia, ponieważ sytuacja, w kt&oacute;rej oba tranzystory wyjściowe (para) są &bdquo;wyłączone&rdquo; skutkują stratami energii, zaś z drugiej &ndash; zbyt kr&oacute;tki czas martwy stwarza ewentualność jednoczesnego załączenia obu tranzystor&oacute;w, co prowadzi do zwarcia (awarii) zasilacza. Analogicznie &ndash; zwiększanie częstotliwości przełączania pozwala dokładniej opisać przebieg analogowy serią impuls&oacute;w PWM, ale prowadzi do zmniejszenia sprawności, rosną też zniekształcenia. Zadaniem projektanta jest umiejętne pogodzenie tych sprzeczności.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/NAD-C368-1.jpg" alt="NAD C368 1" /></p> <p style="text-align: center;"><em><strong>NAD C368 &ndash; niedrogi wzmacniacz zintegrowany, kt&oacute;ry potrafi przekonać sceptyk&oacute;w. Rok temu zrobił na nas duże wrażenie.</strong></em></p> <p>&nbsp;</p> <p>Obiektywną słabością wzmacniaczy w klasie D jest to, że na wyjściu pracuje pasywny filtr (LC), na kt&oacute;rego charakterystykę dość silnie wpływa rodzaj obciążenia, czyli impedancja zestaw&oacute;w głośnikowych. Ze zrozumiałych względ&oacute;w producent nie jest w stanie zoptymalizować filtru wyjściowego dla setek r&oacute;żnych zestaw&oacute;w głośnikowych. By sprostać temu i innym wyzwaniom, w&nbsp; ostatnich latach wiele uwagi poświęcono konstrukcji pętli sprzężenia zwrotnego, kt&oacute;re odpowiada za minimalizację zniekształceń generowanych przez wzmacniacz w klasie D. Pojawiły się r&oacute;żne rozwiązania i i zaawansowane techniki mające na celu radzenie sobie z innymi ograniczeniami wzmacniaczy w klasie D, a w szczeg&oacute;lności:</p> <ul> <li><strong>dużą opornością wyjściową (skutkującą małym wsp&oacute;łczynnikiem tłumienia),</strong></li> <li><strong>relatywnie dużym poziomem zniekształceń THD przy wyższych częstotliwościach,</strong></li> <li><strong>stosunkowo wąskim pasmem mocy i zniekształceniami fazowymi przy dużych częstotliwościach.</strong></li> </ul> <p><br />W konsekwencji, wielu renomowanych producent&oacute;w coraz śmielej i częściej sięga po konstrukcje impulsowe. Duża w tym zasługa wyspecjalizowanych wytw&oacute;rc&oacute;w moduł&oacute;w wzmacniaczy w klasie D, kt&oacute;rzy wprowadzają coraz bardziej dopracowane rozwiązania. Najnowszy high-endowy wzmacniacz Marantza PM-10 wykorzystuje moduły Ncore firmy Hypex, to samo dotyczy końc&oacute;wek mocy Mola Mola (dla tej firmy pracuje obecnie autor moduł&oacute;w nCore, z kt&oacute;rym przeprowadziliśmy rozmowę), obecna seria Classic firmy NAD wykorzystuje nieco tańsze rozwiązanie tej samej marki (w droższych modelach stosuje układ DDFA firmy CSR). Nie brak producent&oacute;w korzystających z innych gotowych rozwiązań, jak ICEPower. Pula producent&oacute;w korzystających z klasy D z roku na rok powiększa się.</p> <p>Dużym wyzwaniem dla projektant&oacute;w wciąż jednak pozostaje poradzenie sobie z zakł&oacute;ceniami elektromagnetycznymi, kt&oacute;rych wzmacniacze impulsowe produkują w nadmiarze. Przedostają się one po kablach połączeniowych, masie zasilania, powodując interferencje z innymi urządzeniami w systemie. Z tego względu, użytkując wzmacniacz w klasie D warto zadbać o spełnienie podstawowych (i uniwersalnych tak naprawdę) zasad dotyczących budowy system&oacute;w hi-fi, w szczeg&oacute;lności o właściwy porządek w okablowaniu, ustawieniu urządzeń (na wzmacniaczu impulsowym nie stawiamy odtwarzacza CD ani DAC-a) itd. Pomocne może być także stosowanie listew filtrujących dla urządzeń małosygnałowych (źr&oacute;dła, przedwzmacniacze).</p> <p>&nbsp;</p> <h2>Bruno Putzeys o klasie D</h2> <table border="0" cellspacing="0" cellpadding="10"> <tbody> <tr> <td style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/Bruno-Putzeys.jpg" alt="Bruno Putzeys" width="709" height="1000" />&nbsp;</td> <td colspan="2" style="text-align: center;"><em>&nbsp;Belg, z wykształcenia inżynier elektronik (ur. 1973) specjalizujący się w amplifikacji impulsowej. W latach 1995-2005 pracował dla Philipsa w Leuven, gdzie pełnił funkcję gł&oacute;wnego inżyniera odpowiedzialnego za projekty wzmacniaczy w klasie D (m.in. UcD). W latach 2004-2012 pracował dla firmy głośnikowej Grimm Audio (słynne monitory LS1), r&oacute;wnolegle pełnił funkcję szefa działu R&amp;D w firmie Hypex (do listopada 2014 r.). Wsp&oacute;łzałożyciel marek Kii Audio, Purifi oraz projektant (nie tylko elektroniki) w firmie Mola Mola.&nbsp;&nbsp;&nbsp;</em></td> </tr> </tbody> </table> <p>&nbsp;</p> <p><strong>AV: Dlaczego klasa D jest określana jako cyfrowa, skoro tak nie jest?</strong></p> <p><strong>BP:</strong> Ściśle rzecz biorąc, klasa D nigdy nie jest cyfrowa. Cyfrowa oznacza, że wszystko jest wykonywane przy użyciu liczb. Wzmacniacz w klasie D pracuje z napięciami i prądami zmieniającymi się w czasie, tak jak każdy inny wzmacniacz. <br />Określenie &bdquo;wzmacniacz cyfrowy&rdquo; pojawiło się z niezrozumienia litery &bdquo;D&rdquo;. Kiedy klasa D została wynaleziona (w latach 30. ubiegłego wieku) istniały już klasy A, B i C, więc nazwali ją klasą D. Oczywiście w tamtych czasach nie było technologii cyfrowej, z kt&oacute;rą można było ją pomylić. W roku 2004 wsp&oacute;łtworzyłem dokument AES (Audio Engeineering Society przyp. autor) zatytułowany &bdquo;Wszystkie wzmacniacze są analogowe&rdquo; (oryg. &bdquo;All Amplifiers are Analogue&rdquo;), warto go wyguglować i przeczytać. <br />Oczywiście istnieją wzmacniacze wykorzystujące DSP (cyfrowe przetwarzanie sygnału przyp. autor) jako element konstrukcji i można je nazywać &bdquo;trochę cyfrowymi&rdquo;, ale &bdquo;prawdziwe&rdquo; wzmacniacze cyfrowe nie istnieją.</p> <p><strong>AV: Jakie wymieniłbyś gł&oacute;wne zalety wzmacniaczy w klasie D?</strong></p> <p><strong>BP:</strong> Wzmacniacze w klasie D mają dużą sprawność, dzięki czemu są wyborem przyjaznym dla środowiska. Ta sprawność oznacza mniej marnowanego ciepła, a w związku z tym możesz użyć mniejszych radiator&oacute;w, czasem nawet zupełnie z nich zrezygnować. Dlatego też wzmacniacz może być sporo mniejszy niż por&oacute;wnywalny mocowo w klasie A.</p> <p><strong> AV: A wady klasy D?</strong></p> <p><strong>BP:</strong> To bardzo trudna i skomplikowana technika. Uzyskanie dobrych osiąg&oacute;w audio jest ogromnym technicznym wyzwaniem, kt&oacute;re wymaga dobrych zdolności matematycznych, połączonych z nadzwyczajnie dobrym projektowaniem obwod&oacute;w analogowych i płytek drukowanych. To są oczywiście trudności dla projektanta. Dla klienta wzmacniacz w klasie D nie ma żadnych wad, ponieważ ich rozwiązanie to zadanie konstruktora. Klient musi jedynie wiedzieć, kt&oacute;ry wzmacniacz powinien kupić.</p> <p><strong> AV: Czy istnieje jakiś konkretny rodzaj kolumn głośnikowych, kt&oacute;rych wzmacniacze w klasie D nie lubią?</strong></p> <p><strong> BP:</strong> W przeszłości wzmacniacze w klasie D miały dużą impedancję wyjściową w zakresie wysokich częstotliwości, co oznaczało, że większość kolumn miała ich (wysokich ton&oacute;w) zbyt wiele, a kilka innych &ndash;&nbsp;za mało. Te problemy zostały obecnie rozwiązane &ndash; impedancja wyjściowa nowoczesnej technologii klasy D, takiej jak NCore, jest dużo niższa niż większości high-endowych wzmacniaczy w klasie A. Obecnie dobry wzmacniacz w klasie D bez problem&oacute;w wysteruje każdą kolumnę.</p> <p><strong> AV: Jaki zasilacz jest lepszy &ndash;&nbsp;liniowy czy impulsowy? I do jakiego rodzaju wzmacniaczy?</strong></p> <p><strong> BP:</strong> Jak zawsze, istnieją dobre i złe projekty, więc nie ma sztywnej zasady. Jedynie mogę powiedzieć, że wiele doskonałych wzmacniaczy (w klasach D i A/B) używa zasilania impulsowego, a rezultat jest tak dobry, jak przy zastosowaniu zasilacza liniowego [jednym z wymownych przykład&oacute;w tej tendencji jest nowa wersja wzmacniacza Baltlab Endo 2, w kt&oacute;rym zasilacz liniowy zastąpiono impulsowym &ndash; przyp. F.K.]. Podobnie jak klasa D, zasilacze impulsowe to trudna technologia, więc znaleźć można wiele złych przykład&oacute;w zasilaczy impulsowych. Ci ludzie następnie wysnuwają wniosek oparty na ich własnym doświadczeniu: iż dobry zasilacz impulsowy jest niemożliwy do zbudowania. Chciałbym zaznaczyć, że jest r&oacute;wnież wiele kiepskich wzmacniaczy w klasie A z liniowymi zasilaczami, co rzecz jasna nie oznacza, że ta technologia jest zła.</p> <p><strong>AV: Czy wzmacniacze i zasilacze impulsowe powinny pracować z najwyższą możliwą częstotliwością kluczowania?</strong></p> <p><strong>BP:</strong> To duże nieporozumienie. Zwiększanie częstotliwości kluczowania wzmacniacza w klasie D powyżej tego, co jest niezbędne, zwiększa jedynie techniczne problemy. Zniekształcenia w otwartej pętli rosną, a efektywność maleje. Moim zdaniem jedynym powodem, dla kt&oacute;rego ludzie lubią wysokie częstotliwości kluczowania jest fakt, że projektowanie układ&oacute;w z dużym wzmocnieniem i rozsądnymi częstotliwościami kluczowania jest trudne matematycznie. Inżynierowie wolą efekciarskie nowe technologie od nudnej matematyki. Poza tym, rzecz jasna, audiofile lubią duże cyferki, wysokie częstotliwości pr&oacute;bkowania i tak dalej. Trudno zainteresować ich matematyką, za to łatwo ekscytują się wyższymi wartościami. <br />Istnieje obecnie grupa tw&oacute;rc&oacute;w eksperymentujących z tranzystorami FET z azotku galu pozwalającymi na wyższe częstotliwości kluczowania, ale nadal nie widziałem żadnego z tych wzmacniaczy, kt&oacute;ry dałby choć zbliżone zniekształcenia do najlepszych wzmacniaczy w klasie D opartych na krzemie. 500 kHz to dobry punkt startu.</p> <p>W zakresie zasilaczy impulsowych jest to kwestia czysto praktyczna. Wyższa częstotliwość kluczowania pozwala zbudować mniejsze urządzenie, ale trudniej utrzymać jego dużą skuteczność. Nie istnieje jednoznaczny związek między częstotliwością kluczowania zasilacza impulsowego a osiągami audio.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/NAD-C368-Hypex-UcD-1.jpg" alt="NAD C368 Hypex UcD 1" style="border: 1px solid #000000;" /></p> <p style="text-align: center;"><em><strong>Moduł UcD (Hypex) stosowany we wzmacniaczach NAD serii Classic.</strong></em></p> <p>&nbsp;</p> <p><strong>AV:</strong> <strong>Czy klasa D jest jedyną słuszną przyszłością dla wzmacniaczy audio?</strong></p> <p><strong>BP:</strong> Skoro możesz mieć wzmacniacz w klasie D, kt&oacute;ry jest r&oacute;wnie dobry, jak najlepsze konstrukcje w klasie A, nie widzę powodu, żeby wybierać klasę A. Powodem tego stanu rzeczy nie jest nawet sama wyższość klasy D, lecz prozaiczny fakt, że projektanci wzmacniaczy w klasie A przespali mn&oacute;stwo czasu, nie pracując nad swoimi konstrukcjami, podczas gdy w konstrukcji wzmacniaczy impulsowych dzieje się bardzo wiele dobrego. Dogryzałem obozowi klasy A przez cała lata i muszę przyznać, że w końcu podjęli wyzwanie. Ostatnio spotkałem jeden czy dwa&nbsp; (bardzo drogie) wzmacniacze w klasie A, kt&oacute;re poważnie rywalizują z moją obecną pracą. W związku z tym czuję się pozytywnie zmotywowany, żeby wspinać się na jeszcze wyższy poziom.</p> <p><strong>AV: Dlaczego audiofile nienawidzą klasy D?</strong></p> <p><strong>BP:</strong> Uważam, że to zbyt mocne sformułowanie. Odnosi się ono do tych, kt&oacute;rzy wskutek swoich uprzedzeń do tej techniki po prostu nie chcą spr&oacute;bować posłuchać dobrych wzmacniaczy w klasie D. Istnieje grupa audiofil&oacute;w, kt&oacute;rzy preferują pewien rodzaj zniekształceń obecny w układach lampowych, jednak ostatnio odkrywam, że wielu miłośnik&oacute;w lamp przeszło na wzmacniacze z naszymi modułami NCore. Rodzi się pytanie, dlaczego tak się dzieje. Większość miłośnik&oacute;w lampowc&oacute;w nie akceptuje brzmienia wzmacniaczy tranzystorowych dlatego, że bardziej akceptują pewne zniekształcenia (typowa dla lamp), ponieważ chcą uniknąć zniekształceń innego typu.</p> <p>Dla mnie bardziej interesujące jest to, że istniała niewielka grupa ludzi, kt&oacute;ra zawsze opisywała wzmacniacze w klasie D (poza NCore) jako specyficznie brzmiące, a ja nie mogłem aż do niedawna rozgryźć &ndash; dlaczego? Okazało się, że rdzeń magnetyczny cewki wyjściowej ma pamięć i wytwarza niewielką ilość bardzo skomplikowanego zniekształcenia. Pow&oacute;d, dla kt&oacute;rego NCore nie ma tej dźwiękowej sygnatury, jest taki, że wykorzystuje tak dużo sprzężenia zwrotnego, iż to zniekształcenie jest kompletnie niewykrywalne. Sprzężenie zwrotne to fajna rzecz&hellip;</p> <p><strong>AV: Dlaczego w og&oacute;le zdecydowałeś się projektować wzmacniacze w klasie D?</strong></p> <p><strong>BP:</strong> Ponieważ jest to ciekawe i wymagające zajęcie. Poza tym nie zapominajmy, że świat ezoterycznego audio emocjonalnie wciągnięty w starą technologię jest bardzo, bardzo niewielkim wycinkiem ludzi słuchających muzyki.</p> <p><strong>AV: Jaka jest r&oacute;żnica pomiędzy technologią NCore a innymi rozwiązaniami wzmacniaczy impulsowych?</strong></p> <p><strong>BP:</strong> W większości jest to wprost ogromna ilość sprzężenia zwrotnego. Poważnie! Audiofilom od 30 lat wmawia się, że sprzężenie zwrotne jest złe dla dźwięku. W rezultacie mogę się afiszować przed wszystkimi z moim sekretem, będąc pewnym, że i tak nikt w to nie uwierzy. Sugeruję przeczytanie mojego artykułu &bdquo;the F word&rdquo;, żeby dowiedzieć się więcej. <br />Problem polega na tym, że zrobienie dobrze działającej pętli silnego sprzężenia zwrotnego nie jest takie proste. Większość uważa, że wzmacniacz ze wzmocnieniem w otwartej pętli rzędu 80 dB i dominującym biegunem na 10 Hz ma &bdquo;dużo sprzężenia zwrotnego&rdquo;. Nie jest to prawda, ponieważ będzie miał on jedynie 14 dB sprzężenia przy 20 kHz. Dlatego właśnie ludzie są bardzo podejrzliwi w stosunku do &bdquo;dużej ilości sprzężenia zwrotnego&rdquo;. Wydaje im się, że słyszeli takie wzmacniacze, choć wcale tak nie było. 50 dB przy 20 kHz to jest dopiero dużo sprzężenia zwrotnego. Problem polega na tym, że jeżeli chcesz to osiągnąć prostym projektem, potrzebujesz bardzo szerokiego pasma przenoszenia. Klasa D nie ma go aż tyle &ndash;&nbsp;co najwyżej 200 kHz. Uzyskanie 50 dB przy 20 kHz, jeśli mamy pasmo mocy sięgające 200 kHz [optymistyczne założenie &ndash; przyp. red.], wymaga użycia pętli wysokich rzęd&oacute;w, kt&oacute;re są trudne matematycznie do zaprojektowania. To właśnie powstrzymuje innych od zrobienia tego samego (co ja). <br />Poza sprzężeniem zwrotnym jest masa drobnych detali w projekcie układu i płytki drukowanej redukujące EMI (zakł&oacute;cenia elektromagnetyczne). Zakł&oacute;cenia elektromagnetyczne są największym zab&oacute;jcą brzmienia. Może pamiętacie pewną firmę reklamującą jakiś czas temu wzmacniacz w klasie D, kt&oacute;ry nie pozwalał słuchać radia FM w swojej okolicy. Projektowanie wzmacniacza, kt&oacute;ry nie interferuje z falami FM, wymaga poświęcenia&nbsp; uwagi wielu szczeg&oacute;łom, ale jeżeli już to zrobisz, usłyszysz lepszą jakość dźwięku z innych źr&oacute;deł, ponieważ one r&oacute;wnież mają wrażliwe na zakł&oacute;cenia elementy. Finalnie, jest jeszcze problem umieszczenia części małosygnałowej na samym module. Znajduje się ona obok części wyjściowej przełączającej wiele amper&oacute;w prądu w ciągu pojedynczych nanosekund. Strategia pozwalająca na zapobieganie przesłuchom pomiędzy nimi to specjalna forma połączenia symetrycznego. Podkreśliłem ją gdzieś w artykule o nazwie &bdquo;the G word&rdquo;.</p> <p><strong>AV: Co z pasmem mocy? Wzmacniacze w klasie D nie błyszczą pod tym względem &ndash;&nbsp;nie wpływa to na intermodulację dużych częstotliwości audio?</strong></p> <p>BP: Pasmo mocy jest zdeterminowane przez odpowiedź filtru wyjściowego i istotnie jest to umiarkowane 35 kHz. Co ważne, w dobrze zaprojektowanym wzmacniaczu klasy D możesz go wysterować blisko jego limitu, bez pojawienia się niespodziewanych zniekształceń. Wzmacniacz w klasie AB, zwłaszcza zaprojektowany przez kogoś, kto zapomniał zdegenerować układ wejściowy (czyli w większości przypadk&oacute;w), dla sygnał&oacute;w audio musi pozostać bardzo, bardzo daleko od maksymalnej szybkości narastania, jeżeli chcesz uniknąć zniekształceń z nią związanych. Odsyłam do noty na temat DIM na stronie Hypex po więcej szczeg&oacute;ł&oacute;w. <br />Kr&oacute;tko m&oacute;wiąc, te wzmacniacze nie muszą radzić sobie z kr&oacute;tszymi czasami narastania niż te, kt&oacute;re spotykasz w audio. Najlepszy test sprawdzający, czy wzmacniacz (w klasie A/B czy D &ndash; nie ma to znaczenia) ma wystarczające pasmo mocy i szybkość narastania, to test z dwoma zmieszanymi tonami sinusoidalnymi 19 kHz i 20 kHz. Jeżeli go przejdziesz, nie jest istotna ani szybkość narastania, ani pasmo mocy.</p> <p><strong>AV: A o z fazą na g&oacute;rnym skraju pasma przenoszenia?</strong></p> <p>BP: We wzmacniaczach audio odpowiedź fazowa i częstotliwościowa są powiązane. Znając odpowiedź częstotliwościową, znasz też fazową. Tak naprawdę, przesunięcie fazy (pomiędzy wejściem a wyjściem) nie jest istotne. To, co jest ważne, to odstępstwa od liniowości fazy. Liniowa faza to po prostu op&oacute;źnienie sygnału. Jeżeli chcesz zmierzyć przesunięcie fazy, najpierw odejmij jej op&oacute;źnienie. Wszyscy wiedzą, żeby to robić podczas testowania kolumn, a nikt nie pamięta o tym w przypadku wzmacniaczy. Wszystko poniżej 45 stopni przy 20 kHz jest praktycznie niesłyszalne. Wzmacniacze UcD mają 2 stopnie odstępstwa od liniowej fazy, NCore &ndash; zaledwie 1 stopień. <br />Komiczny w branży jest fakt, że specyfikacja THX wymaga utrzymania określonego całkowitego przesunięcia fazy, więc nawet mądrzy ludzie potrafią to pomylić [we wzmacniaczach do kina domowego efekt op&oacute;źnienia grupowego może rzutować na kalibrację zestaw&oacute;w głośnikowych, zapewne stąd ten wym&oacute;g &ndash; przyp. red.].</p> <p><strong>AV: Czas zatem posłuchać&hellip;</strong></p> <p><strong>BP:</strong> Wzmacniacze impulsowe wyrosły już z chor&oacute;b wieku dziecięcego i osiągają coraz lepsze parametry, nie tylko w dziedzinie sprawności. Na przestrzeni ostatnich dziesięciu, a nawet kilku lat, widać ogromny postęp w tej dziedzinie. Co najmniej kilka z przetestowanych przez nas w ostanim czasie wzmacniaczy tego typu pokazuje, że potencjał klasy D jest bardzo duży. Zainteresowanych odsyłamy do recenzji najnowszej konstrukcji firmy Primare, jak r&oacute;wnież do indywidualnych odsłuch&oacute;w. Uprzedzenia w audio nigdy nie były dobrym doradcą, w przypadku klasy D obowiązuje dokładnie ta sama zasada.</p> <p>&nbsp;</p> <h2>Galeria</h2> <p>{gallery}technika/amplifikacja-impulsowa{/gallery}</p></div> <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/5d231997759398fd54d0c1f438d55347_S.jpg" alt="Co kryje klasa D?" /></div><div class="K2FeedIntroText"><p>Wzmacniacze impulsowe to wciąż kontrowersyjny temat &ndash; z punktu widzenia audiofil&oacute;w. Ci w większości są zdania, że te konstrukcje nie dorosły (jeszcze?) do tego, by zastąpić &bdquo;bardziej audiofilskie&rdquo; klasy A i AB. Poglądu tego nie podziela jednak rosnąca grupa producent&oacute;w specjalistycznych, z tak znanymi markami jak Marantz czy Theta. Gdzie zatem leży prawda?</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Michał Sommerfeld, Filip Kulpa | <strong>Zdjęcia:&nbsp;</strong>NAD, Marantz, Kii Audio, AV</p> <hr /> <p>Zacznijmy od tego, czym jest wzmacniacz impulsowy, częściej nazwany wzmacniaczem pracującym w klasie klasie D. To szczeg&oacute;lny typ wzmacniacza mocy, w kt&oacute;rym tranzystory końcowe (zwykle mosfety) pracują w trybie szybkiego przełączania pomiędzy stanami pełnego przewodzenia (nasycenia) a całkowitego wyłączenia (odcięcia). Ten schemat pracy wzmacniacza zasadniczo r&oacute;żni się od metody działania &bdquo;normalnych&rdquo; wzmacniaczy w klasie A czy AB, w kt&oacute;rych&hellip;</p> <p>&nbsp;</p> <h2>Klasy wzmacniacza</h2> <p>&hellip;przez elementy aktywne (tranzystor, lampa) cały czas przepływa ustalony prąd spoczynkowy, niezbędny do poprawnej pracy układu. Wartość tego prądu determinuje schemat przewodzenia tranzystor&oacute;w końcowych &ndash; a ściślej to, jak dużą część pełnego okresu sinusoidy przewodzi jeden element wzmacniający. Stąd wynikają definicje poszczeg&oacute;lnych klas pracy wzmacniaczy: A, B, AB, C. Co ciekawe, przyjęty spos&oacute;b definiowania klas pracy wzmacniaczy w og&oacute;le nie tłumaczy specyfiki klasy D. Litera &bdquo;D&rdquo; ma przede wszystkim kontekst historyczny &ndash; została użyta jako konsekwencja ustalonego wiele dekad temu konwencji podziału na wspomniane klasy. Była to po prostu kolejna litera w alfabecie.</p> <p>Należy tez nadmienić, że języku angielskim &bdquo;D&rdquo; jest skr&oacute;tem od słowa &bdquo;Digital&rdquo;, czyli &bdquo;Cyfrowy&rdquo;. A że spos&oacute;b działania wzmacniacza klasy D przypomina urządzenia cyfrowe, konkretnie zaś przetworniki analogowo-cyfrowe, to w branży audio przyjęło się (niepoprawnie!) używać terminu &bdquo;wzmacniacz cyfrowy&rdquo; jako zamiennik dla &bdquo;klasy D&rdquo;, czyli wzmacniacza impulsowego. Jak widać, klasa D jest pojęciem czysto umownym i w gruncie rzeczy nieprecyzyjnym. Ponieważ jednak na stałe weszła do słownika audio, dostosujemy się do przyjętej konwencji.</p> <p>&nbsp;</p> <h2>Sprawność: D kontra A i AB&nbsp;</h2> <p>Klasa pracy wzmacniacza w przybliżeniu determinuje jego sprawność, choć ta zależy także od innych czynnik&oacute;w, w szczeg&oacute;lności od faktycznego obciążenia stopni końcowych, czyli aktualnej mocy wyjściowej. Im jest ona mniejsza &ndash;&nbsp;czyli im ciszej słuchamy muzyki &ndash;&nbsp;tym sprawność stopniowo się obniża. W najbardziej optymistycznym, ale i najmniej życiowym przypadku, klasa A osiąga sprawność 20-25% &ndash;&nbsp;dotyczy to jednak mocy znamionowej. Przy 1/10 mocy, sprawność wzmacniacza tego typu maleje do zaledwie 3%. Klasa AB jest wyraźnie lepsza, choć wciąż bardzo mało efektywna &ndash; odpowiednie liczby to 50 i ok. 15-18%. Oznacza to olbrzymie straty energii elektrycznej, kt&oacute;ra nie tylko jest bezpowrotnie tracona, ale też wydziela się w postaci ciepła, kt&oacute;re niepotrzebnie podgrzewa cały układ elektroniczny, pogarszając warunki jego pracy i skracając żywotność niekt&oacute;rych komponent&oacute;w (np. kondensator&oacute;w). Dla por&oacute;wnania, wzmacniacze w klasie D osiągają maksymalną sprawność rzędu 90-95% oraz aż około 78% przy 1/10 pełnej mocy. Dzięki temu wzmacniacz impulsowy może uzyskiwać znacznie większe moce przy zachowaniu rozsądnych rozmiar&oacute;w obudowy. Nie wolno także zapominać, że mniejsze straty energii to także mniejszy zasilacz, mniejsze radiatory, większa swoboda w optymalizacji układu, a w konsekwencji &ndash; kr&oacute;tsze ścieżki sygnałowe.</p> <p>&nbsp;</p> <h2>Jak działa wzmacniacz impulsowy?</h2> <p>Jak już wspomnieliśmy, we wzmacniaczu impulsowym przez elementy aktywne nie przepływa prąd spoczynkowy. Tranzystory nie zapewniają wzmocnienia sygnału, lecz działają jak przełączniki pracujące w dw&oacute;ch stanach: odcięcia (nieprzewodzenia) do nasycenia. Ten drugi stan odpowiada &bdquo;odkręceniu kurka&rdquo;, tj. podaniu napięcia zasilania na wyjście wzmacniacza; pierwszy je blokuje. Pary tranzystor&oacute;w nigdy nie przewodzą jednocześnie: robi to albo jeden, albo drugi tranzystor (to krytyczny moment &ndash;&nbsp;w przeciwnym razie doszłoby do zwarcia układu zasilania). Stąd właśnie bierze się wysoka sprawność klasy D, ciepło odkłada się na elementach tylko przez kr&oacute;tką chwilę trwania impulsu, podczas gdy w klasycznych rozwiązaniach straty ciepła są ciągłe (prąd spoczynkowy).</p> <p>Minimalną częstotliwość przełączania (kluczowania) determinuje prawo Nyquista m&oacute;wiące to tym, że musi być ona co najmniej dwukrotnie wyższa niż g&oacute;rna granica pasma wzmacnianego sygnału. W praktyce częstotliwość kluczowania może wynosić od 80 nawet do pojedynczych megaherc&oacute;w.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/diagram1-schemat-blokowy.jpg" alt="diagram1 schemat blokowy" /></p> <p style="text-align: center;"><em><strong>Schemat blokowy typowego wzmacniacza w klasie D.</strong></em></p> <p>&nbsp;</p> <p>Pierwszym stopniem wzmacniacza impulsowego jest układ przekształcający z natury ciągły (nieskwantowany) sygnał analogowy (w przypadku sygnał&oacute;w wejściowych bieg sygnału w teorii nieco się upraszcza) na ciąg impuls&oacute;w o naturze binarnej (zerojedynkowej), kt&oacute;re dalej sterują załączaniem i wyłączaniem tranzystor&oacute;w końcowych. Do tego celu używa się generatora sygnału tr&oacute;jkątnego (piłokształtnego) i komparatora. Ten por&oacute;wnuje dwa sygnały wejściowe, dając na wyjściu jeden z dw&oacute;ch możliwych wynik&oacute;w, określając, czy sygnał jest mniejszy, czy większy od wzorca. Najczęściej mamy do czynienia z modulatorami szerokości impulsu (PWM &ndash; Pulse Width Modulation), rzadziej &ndash; z modulacją głębokości impulsu (PDM &ndash;&nbsp;Pulse Density Modulation). W jednym i drugim rozwiązaniu chodzi o to, by za pomocą zerojedynkowych stan&oacute;w możliwie dokładnie opisać sygnał wejściowy. Inaczej m&oacute;wiąc, wzmacniacz produkuje serię impuls&oacute;w o jednakowej amplitudzie, lecz (w przypadku PWM) r&oacute;żnej długości stan&oacute;w &bdquo;0&rdquo; i &bdquo;1&rdquo;.</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/diagram2-dzialanie-modulatora.jpg" alt="diagram2 dzialanie modulatora" style="display: block; margin-left: auto; margin-right: auto;" /></p> <p style="text-align: center;"><em><strong>Idea działania modulatora PWM i rekonstrukcji wyjściowego sygnału analogowego.</strong></em></p> <p>&nbsp;</p> <p>Stopień wypełnienia stanami o dużej amplitudzie (1)&nbsp;reprezentuje amplitudę sygnału (analogowego). To znaczy: dużo szerokich impuls&oacute;w odpowiada dużej amplitudzie sygnału, impulsy wąskie odpowiadają sygnałom małym. Jeśli uśrednimy całość w czasie, okaże się, że do głośnik&oacute;w płynie taki sygnał, jak powinien. By tak się ostatecznie stało, potrzebny jest jeszcze jeden istotny, a podstawowy element wzmacniacza impulsowego: filtr wyjściowy (zwykle szeregowa cewka i r&oacute;wnoległy kondensator &ndash;&nbsp;LC), kt&oacute;rego zadaniem jest tzw. rekonstrukcja sygnału analogowego, czyli &ndash; upraszczając nieco &ndash; oczyszczenie go z wysokoczęstotliwościowego &bdquo;brudu&rdquo;, będącego efektem szybkiego przełączania tranzystor&oacute;w oraz efekt&oacute;w aliasingu. Bez analogowego filtru wyjściowego sygnał PWM o dużej częstotliwości zniszczyłby głośnik wysokotonowy. Całość musi zostać objęta globalnym (i nie tylko) sprzężeniem zwrotnym. W przeciwnym wypadku zniekształcenia wzmacniacza byłyby bardzo duże.</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/class-d-reprezentacja-sinus.jpg" alt="class d reprezentacja sinus" style="display: block; margin-left: auto; margin-right: auto;" /></p> <p style="text-align: center;"><em><strong>Klasa D - reprezentacja sinus.</strong></em></p> <p>&nbsp;</p> <p>Warto jeszcze odnieść się do określenia &bdquo;wzmacniacz cyfrowy&rdquo;, używanego w odniesieniu do urządzeń wyposażonych jedynie w wejścia cyfrowe S/PDIF, AES/EBU czy USB. Większa część ścieżki sygnału może być w nich faktycznie cyfrowa, ale samo wzmocnienie pozostaje, co do zasady, analogowe.</p> <p>&nbsp;</p> <h2>Wyzwania dla klasy D</h2> <p>Pierwszy wzmacniacz w klasie D skonstruowano jeszcze w latach 60.. Nie jest to więc żadne nowinka. Tyle że do tej nowatorskiej koncepcji musiała dojrzeć odpowiednia technika, kt&oacute;ra pojawiła się dopiero stosunkowo niedawno &ndash; mniej więcej w połowie lat 90. Zaprojektowanie dobrego wzmacniacza impulsowego wymaga skomplikowanych symulacji i dużych umiejętności w projektowaniu obwod&oacute;w. Wsp&oacute;łczesne wzmacniacze w klasie D r&oacute;żnią się między sobą częstotliwością kluczowania, użytym sprzężeniem zwrotnym (rodzajem, sposobem implementacji) czy sposobem przełączania tranzystor&oacute;w.</p> <p>Tranzystory MOSFET reagują z pewnym op&oacute;źnieniem, w związku z czym przełączanie ze stanu odcięcia do nasycenia ma pewną zwłokę &ndash; nie jest natychmiastowe. To skutkuje tzw. martwym czasem. Z jednej strony, konstruktorzy dążą do jego skr&oacute;cenia, ponieważ sytuacja, w kt&oacute;rej oba tranzystory wyjściowe (para) są &bdquo;wyłączone&rdquo; skutkują stratami energii, zaś z drugiej &ndash; zbyt kr&oacute;tki czas martwy stwarza ewentualność jednoczesnego załączenia obu tranzystor&oacute;w, co prowadzi do zwarcia (awarii) zasilacza. Analogicznie &ndash; zwiększanie częstotliwości przełączania pozwala dokładniej opisać przebieg analogowy serią impuls&oacute;w PWM, ale prowadzi do zmniejszenia sprawności, rosną też zniekształcenia. Zadaniem projektanta jest umiejętne pogodzenie tych sprzeczności.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/NAD-C368-1.jpg" alt="NAD C368 1" /></p> <p style="text-align: center;"><em><strong>NAD C368 &ndash; niedrogi wzmacniacz zintegrowany, kt&oacute;ry potrafi przekonać sceptyk&oacute;w. Rok temu zrobił na nas duże wrażenie.</strong></em></p> <p>&nbsp;</p> <p>Obiektywną słabością wzmacniaczy w klasie D jest to, że na wyjściu pracuje pasywny filtr (LC), na kt&oacute;rego charakterystykę dość silnie wpływa rodzaj obciążenia, czyli impedancja zestaw&oacute;w głośnikowych. Ze zrozumiałych względ&oacute;w producent nie jest w stanie zoptymalizować filtru wyjściowego dla setek r&oacute;żnych zestaw&oacute;w głośnikowych. By sprostać temu i innym wyzwaniom, w&nbsp; ostatnich latach wiele uwagi poświęcono konstrukcji pętli sprzężenia zwrotnego, kt&oacute;re odpowiada za minimalizację zniekształceń generowanych przez wzmacniacz w klasie D. Pojawiły się r&oacute;żne rozwiązania i i zaawansowane techniki mające na celu radzenie sobie z innymi ograniczeniami wzmacniaczy w klasie D, a w szczeg&oacute;lności:</p> <ul> <li><strong>dużą opornością wyjściową (skutkującą małym wsp&oacute;łczynnikiem tłumienia),</strong></li> <li><strong>relatywnie dużym poziomem zniekształceń THD przy wyższych częstotliwościach,</strong></li> <li><strong>stosunkowo wąskim pasmem mocy i zniekształceniami fazowymi przy dużych częstotliwościach.</strong></li> </ul> <p><br />W konsekwencji, wielu renomowanych producent&oacute;w coraz śmielej i częściej sięga po konstrukcje impulsowe. Duża w tym zasługa wyspecjalizowanych wytw&oacute;rc&oacute;w moduł&oacute;w wzmacniaczy w klasie D, kt&oacute;rzy wprowadzają coraz bardziej dopracowane rozwiązania. Najnowszy high-endowy wzmacniacz Marantza PM-10 wykorzystuje moduły Ncore firmy Hypex, to samo dotyczy końc&oacute;wek mocy Mola Mola (dla tej firmy pracuje obecnie autor moduł&oacute;w nCore, z kt&oacute;rym przeprowadziliśmy rozmowę), obecna seria Classic firmy NAD wykorzystuje nieco tańsze rozwiązanie tej samej marki (w droższych modelach stosuje układ DDFA firmy CSR). Nie brak producent&oacute;w korzystających z innych gotowych rozwiązań, jak ICEPower. Pula producent&oacute;w korzystających z klasy D z roku na rok powiększa się.</p> <p>Dużym wyzwaniem dla projektant&oacute;w wciąż jednak pozostaje poradzenie sobie z zakł&oacute;ceniami elektromagnetycznymi, kt&oacute;rych wzmacniacze impulsowe produkują w nadmiarze. Przedostają się one po kablach połączeniowych, masie zasilania, powodując interferencje z innymi urządzeniami w systemie. Z tego względu, użytkując wzmacniacz w klasie D warto zadbać o spełnienie podstawowych (i uniwersalnych tak naprawdę) zasad dotyczących budowy system&oacute;w hi-fi, w szczeg&oacute;lności o właściwy porządek w okablowaniu, ustawieniu urządzeń (na wzmacniaczu impulsowym nie stawiamy odtwarzacza CD ani DAC-a) itd. Pomocne może być także stosowanie listew filtrujących dla urządzeń małosygnałowych (źr&oacute;dła, przedwzmacniacze).</p> <p>&nbsp;</p> <h2>Bruno Putzeys o klasie D</h2> <table border="0" cellspacing="0" cellpadding="10"> <tbody> <tr> <td style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/Bruno-Putzeys.jpg" alt="Bruno Putzeys" width="709" height="1000" />&nbsp;</td> <td colspan="2" style="text-align: center;"><em>&nbsp;Belg, z wykształcenia inżynier elektronik (ur. 1973) specjalizujący się w amplifikacji impulsowej. W latach 1995-2005 pracował dla Philipsa w Leuven, gdzie pełnił funkcję gł&oacute;wnego inżyniera odpowiedzialnego za projekty wzmacniaczy w klasie D (m.in. UcD). W latach 2004-2012 pracował dla firmy głośnikowej Grimm Audio (słynne monitory LS1), r&oacute;wnolegle pełnił funkcję szefa działu R&amp;D w firmie Hypex (do listopada 2014 r.). Wsp&oacute;łzałożyciel marek Kii Audio, Purifi oraz projektant (nie tylko elektroniki) w firmie Mola Mola.&nbsp;&nbsp;&nbsp;</em></td> </tr> </tbody> </table> <p>&nbsp;</p> <p><strong>AV: Dlaczego klasa D jest określana jako cyfrowa, skoro tak nie jest?</strong></p> <p><strong>BP:</strong> Ściśle rzecz biorąc, klasa D nigdy nie jest cyfrowa. Cyfrowa oznacza, że wszystko jest wykonywane przy użyciu liczb. Wzmacniacz w klasie D pracuje z napięciami i prądami zmieniającymi się w czasie, tak jak każdy inny wzmacniacz. <br />Określenie &bdquo;wzmacniacz cyfrowy&rdquo; pojawiło się z niezrozumienia litery &bdquo;D&rdquo;. Kiedy klasa D została wynaleziona (w latach 30. ubiegłego wieku) istniały już klasy A, B i C, więc nazwali ją klasą D. Oczywiście w tamtych czasach nie było technologii cyfrowej, z kt&oacute;rą można było ją pomylić. W roku 2004 wsp&oacute;łtworzyłem dokument AES (Audio Engeineering Society przyp. autor) zatytułowany &bdquo;Wszystkie wzmacniacze są analogowe&rdquo; (oryg. &bdquo;All Amplifiers are Analogue&rdquo;), warto go wyguglować i przeczytać. <br />Oczywiście istnieją wzmacniacze wykorzystujące DSP (cyfrowe przetwarzanie sygnału przyp. autor) jako element konstrukcji i można je nazywać &bdquo;trochę cyfrowymi&rdquo;, ale &bdquo;prawdziwe&rdquo; wzmacniacze cyfrowe nie istnieją.</p> <p><strong>AV: Jakie wymieniłbyś gł&oacute;wne zalety wzmacniaczy w klasie D?</strong></p> <p><strong>BP:</strong> Wzmacniacze w klasie D mają dużą sprawność, dzięki czemu są wyborem przyjaznym dla środowiska. Ta sprawność oznacza mniej marnowanego ciepła, a w związku z tym możesz użyć mniejszych radiator&oacute;w, czasem nawet zupełnie z nich zrezygnować. Dlatego też wzmacniacz może być sporo mniejszy niż por&oacute;wnywalny mocowo w klasie A.</p> <p><strong> AV: A wady klasy D?</strong></p> <p><strong>BP:</strong> To bardzo trudna i skomplikowana technika. Uzyskanie dobrych osiąg&oacute;w audio jest ogromnym technicznym wyzwaniem, kt&oacute;re wymaga dobrych zdolności matematycznych, połączonych z nadzwyczajnie dobrym projektowaniem obwod&oacute;w analogowych i płytek drukowanych. To są oczywiście trudności dla projektanta. Dla klienta wzmacniacz w klasie D nie ma żadnych wad, ponieważ ich rozwiązanie to zadanie konstruktora. Klient musi jedynie wiedzieć, kt&oacute;ry wzmacniacz powinien kupić.</p> <p><strong> AV: Czy istnieje jakiś konkretny rodzaj kolumn głośnikowych, kt&oacute;rych wzmacniacze w klasie D nie lubią?</strong></p> <p><strong> BP:</strong> W przeszłości wzmacniacze w klasie D miały dużą impedancję wyjściową w zakresie wysokich częstotliwości, co oznaczało, że większość kolumn miała ich (wysokich ton&oacute;w) zbyt wiele, a kilka innych &ndash;&nbsp;za mało. Te problemy zostały obecnie rozwiązane &ndash; impedancja wyjściowa nowoczesnej technologii klasy D, takiej jak NCore, jest dużo niższa niż większości high-endowych wzmacniaczy w klasie A. Obecnie dobry wzmacniacz w klasie D bez problem&oacute;w wysteruje każdą kolumnę.</p> <p><strong> AV: Jaki zasilacz jest lepszy &ndash;&nbsp;liniowy czy impulsowy? I do jakiego rodzaju wzmacniaczy?</strong></p> <p><strong> BP:</strong> Jak zawsze, istnieją dobre i złe projekty, więc nie ma sztywnej zasady. Jedynie mogę powiedzieć, że wiele doskonałych wzmacniaczy (w klasach D i A/B) używa zasilania impulsowego, a rezultat jest tak dobry, jak przy zastosowaniu zasilacza liniowego [jednym z wymownych przykład&oacute;w tej tendencji jest nowa wersja wzmacniacza Baltlab Endo 2, w kt&oacute;rym zasilacz liniowy zastąpiono impulsowym &ndash; przyp. F.K.]. Podobnie jak klasa D, zasilacze impulsowe to trudna technologia, więc znaleźć można wiele złych przykład&oacute;w zasilaczy impulsowych. Ci ludzie następnie wysnuwają wniosek oparty na ich własnym doświadczeniu: iż dobry zasilacz impulsowy jest niemożliwy do zbudowania. Chciałbym zaznaczyć, że jest r&oacute;wnież wiele kiepskich wzmacniaczy w klasie A z liniowymi zasilaczami, co rzecz jasna nie oznacza, że ta technologia jest zła.</p> <p><strong>AV: Czy wzmacniacze i zasilacze impulsowe powinny pracować z najwyższą możliwą częstotliwością kluczowania?</strong></p> <p><strong>BP:</strong> To duże nieporozumienie. Zwiększanie częstotliwości kluczowania wzmacniacza w klasie D powyżej tego, co jest niezbędne, zwiększa jedynie techniczne problemy. Zniekształcenia w otwartej pętli rosną, a efektywność maleje. Moim zdaniem jedynym powodem, dla kt&oacute;rego ludzie lubią wysokie częstotliwości kluczowania jest fakt, że projektowanie układ&oacute;w z dużym wzmocnieniem i rozsądnymi częstotliwościami kluczowania jest trudne matematycznie. Inżynierowie wolą efekciarskie nowe technologie od nudnej matematyki. Poza tym, rzecz jasna, audiofile lubią duże cyferki, wysokie częstotliwości pr&oacute;bkowania i tak dalej. Trudno zainteresować ich matematyką, za to łatwo ekscytują się wyższymi wartościami. <br />Istnieje obecnie grupa tw&oacute;rc&oacute;w eksperymentujących z tranzystorami FET z azotku galu pozwalającymi na wyższe częstotliwości kluczowania, ale nadal nie widziałem żadnego z tych wzmacniaczy, kt&oacute;ry dałby choć zbliżone zniekształcenia do najlepszych wzmacniaczy w klasie D opartych na krzemie. 500 kHz to dobry punkt startu.</p> <p>W zakresie zasilaczy impulsowych jest to kwestia czysto praktyczna. Wyższa częstotliwość kluczowania pozwala zbudować mniejsze urządzenie, ale trudniej utrzymać jego dużą skuteczność. Nie istnieje jednoznaczny związek między częstotliwością kluczowania zasilacza impulsowego a osiągami audio.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/amplifikacja-impulsowa/NAD-C368-Hypex-UcD-1.jpg" alt="NAD C368 Hypex UcD 1" style="border: 1px solid #000000;" /></p> <p style="text-align: center;"><em><strong>Moduł UcD (Hypex) stosowany we wzmacniaczach NAD serii Classic.</strong></em></p> <p>&nbsp;</p> <p><strong>AV:</strong> <strong>Czy klasa D jest jedyną słuszną przyszłością dla wzmacniaczy audio?</strong></p> <p><strong>BP:</strong> Skoro możesz mieć wzmacniacz w klasie D, kt&oacute;ry jest r&oacute;wnie dobry, jak najlepsze konstrukcje w klasie A, nie widzę powodu, żeby wybierać klasę A. Powodem tego stanu rzeczy nie jest nawet sama wyższość klasy D, lecz prozaiczny fakt, że projektanci wzmacniaczy w klasie A przespali mn&oacute;stwo czasu, nie pracując nad swoimi konstrukcjami, podczas gdy w konstrukcji wzmacniaczy impulsowych dzieje się bardzo wiele dobrego. Dogryzałem obozowi klasy A przez cała lata i muszę przyznać, że w końcu podjęli wyzwanie. Ostatnio spotkałem jeden czy dwa&nbsp; (bardzo drogie) wzmacniacze w klasie A, kt&oacute;re poważnie rywalizują z moją obecną pracą. W związku z tym czuję się pozytywnie zmotywowany, żeby wspinać się na jeszcze wyższy poziom.</p> <p><strong>AV: Dlaczego audiofile nienawidzą klasy D?</strong></p> <p><strong>BP:</strong> Uważam, że to zbyt mocne sformułowanie. Odnosi się ono do tych, kt&oacute;rzy wskutek swoich uprzedzeń do tej techniki po prostu nie chcą spr&oacute;bować posłuchać dobrych wzmacniaczy w klasie D. Istnieje grupa audiofil&oacute;w, kt&oacute;rzy preferują pewien rodzaj zniekształceń obecny w układach lampowych, jednak ostatnio odkrywam, że wielu miłośnik&oacute;w lamp przeszło na wzmacniacze z naszymi modułami NCore. Rodzi się pytanie, dlaczego tak się dzieje. Większość miłośnik&oacute;w lampowc&oacute;w nie akceptuje brzmienia wzmacniaczy tranzystorowych dlatego, że bardziej akceptują pewne zniekształcenia (typowa dla lamp), ponieważ chcą uniknąć zniekształceń innego typu.</p> <p>Dla mnie bardziej interesujące jest to, że istniała niewielka grupa ludzi, kt&oacute;ra zawsze opisywała wzmacniacze w klasie D (poza NCore) jako specyficznie brzmiące, a ja nie mogłem aż do niedawna rozgryźć &ndash; dlaczego? Okazało się, że rdzeń magnetyczny cewki wyjściowej ma pamięć i wytwarza niewielką ilość bardzo skomplikowanego zniekształcenia. Pow&oacute;d, dla kt&oacute;rego NCore nie ma tej dźwiękowej sygnatury, jest taki, że wykorzystuje tak dużo sprzężenia zwrotnego, iż to zniekształcenie jest kompletnie niewykrywalne. Sprzężenie zwrotne to fajna rzecz&hellip;</p> <p><strong>AV: Dlaczego w og&oacute;le zdecydowałeś się projektować wzmacniacze w klasie D?</strong></p> <p><strong>BP:</strong> Ponieważ jest to ciekawe i wymagające zajęcie. Poza tym nie zapominajmy, że świat ezoterycznego audio emocjonalnie wciągnięty w starą technologię jest bardzo, bardzo niewielkim wycinkiem ludzi słuchających muzyki.</p> <p><strong>AV: Jaka jest r&oacute;żnica pomiędzy technologią NCore a innymi rozwiązaniami wzmacniaczy impulsowych?</strong></p> <p><strong>BP:</strong> W większości jest to wprost ogromna ilość sprzężenia zwrotnego. Poważnie! Audiofilom od 30 lat wmawia się, że sprzężenie zwrotne jest złe dla dźwięku. W rezultacie mogę się afiszować przed wszystkimi z moim sekretem, będąc pewnym, że i tak nikt w to nie uwierzy. Sugeruję przeczytanie mojego artykułu &bdquo;the F word&rdquo;, żeby dowiedzieć się więcej. <br />Problem polega na tym, że zrobienie dobrze działającej pętli silnego sprzężenia zwrotnego nie jest takie proste. Większość uważa, że wzmacniacz ze wzmocnieniem w otwartej pętli rzędu 80 dB i dominującym biegunem na 10 Hz ma &bdquo;dużo sprzężenia zwrotnego&rdquo;. Nie jest to prawda, ponieważ będzie miał on jedynie 14 dB sprzężenia przy 20 kHz. Dlatego właśnie ludzie są bardzo podejrzliwi w stosunku do &bdquo;dużej ilości sprzężenia zwrotnego&rdquo;. Wydaje im się, że słyszeli takie wzmacniacze, choć wcale tak nie było. 50 dB przy 20 kHz to jest dopiero dużo sprzężenia zwrotnego. Problem polega na tym, że jeżeli chcesz to osiągnąć prostym projektem, potrzebujesz bardzo szerokiego pasma przenoszenia. Klasa D nie ma go aż tyle &ndash;&nbsp;co najwyżej 200 kHz. Uzyskanie 50 dB przy 20 kHz, jeśli mamy pasmo mocy sięgające 200 kHz [optymistyczne założenie &ndash; przyp. red.], wymaga użycia pętli wysokich rzęd&oacute;w, kt&oacute;re są trudne matematycznie do zaprojektowania. To właśnie powstrzymuje innych od zrobienia tego samego (co ja). <br />Poza sprzężeniem zwrotnym jest masa drobnych detali w projekcie układu i płytki drukowanej redukujące EMI (zakł&oacute;cenia elektromagnetyczne). Zakł&oacute;cenia elektromagnetyczne są największym zab&oacute;jcą brzmienia. Może pamiętacie pewną firmę reklamującą jakiś czas temu wzmacniacz w klasie D, kt&oacute;ry nie pozwalał słuchać radia FM w swojej okolicy. Projektowanie wzmacniacza, kt&oacute;ry nie interferuje z falami FM, wymaga poświęcenia&nbsp; uwagi wielu szczeg&oacute;łom, ale jeżeli już to zrobisz, usłyszysz lepszą jakość dźwięku z innych źr&oacute;deł, ponieważ one r&oacute;wnież mają wrażliwe na zakł&oacute;cenia elementy. Finalnie, jest jeszcze problem umieszczenia części małosygnałowej na samym module. Znajduje się ona obok części wyjściowej przełączającej wiele amper&oacute;w prądu w ciągu pojedynczych nanosekund. Strategia pozwalająca na zapobieganie przesłuchom pomiędzy nimi to specjalna forma połączenia symetrycznego. Podkreśliłem ją gdzieś w artykule o nazwie &bdquo;the G word&rdquo;.</p> <p><strong>AV: Co z pasmem mocy? Wzmacniacze w klasie D nie błyszczą pod tym względem &ndash;&nbsp;nie wpływa to na intermodulację dużych częstotliwości audio?</strong></p> <p>BP: Pasmo mocy jest zdeterminowane przez odpowiedź filtru wyjściowego i istotnie jest to umiarkowane 35 kHz. Co ważne, w dobrze zaprojektowanym wzmacniaczu klasy D możesz go wysterować blisko jego limitu, bez pojawienia się niespodziewanych zniekształceń. Wzmacniacz w klasie AB, zwłaszcza zaprojektowany przez kogoś, kto zapomniał zdegenerować układ wejściowy (czyli w większości przypadk&oacute;w), dla sygnał&oacute;w audio musi pozostać bardzo, bardzo daleko od maksymalnej szybkości narastania, jeżeli chcesz uniknąć zniekształceń z nią związanych. Odsyłam do noty na temat DIM na stronie Hypex po więcej szczeg&oacute;ł&oacute;w. <br />Kr&oacute;tko m&oacute;wiąc, te wzmacniacze nie muszą radzić sobie z kr&oacute;tszymi czasami narastania niż te, kt&oacute;re spotykasz w audio. Najlepszy test sprawdzający, czy wzmacniacz (w klasie A/B czy D &ndash; nie ma to znaczenia) ma wystarczające pasmo mocy i szybkość narastania, to test z dwoma zmieszanymi tonami sinusoidalnymi 19 kHz i 20 kHz. Jeżeli go przejdziesz, nie jest istotna ani szybkość narastania, ani pasmo mocy.</p> <p><strong>AV: A o z fazą na g&oacute;rnym skraju pasma przenoszenia?</strong></p> <p>BP: We wzmacniaczach audio odpowiedź fazowa i częstotliwościowa są powiązane. Znając odpowiedź częstotliwościową, znasz też fazową. Tak naprawdę, przesunięcie fazy (pomiędzy wejściem a wyjściem) nie jest istotne. To, co jest ważne, to odstępstwa od liniowości fazy. Liniowa faza to po prostu op&oacute;źnienie sygnału. Jeżeli chcesz zmierzyć przesunięcie fazy, najpierw odejmij jej op&oacute;źnienie. Wszyscy wiedzą, żeby to robić podczas testowania kolumn, a nikt nie pamięta o tym w przypadku wzmacniaczy. Wszystko poniżej 45 stopni przy 20 kHz jest praktycznie niesłyszalne. Wzmacniacze UcD mają 2 stopnie odstępstwa od liniowej fazy, NCore &ndash; zaledwie 1 stopień. <br />Komiczny w branży jest fakt, że specyfikacja THX wymaga utrzymania określonego całkowitego przesunięcia fazy, więc nawet mądrzy ludzie potrafią to pomylić [we wzmacniaczach do kina domowego efekt op&oacute;źnienia grupowego może rzutować na kalibrację zestaw&oacute;w głośnikowych, zapewne stąd ten wym&oacute;g &ndash; przyp. red.].</p> <p><strong>AV: Czas zatem posłuchać&hellip;</strong></p> <p><strong>BP:</strong> Wzmacniacze impulsowe wyrosły już z chor&oacute;b wieku dziecięcego i osiągają coraz lepsze parametry, nie tylko w dziedzinie sprawności. Na przestrzeni ostatnich dziesięciu, a nawet kilku lat, widać ogromny postęp w tej dziedzinie. Co najmniej kilka z przetestowanych przez nas w ostanim czasie wzmacniaczy tego typu pokazuje, że potencjał klasy D jest bardzo duży. Zainteresowanych odsyłamy do recenzji najnowszej konstrukcji firmy Primare, jak r&oacute;wnież do indywidualnych odsłuch&oacute;w. Uprzedzenia w audio nigdy nie były dobrym doradcą, w przypadku klasy D obowiązuje dokładnie ta sama zasada.</p> <p>&nbsp;</p> <h2>Galeria</h2> <p>{gallery}technika/amplifikacja-impulsowa{/gallery}</p></div> Moc a impedancja. Jak dobierać wzmacniacze i słuchawki 2018-02-28T13:08:58+00:00 2018-02-28T13:08:58+00:00 https://m.avtest.pl/artykuly/technika/item/791-moc-a-impedancja-jak-dobierac-wzmacniacze-i-sluchawki Webmaster webmaster@av.com.pl <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/e1a325047b148c9441be2b14c42dc196_S.jpg" alt="Moc a impedancja. Jak dobierać wzmacniacze i słuchawki" /></div><div class="K2FeedIntroText"><p>Moc wyjściowa jest bodaj najczęściej cytowanym parametrem w opisach sprzętu hi-fi. Właściwa interpretacja konkretnych wartości, także w odniesieniu do odtwarzaczy mobilnych i wzmacniaczy słuchawkowych, stała się problematyczna. Tym bardziej, że jest to parametr uzależniony od czynnik&oacute;w, kt&oacute;re &ndash;&nbsp;jak pokazuje życie &ndash; rzadko kiedy bierzemy pod uwagę.</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Filip Kulpa | <strong>Zdjęcia: </strong>autor, Chord Electronics, Nordost</p> <hr /> <p>W latach 70., 80. i 90. ubiegłej dekady zagadnienie mocy sprzętu hi-fi dotyczyło niemal wyłącznie zestaw&oacute;w głośnikowych i dedykowanych doń wzmacniaczy. Mawiało się, że do wzmacniacza o mocy X powinno się kupić zestawy głośnikowe o mocy 2X. Dziś obśmiewamy ten skrajnie uproszczony poradnik doboru głośnik&oacute;w do wzmacniacza. W niniejszym artykule nie będziemy się jednak zajmować mocą zespoł&oacute;w głośnikowych. Będzie nas interesować moc wzmacniacza, impedancja wyjściowa jak r&oacute;wnież rezystancji kabli &ndash; tak w sferze system&oacute;w głośnikowych, jak i słuchawkowych. Pokażemy, co dzieje się przy złym dopasowaniu tych parametr&oacute;w i jakie one powinny być.</p> <p>&nbsp;</p> <h2>Moc a obciążenie</h2> <p>Na początek kr&oacute;tkie przypomnienie z fizyki: moc elektryczna (P) jest iloczynem napięcia (U) i natężenia (I) prądu przepływającego przez dany odbiornik energii elektrycznej:</p> <p><strong>P = U * I</strong></p> <p>(przy założeniu, że w obwodzie płynie prąd stały lub zmienny, a obciążenie jest czysto rezystancyjne). <br />Zauważmy, że moc nie jest tak naprawdę wartością przypisaną do wzmacniacza, lecz do obciążenia &ndash; w naszym przypadku są nim zestawy głośnikowe lub słuchawki. Wykorzystując prawo Ohma, otrzymujemy zależność m&oacute;wiącą, że moc rośnie proporcjonalnie do kwadratu napięcia, a maleje proporcjonalnie do obciążenia:</p> <p><strong>P = U<sup>2 </sup>/ R</strong></p> <p>gdzie U jest napięciem, R &ndash; rezystancją obciążenia.</p> <p>Przyjmuje się, że idealny wzmacniacz sygnału audio jest źr&oacute;dłem napięciowym, co oznacza, że powinien utrzymywać stałą wartość napięcia wyjściowego, niezależnie od obciążenia (mieszczącego się w zakresie tolerowanym przez ten wzmacniacz). Weźmy przykład wzmacniacza generującego maksymalne napięcie (skuteczne) na zaciskach głośnikowych, wynoszące 20 V (RMS) przy obciążeniu 8 &Omega;. Jego teoretyczna moc wyniesie 400/8 = 50 W. Zmniejszenie impedancji o połowę powinno zwiększyć moc dwukrotnie &ndash; do&nbsp; 100 W.</p> <p>Jednak z reguły tak się nie dzieje. Większość audiofil&oacute;w zapytana &ndash; dlaczego, odpowie, że to skutek niedostatecznie dużego zasilacza. To też, ale nie tylko.</p> <p>O ile w przypadku znakomitej większości głośnikowych wzmacniaczy p&oacute;łprzewodnikowych lub hybrydowych (z tranzystorowym stopniem końcowym) moc użyteczna (ta oddawana do głośnik&oacute;w, słuchawek) jest uwarunkowana w gł&oacute;wnej mierze osiąganym napięciem wyjściowym i wydajnością zasilacza, o tyle w przypadku:</p> <ul> <li>wzmacniaczy lampowych</li> <li>wzmacniaczy słuchawkowych</li> <li>odtwarzaczy mobilnych</li> </ul> <p>do głosu dochodzi jeszcze jeden czynnik, a mianowicie&hellip;</p> <p>&nbsp;</p> <h2>Impedancja wyjściowa</h2> <p>Impedancja (oporność) wyjściowa to nic innego jak miara oporu wewnętrznego źr&oacute;dła (wzmacniacza), kt&oacute;rą najłatwiej wyobrazić sobie jako szeregowy rezystor połączony z dodatnim terminalem wyjściowym wzmacniacza. Wartość tego oporu jest zależna od konstrukcji i typu wzmacniacza i może się ona kształtować bardzo r&oacute;żnie: od pojedynczych miliom&oacute;w (np. wzmacniacze Devialeta, Audioneta) do 2&ndash;3 &Omega; typowych dla konstrukcji lampowych (głośnikowych) oraz w przedziale 0,1&ndash;15 &Omega; dla wzmacniaczy słuchawkowych. Impedancja wyjściowa wzmacniacza tworzy wraz z obciążeniem (głośnikiem, słuchawkami), przewodami łączącymi wzmacniacz i obciążenie tzw. dzielnik napięcia (rys. obok). To prosty obw&oacute;d elektryczny złożony z szeregowych opornik&oacute;w (lub w og&oacute;lności &ndash; impedancji). Istotą dzielnika napięcia (nota bene będącego podstawą działania regulator&oacute;w głośności) jest &ndash; jak sama nazwa wskazuje &ndash; dzielenie napięcia źr&oacute;dła (wzmacniacza) na dwie mniejsze wartości, w proporcji określonej stosunkiem obu rezystancji. W rozważanym przypadku są to rezystancja wyjściowa Rwy i rezystancja obciążenia R. I tak, jeśli Rwy ma wartość 1 &Omega;, a R r&oacute;wna się 8 &Omega;, to spadek potencjału (napięcie) na obciążeniu stanowi 8/9 całego napięcia generowanego przez źr&oacute;dło, czyli wzmacniacz. W związku z tym 1/9 tego napięcia nigdy nie dociera do odbiornika. A ponieważ moc jest zależna od napięcia (proporcjonalna do jego kwadratu), więc powstaje problem: część oddawanej przez wzmacniacz mocy zostaje&nbsp; stracona.</p> <p>&nbsp;</p> <table border="0" cellspacing="0" cellpadding="10"> <tbody> <tr> <td style="text-align: center;"><strong><img src="https://m.avtest.pl/images/technika/impedancja/dzielnik-napiecia.jpg" alt="dzielnik napiecia" width="1000" height="990" /></strong></td> <td colspan="2" style="text-align: center;"><em><strong><em><strong>Dzielnik napięcia z opornością wyjściową wzmacniacza (Rwy), rezystancją okablowania (Rk) i rezystancją obciążenia. Rwy i Rk są &bdquo;pasożytami", kt&oacute;re &bdquo;kradną" część napięcia &ndash; a więc i mocy &ndash; właściwemu obciążeniu, czyli głośnikom lub słuchawkom. Im większy jest stosunek sumy Rk+Rwy do R, tym większa jest utrata mocy dostarczanej do głośnika/ słuchawek &ndash; a więc tym ciszej gra muzyka.</strong></em></strong></em></td> </tr> </tbody> </table> <p>&nbsp;</p> <p>Wynika stąd, że idealny wzmacniacz powinien być nie tylko źr&oacute;dłem napięciowym, ale źr&oacute;dłem napięciowym o zerowej impedancji wyjściowej. Tylko wtedy byłoby możliwe uniknięcie opisanych strat mocy. Policzmy je na kilku przykładach. Uwzględniając fakt, że w naszym obwodzie są też przewody, kt&oacute;re r&oacute;wnież mają określoną oporność, nasz dzielnik napięcia składa się nie z dw&oacute;ch, a z trzech rezystancji: obciążenia (R), wyjściowej wzmacniacza (Rwy) oraz rezystancji przewod&oacute;w.&nbsp; Moc oddawaną do obciążenia R (głośnika) obliczymy ze wzoru:</p> <p>&nbsp;<img src="https://m.avtest.pl/images/technika/wzor-do-tekstu1.jpg" alt="wzor do tekstu1" width="300" height="141" /></p> <p>Wr&oacute;ćmy do naszego &bdquo;testowego&rdquo; wzmacniacza tranzystorowego dającego napięcie 20 V podstawiając realistyczne wartości: Rwy = 0,05 &Omega;, Rk = 0,04 &Omega; (typowy op&oacute;r 3-metrowego przewodu głośnikowego). Wynik to 48,89 W. Spadek mocy jest więc niewielki (2,2%). W przypadku obciążenia 4-omowego wynosi on już 4,4% (95,6 vs 100 W). Jakby nie było, prawie 5 W &bdquo;wyparowało&rdquo;.</p> <p>Zgoła odmiennie przedstawia się sytuacja w przypadku typowego wzmacniacza lampowego push-pull o impedancji wyjściowej 2,2 &Omega;, wsp&oacute;łpracującego z bardziej sprzyjającym obciążeniem 8-omowym. Wtedy 20 V skutecznego napięcia wyjściowego (uzyskiwanego bez obciążenia) daje moc zaledwie 30,75 W.</p> <p>Spadek mocy przekracza 38%. W przypadku konstrukcji single-ended na lampie 300B (Rwy ok. 3 &Omega;) będzie to jeszcze więcej &ndash;&nbsp;aż 47%.</p> <p>Interesująco wygląda przeliczenie tych wartości na spadek głośności. Dla wzmacniacza tranzystorowego otrzymujemy zupełnie pomijalne spadki 0,1 dB (8 &Omega;) i 0,19 dB (4 &Omega;), zaś dla wzmacniaczy lampowych &ndash; znaczące 2,1 dB i 2,8 dB (single-ended 300B).</p> <p>&nbsp;</p> <h2>Niedoceniane kable słuchawkowe</h2> <p>Impedancja wyjściowa lampowc&oacute;w jest o dwa lub trzy rzędy wielkości większa od rezystancji kabli, w związku z czym straty mocy na kablach można zaniedbać. W przypadku wzmacniaczy słuchawkowych i odtwarzaczy mobilnych mamy do czynienia z pośrednim scenariuszem &ndash; rezystancja kabla może, lecz nie musi, stanowić dość istotny ułamek rezystancji wyjściowej wzmacniacza lub odtwarzacza. Ta pierwsza wartość z reguły jest wartością niewiadomą &ndash;&nbsp;oczywiście można ją zmierzyć, lecz mało kto się tym przejmuje (niesłusznie!). Zagadnienie okazuje się ciekawe, bowiem przewody słuchawkowe bywają długie (3&ndash;4 m), ich przekr&oacute;j jest wielokrotnie cieńszy niż kabli głośnikowych, zaś impedancje wielu wsp&oacute;łczesnych słuchawek oscylują wok&oacute;ł niskich wartości 18-24 &Omega;. Okazuje się, że metr typowego kabla słuchawkowego ma rezystancję&nbsp; 0,6&ndash;0,7 &Omega;&nbsp; (w pętli powrotnej). Jeśli przew&oacute;d jest 1-metrowy, problemu jeszcze nie ma, ale już w przypadku kabli 3-metrowych&nbsp; &ndash; a takie często bywają dodawane w komplecie &ndash;&nbsp;rezystancja rośnie do około 2 &Omega;! To wartość, kt&oacute;ra dubluje, a nawet kilkakrotnie zwiększa efektywną rezystancję wyjściową źr&oacute;dła sygnału, istotnie pogarszając dopasowanie słuchawek do wzmacniacza. Problem dotyczy w gł&oacute;wnej mierze słuchawek o małej impedancji &ndash;&nbsp;a więc konstrukcji mobilnych, kt&oacute;re nierzadko decydujemy się używać stacjonarnie, korzystając niekiedy z wygodniejszego, dużo dłuższego przewodu. Niestety, w zdecydowanej większości przypadk&oacute;w nie będzie to dobre posunięcie. Weźmy przykład znakomitych skądinąd słuchawek Meze 99 Classics (18 &Omega;). Kr&oacute;tki kabel fabryczny ma rezystancję 0,65 &Omega;, długi &ndash; aż 1,9 &Omega;. W przypadku sterowania ze wzmacniacza o impedancji wyjściowej 3 &Omega;, spadek poziomu SPL wyniesie 1,6 dB dla kr&oacute;tkiego kabla i 2,1 dB dla długiego. Nie są to r&oacute;żnice, kt&oacute;re łatwo usłyszymy, ale stosowanie dłuższego kabla jest niewskazane z jeszcze jednego powodu, kt&oacute;ry om&oacute;wimy za chwilę.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/kabel.jpg" alt="kabel" /></p> <p style="text-align: center;"><em><strong>Rynek specjalistycznych przewod&oacute;w słuchawkowych obfituje w coraz więcej konstrukcji, nieraz całkiem drogich. Niestety, producenci nie podają najważniejszego parametru takich kabli &ndash; rezystancji.</strong></em></p> <p>&nbsp;</p> <p>Reasumując: jeśli używamy słuchawek o małej impedancji (16&ndash;32 &Omega;) oraz długich przewod&oacute;w połączeniowych, powinniśmy szukać wzmacniacza o bardzo małej impedancji wyjściowej (2 &Omega;&nbsp; lub poniżej). Zalecenie to wynika nie tylko z dążenia do minimalizowania strat mocy, bo te w przypadku urządzeń stacjonarnych zwykle nie stanowią problemu. Chodzi o inny efekt, będący skutkiem niedopasowania impedancji źr&oacute;dła (czytaj: wzmacniacza) i obciążenia.</p> <p>&nbsp;</p> <h2>Dopasowanie wzmacniacza do obciążenia</h2> <p>Spadki mocy i poziomu natężenia dźwięku, obliczone dla r&oacute;żnych kombinacji impedancji wyjściowych, oporności przewod&oacute;w oraz impedancji głośnik&oacute;w/słuchawek są obojętne wobec faktu, że impedancja każdego przetwornika elektroakustycznego jest wartością zmienną, zależną od częstotliwości. Dla typowych zestaw&oacute;w głośnikowych (w dużo mniejszym stopniu dotyczy to także słuchawek) zmienność modułu impedancji &ndash; bo to on tak naprawdę determinuje spadki napięcia/mocy/poziomu SPL &ndash;&nbsp;jest nawet 10-krotna. Dobrym przykładem mogą być monitory Amphion Argon 3S, kt&oacute;rych minimum modułu impedancji wynosi 5 &Omega;, zaś maksimum &ndash;&nbsp;56 &Omega;. Taka zmienność impedancji ma wpływ na wynikową charakterystykę przenoszenia układu głośnik-kable-wzmacniacz.</p> <p><img src="https://m.avtest.pl/images/technika/impedancja/technika-1.jpg" alt="Spadek SPL - wzmacniacz" width="1200" height="815" style="display: block; margin-right: auto; margin-left: auto;" title="Spadek SPL - wzmacniacz" /></p> <p style="text-align: center;"><em><strong>Wykresy spadk&oacute;w napięcia użytecznego (U) względem napięcia wyjściowego bez obciążenia (Uwy) w zależności od impedancji wyjściowej wzmacniacza (oś X) oraz impedancji podłączonych zestaw&oacute;w głośnikowych. 6 dB na osi Y oznacza spadek napięcia o połowę, mocy o 75%. Poszczeg&oacute;lne linie odpowiadają r&oacute;żnym wartościom obciążeń: 3, 4, 6, 8 om&oacute;w. W symulacjach uwzględniono rezystancję przewod&oacute;w głośnikowych (50 miliom&oacute;w). Wartości na osi X odpowiadają wzmacniaczom o dużych impedancjach wyjściowych, typowych dla konstrukcji lampowych. Obszary zawarte pomiędzy daną krzywą a najwyżej położoną linią w kolorze bladoczerwonym (30 om&oacute;w) wyznaczają przybliżony wpływ impedancji wyjściowej wzmacniacza na zaburzenia charakterystyki przenoszenia zestawu wzmacniacz-kolumny. Analogiczne zjawisko zachodzi w systemach słuchawkowych (patrz następny wykres). Wzmacniacze tranzystorowe lub hybrydy z p&oacute;łprzewodnikowym stopniem końcowym w połączeniu z kolumnami r&oacute;wnież wykazują ten efekt, ale jest on pomijalnie mały.</strong></em></p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/technika-2.jpg" alt="Spadek SPL - słuchawki" width="1200" height="783" title="Spadek SPL - słuchawki" /></p> <p style="text-align: center;"><em><strong>Rodzina wykres&oacute;w przedstawiająca spadki głośności (w skali decybelowej &ndash; oś Y) wywołanych niezerową impedancją wyjściową wzmacniacza (oś X) i opornością kabli połączeniowych dla r&oacute;żnych impedancji słuchawek (oznaczenia przy wykresach: 16, 32, 64 &Omega; ). Najniżej położona linia obrazuje wpływ długiego kabla słuchawkowego o rezystancji 1,9 &Omega;</strong></em>.</p> <p>&nbsp;</p> <p>Jak już wiemy, większa impedancja głośnika to mniejszy spadek mocy/poziomu; mniejsza impedancja &ndash; większy spadek. Oznacza to, że na kształt charakterystyki zespoł&oacute;w głośnikowych nakłada się spłaszczony obraz wykresu modułu impedancji: tam gdzie ma on g&oacute;rkę, tam charakterystyka przenoszenia systemu &bdquo;podnosi się&rdquo; (dokładniej: opada najmniej), zaś dla częstotliwości odpowiadających minimom opada najniżej. Jak duże są to wahania? W przypadku wzmacniaczy lampowych mogą one dochodzić nawet do 4,5&ndash;5 dB, co będzie słyszalne (to jeden z powod&oacute;w, dla kt&oacute;rych wzmacniacze lampowe koloryzują brzmienie, szczeg&oacute;lnie w zakresie niskotonowym), natomiast w przypadku tranzystor&oacute;w nie przekraczają 0,2&ndash;0,3 dB, a więc efekt jest niesłyszalny.</p> <p>W systemach słuchawkowych problem modulacji pasma przez niezerową impedancję wyjściową wzmacniacza i kabli jest generalnie mniejszy niż w zestawach głośnikowych ze wzmacniaczem lampowym, ponieważ zmienność impedancji słuchawek dynamicznych nie jest tak duża jak w przypadku głośnik&oacute;w: rzadko kiedy zmiany są większe niż dwukrotne. Najlepiej jest w przypadku magnetostat&oacute;w, będących obciążeniem czysto rezystancyjnym oraz małych słuchawek mobilnych. Moduł impedancji w tych przypadkach ma niemal stałą wartość w całym zakresie akustycznym. Problem modulacji pasma zatem nie występuje. Dotyczy on natomiast system&oacute;w na bazie większości słuchawek dynamicznych (lub hybrydowych) o źle dobranej impedancji względem wyjścia we wzmacniaczu. Należy przyjąć, że stosunek impedancji znamionowej słuchawek do sumy rezystancji wyjściowej wzmacniacza i kabli połączeniowych (odpowiednik wsp&oacute;łczynnika tłumienia znanego ze świata wzmacniaczy) powinien wynosić co najmniej 5 (a najlepiej powyżej 10). W&oacute;wczas omawiany efekt będzie umiarkowany. Poza tym, wraz z rosnącym wsp&oacute;łczynnikiem tłumienia (stosunek impedancji słuchawek do sumy rezystancji wyjściowej wzmacniacza i kabli) poprawia się kontrola przetwornik&oacute;w, a więc precyzja dźwięku.</p> <p>Spełnienie powyższego warunku zwykle nie stanowi żadnego problemu w odniesieniu do słuchawek o dużej impedancji &ndash; powyżej 100 &Omega;, natomiast w przypadku słuchawek mobilnych i długich kabli wymaga już czujności ze strony użytkownika. Dla przykładu: słuchawki 20-omowe z 3-metrowym przewodem (rezystancja ok. 2 &Omega;) wymagają źr&oacute;dła o rezystancji wyjściowej nie większej niż 2 &Omega;. Tymczasem znane są przykłady stacjonarnych DAC-&oacute;w z wyjściem słuchawkowym o rezystancji 15 &Omega; (Asus Xonar Essence One, Atoll HD120).</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/impedancja/ASUS.jpg" alt="ASUS" style="display: block; margin-left: auto; margin-right: auto;" /></p> <p>&nbsp;</p> <p style="text-align: center;"><em><strong>Niedrogi Asus Xonar Essence One dysponuje dużym napięciem wyjściowym, dzięki kt&oacute;remu &bdquo;napędza" nawet mało czułe słuchawki. Niemniej, duża impedancja wyjścia (15 &Omega;) sprawia, że nie jest to właściwy wzmacniacz dla słuchawek niskoomowych ze względu na skrajnie niski wsp&oacute;łczynnik tłumienia (1-2) oraz idącą za tym dużą podatność wzmacniacza na wahania obciążenia w funkcji częstotliwości.</strong></em></p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/Hugo-2-S-Right-Angle.jpg" alt="Hugo 2 S Right Angle" /></p> <p style="text-align: center;"><em><strong>Istnieją wzmacniacze zintegrowane z przetwornikiem c/a o ekstremalnie małej impedancji wyjściowej &ndash; rzędu 0,1 &Omega;. Chord Hugo (2) jest jednym z nich. Jemu jest wszystko jedno (z elektrycznego punktu widzenia), jakie słuchawki podłączymy: 16- czy 300-omowe, o małej czy dużej czułości.</strong></em></p> <p>&nbsp;<br /><br /></p> <h2>Mit wydajności prądowej</h2> <p>W środowisku audiofan&oacute;w często słyszy się sformułowanie: &bdquo;ten wzmacniacz nie ma dużej mocy, ale za to jest wydajny prądowo&rdquo;. Nierzadko jest to stwierdzenie nie poparte faktami, a odnoszące się do subiektywnych cech wzmacniacza: jego szybkości, dynamiki, umiejętności wysterowania &bdquo;trudnych&rdquo; kolumn. I choć na gruncie technicznym sprawa jest nieco bardziej skomplikowana niż poniższe wyliczenie &ndash;dochodzą bowiem kwestie związane z radzeniem sobie wzmacniacza z obciążeniami reaktancyjnymi i induktancyjnymi silnie przesuwającymi fazę prądu względem napięcia &ndash;&nbsp;to jednak mocy i wydajności prądowej, z elektrycznego punktu widzenia, nie da się rozdzielić.</p> <p>Natężenie prądu jest pierwiastkiem kwadratowym z ilorazu P/R, zatem wydajność prądowa jest pochodną mocy. Policzmy konkretne wartości. W pierwszym przykładzie 50-watowego wzmacniacza maksymalny prąd wyjściowy (ciągły) wynosi: 2,5 A dla 8 &Omega; i 5 A dla 4 &Omega;. Weźmy teraz nominalnie mocniejszy wzmacniacz 70 W/8 &Omega;, kt&oacute;ry nie dubluje mocy przy spadku impedancji o połowę, osiągając &bdquo;jedynie&rdquo; 120 W. Maksymalny prąd wyjściowy to, odpowiednio, 2,96 A i 5,48 A. Wniosek: fakt, że wzmacniacz podwaja moc przy spadku impedancji o połowę, jest pożądany, ale w żadnym razie nie przesądza o dużej wydajności prądowej, ponieważ do jej uzyskania potrzebne jest duże napięcie, czyli&hellip; duża moc.&nbsp;</p> <p>&nbsp;</p> <h2>Ile mocy dla słuchawek?&nbsp;</h2> <p>W odniesieniu do wzmacniaczy głośnikowych, podawanie mocy wyjściowej jest dobrą praktyką &ndash; szczeg&oacute;lnie jeśli producent podaje wartości dla 8 i dla 4 &Omega; (inna sprawa, że wytw&oacute;rcy nie stosują ujednoliconych warunk&oacute;w testowania, ale to temat na oddzielny artykuł).</p> <p>W przypadku wzmacniaczy słuchawkowych i odtwarzaczy mobilnych sprawa jest bardziej złożona i tym samym mniej oczywista, ponieważ moc wyjściowa najczęściej jest podawana dla jednej (bywa, że dla dw&oacute;ch) impedancji &ndash; tymczasem rozrzut możliwych wartości obciążeń jest ponad 30-krotny (16&ndash;600 &Omega;). <br />Jak już wiemy, moc jest odwrotnie proporcjonalna do obciążenia. Gdyby wzmacniacz słuchawkowy był idealnym źr&oacute;dłem napięciowym, sprawa byłaby prosta: moc podaną dla obciążenia X wystarczyłoby przeliczyć (z prostej proporcji) dla obciążenia Y. Niestety, tak łatwo nie jest, ponieważ wzmacniacze słuchawkowe odbiegają od postulowanego ideału wskutek ograniczeń stopni końcowych (wydajność prądowa tranzystor&oacute;w i zasilaczy) oraz niezerowej impedancji wyjściowej, kt&oacute;ra &ndash; jak pokazaliśmy wcześniej &ndash; tworzy dzielnik napięcia z obciążeniem i kablami.</p> <p>W rzeczy samej, na podstawie mocy oddawanej do obciążenia X, możemy z niezłym przybliżeniem obliczyć moc dla obciążenia R&gt;X, ponieważ nic nie stoi na przeszkodzie, by wzmacniacz podawał takie samo (lub nieco wyższe) napięcie do słuchawek o większej impedancji. W drugą stronę, czyli dla mniejszych impedancji, to założenie jest nieprawdziwe, ponieważ nie wiemy, jak stopień końcowy zachowuje się pod większym obciążeniem. Producenci wzmacniaczy, chcąc być fair wobec konsument&oacute;w, powinni podawać wykres mocy lub &ndash; lepiej &ndash;&nbsp;maksymalnego napięcia wyjściowego w funkcji obciążenia. Jednak tego nie robią.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/lg-Blue-Heaven-Headphones.jpg" alt="lg Blue Heaven Headphones" /></p> <p style="text-align: center;"><em><strong>Decydując się na długi kabel słuchawkowy powinniśmy zapytać sprzedawcę, jaką ma rezystancję. Jeśli nie wie &ndash; a z reguły tak będzie (ponieważ jest podawany bardzo rzadko przez producent&oacute;w)-&nbsp; to warto ją sprawdzić samemu, używając dobrej klasy multimetru, a najlepiej miliomomierza. Jako regułę należy przyjąć, że nie powinna ona być większa niż 1/40 impedancji słuchawek. Warunek ten nakłada konkretne wymagania na grubość kabli wsp&oacute;łpracujących ze słuchawkami o impedancji poniżej 32 om&oacute;w. W przypadku słuchawek wysokoomowych rezystancję kabla można zignorować.</strong></em></p> <p>&nbsp;</p> <p>Z reguły wzmacniacz słuchawkowy osiąga swoje maksimum mocy dla pośrednich wartości impedancji (32&ndash;64 &Omega;). Dla dużych impedancji moc w naturalny spos&oacute;b maleje (prawo Ohma), dla małych &ndash; r&oacute;wnież.</p> <p>No dobrze, ale ile mocy realnie potrzeba? Bardzo niewiele słuchawek na rynku wymaga do właściwego wysterowania napięcia powyżej 2,5 V RMS. Tłumacząc to na moc, otrzymujemy wartości:</p> <ul> <li>390 mW dla 16 &Omega;</li> <li>195 mW dla 32 &Omega;</li> <li>98 mW dla 64 &Omega;</li> <li>78 mW dla 80 &Omega;</li> <li>52 mW dla 120 &Omega;</li> <li>25 mW dla 250 &Omega;</li> </ul> <p>Można przyjąć, że będą to wielkości wystarczające w 95% przypadk&oacute;w. Jedynie najmniej czułe słuchawki, te o dużej impedancji, wymagają większych napięć/mocy.</p> <p>&nbsp;</p> <table border="0" style="text-align: center;" cellspacing="0" cellpadding="10"> <tbody> <tr> <td style="text-align: center;"><strong><img src="https://m.avtest.pl/images/technika/impedancja/Miliomomierz-R-200.jpg" alt="Miliomomierz R 200" width="554" height="761" /></strong></td> <td style="text-align: center;"><strong><strong><img src="https://m.avtest.pl/images/technika/impedancja/Multimetr-Beha.jpg" alt="Multimetr Beha" width="432" height="716" /></strong></strong></td> </tr> <tr> <td colspan="2" style="text-align: center;"><em><strong>Do zgrubnych pomiar&oacute;w rezystancji kabli słuchawkowych (oraz impedancji słuchawek) wystarczy dobrej klasy multimetr cyfrowy, jak ten na zdjęciu po prawej (Beha Amprobe AM5-510). O wiele większą dokładność pomiaru zapewni jednak miliomomierz - np. Voltcraft R-200 (po lewej) o precyzji pomiaru 1 milioma, pozwalającej na całkiem dokładny pomiar rezystancji kabli głośnikowych, kt&oacute;rych końc&oacute;wki z biegiem czasu się utleniają (a to znacząco zwiększa op&oacute;r elektryczny). Można go kupić za niecałe 400 zł. W por&oacute;wnaniu do cen audiofilskich akcesori&oacute;w to niewiele.&nbsp;</strong></em></td> </tr> </tbody> </table> <h2>&nbsp;</h2> <h2>Wnioski</h2> <p>Życie uczy, że audiofile rzadko są &bdquo;techniczni&rdquo; i w związku z tym dość często bagatelizują znaczenie takich parametr&oacute;w jak impedancja wyjściowa wzmacniacza, oporność kabli. Oczywiście prawdą jest, że sprzęt należy dobierać na słuch, jednak ograniczanie się tylko do tej metody konfigurowania system&oacute;w może&nbsp; prowadzić do niezamierzonych błęd&oacute;w, a w konsekwencji &ndash; rozczarowań (o niezrozumiałej przyczynie!). Właśnie dlatego powstał ten artykuł. Impedancja wyjściowa wzmacniacza, impedancja słuchawek, oporność kabli &ndash; to parametry zdecydowanie ważne z użytkowego punktu widzenia, kt&oacute;re bardziej niż pasmo przenoszenia, zniekształcenia THD czy nawet moc znamionowa determinują to, co ostatecznie słyszymy.</p> <p>&nbsp;</p> <h2>Galeria</h2> <p>{gallery}technika/impedancja{/gallery}</p></div> <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/e1a325047b148c9441be2b14c42dc196_S.jpg" alt="Moc a impedancja. Jak dobierać wzmacniacze i słuchawki" /></div><div class="K2FeedIntroText"><p>Moc wyjściowa jest bodaj najczęściej cytowanym parametrem w opisach sprzętu hi-fi. Właściwa interpretacja konkretnych wartości, także w odniesieniu do odtwarzaczy mobilnych i wzmacniaczy słuchawkowych, stała się problematyczna. Tym bardziej, że jest to parametr uzależniony od czynnik&oacute;w, kt&oacute;re &ndash;&nbsp;jak pokazuje życie &ndash; rzadko kiedy bierzemy pod uwagę.</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Filip Kulpa | <strong>Zdjęcia: </strong>autor, Chord Electronics, Nordost</p> <hr /> <p>W latach 70., 80. i 90. ubiegłej dekady zagadnienie mocy sprzętu hi-fi dotyczyło niemal wyłącznie zestaw&oacute;w głośnikowych i dedykowanych doń wzmacniaczy. Mawiało się, że do wzmacniacza o mocy X powinno się kupić zestawy głośnikowe o mocy 2X. Dziś obśmiewamy ten skrajnie uproszczony poradnik doboru głośnik&oacute;w do wzmacniacza. W niniejszym artykule nie będziemy się jednak zajmować mocą zespoł&oacute;w głośnikowych. Będzie nas interesować moc wzmacniacza, impedancja wyjściowa jak r&oacute;wnież rezystancji kabli &ndash; tak w sferze system&oacute;w głośnikowych, jak i słuchawkowych. Pokażemy, co dzieje się przy złym dopasowaniu tych parametr&oacute;w i jakie one powinny być.</p> <p>&nbsp;</p> <h2>Moc a obciążenie</h2> <p>Na początek kr&oacute;tkie przypomnienie z fizyki: moc elektryczna (P) jest iloczynem napięcia (U) i natężenia (I) prądu przepływającego przez dany odbiornik energii elektrycznej:</p> <p><strong>P = U * I</strong></p> <p>(przy założeniu, że w obwodzie płynie prąd stały lub zmienny, a obciążenie jest czysto rezystancyjne). <br />Zauważmy, że moc nie jest tak naprawdę wartością przypisaną do wzmacniacza, lecz do obciążenia &ndash; w naszym przypadku są nim zestawy głośnikowe lub słuchawki. Wykorzystując prawo Ohma, otrzymujemy zależność m&oacute;wiącą, że moc rośnie proporcjonalnie do kwadratu napięcia, a maleje proporcjonalnie do obciążenia:</p> <p><strong>P = U<sup>2 </sup>/ R</strong></p> <p>gdzie U jest napięciem, R &ndash; rezystancją obciążenia.</p> <p>Przyjmuje się, że idealny wzmacniacz sygnału audio jest źr&oacute;dłem napięciowym, co oznacza, że powinien utrzymywać stałą wartość napięcia wyjściowego, niezależnie od obciążenia (mieszczącego się w zakresie tolerowanym przez ten wzmacniacz). Weźmy przykład wzmacniacza generującego maksymalne napięcie (skuteczne) na zaciskach głośnikowych, wynoszące 20 V (RMS) przy obciążeniu 8 &Omega;. Jego teoretyczna moc wyniesie 400/8 = 50 W. Zmniejszenie impedancji o połowę powinno zwiększyć moc dwukrotnie &ndash; do&nbsp; 100 W.</p> <p>Jednak z reguły tak się nie dzieje. Większość audiofil&oacute;w zapytana &ndash; dlaczego, odpowie, że to skutek niedostatecznie dużego zasilacza. To też, ale nie tylko.</p> <p>O ile w przypadku znakomitej większości głośnikowych wzmacniaczy p&oacute;łprzewodnikowych lub hybrydowych (z tranzystorowym stopniem końcowym) moc użyteczna (ta oddawana do głośnik&oacute;w, słuchawek) jest uwarunkowana w gł&oacute;wnej mierze osiąganym napięciem wyjściowym i wydajnością zasilacza, o tyle w przypadku:</p> <ul> <li>wzmacniaczy lampowych</li> <li>wzmacniaczy słuchawkowych</li> <li>odtwarzaczy mobilnych</li> </ul> <p>do głosu dochodzi jeszcze jeden czynnik, a mianowicie&hellip;</p> <p>&nbsp;</p> <h2>Impedancja wyjściowa</h2> <p>Impedancja (oporność) wyjściowa to nic innego jak miara oporu wewnętrznego źr&oacute;dła (wzmacniacza), kt&oacute;rą najłatwiej wyobrazić sobie jako szeregowy rezystor połączony z dodatnim terminalem wyjściowym wzmacniacza. Wartość tego oporu jest zależna od konstrukcji i typu wzmacniacza i może się ona kształtować bardzo r&oacute;żnie: od pojedynczych miliom&oacute;w (np. wzmacniacze Devialeta, Audioneta) do 2&ndash;3 &Omega; typowych dla konstrukcji lampowych (głośnikowych) oraz w przedziale 0,1&ndash;15 &Omega; dla wzmacniaczy słuchawkowych. Impedancja wyjściowa wzmacniacza tworzy wraz z obciążeniem (głośnikiem, słuchawkami), przewodami łączącymi wzmacniacz i obciążenie tzw. dzielnik napięcia (rys. obok). To prosty obw&oacute;d elektryczny złożony z szeregowych opornik&oacute;w (lub w og&oacute;lności &ndash; impedancji). Istotą dzielnika napięcia (nota bene będącego podstawą działania regulator&oacute;w głośności) jest &ndash; jak sama nazwa wskazuje &ndash; dzielenie napięcia źr&oacute;dła (wzmacniacza) na dwie mniejsze wartości, w proporcji określonej stosunkiem obu rezystancji. W rozważanym przypadku są to rezystancja wyjściowa Rwy i rezystancja obciążenia R. I tak, jeśli Rwy ma wartość 1 &Omega;, a R r&oacute;wna się 8 &Omega;, to spadek potencjału (napięcie) na obciążeniu stanowi 8/9 całego napięcia generowanego przez źr&oacute;dło, czyli wzmacniacz. W związku z tym 1/9 tego napięcia nigdy nie dociera do odbiornika. A ponieważ moc jest zależna od napięcia (proporcjonalna do jego kwadratu), więc powstaje problem: część oddawanej przez wzmacniacz mocy zostaje&nbsp; stracona.</p> <p>&nbsp;</p> <table border="0" cellspacing="0" cellpadding="10"> <tbody> <tr> <td style="text-align: center;"><strong><img src="https://m.avtest.pl/images/technika/impedancja/dzielnik-napiecia.jpg" alt="dzielnik napiecia" width="1000" height="990" /></strong></td> <td colspan="2" style="text-align: center;"><em><strong><em><strong>Dzielnik napięcia z opornością wyjściową wzmacniacza (Rwy), rezystancją okablowania (Rk) i rezystancją obciążenia. Rwy i Rk są &bdquo;pasożytami", kt&oacute;re &bdquo;kradną" część napięcia &ndash; a więc i mocy &ndash; właściwemu obciążeniu, czyli głośnikom lub słuchawkom. Im większy jest stosunek sumy Rk+Rwy do R, tym większa jest utrata mocy dostarczanej do głośnika/ słuchawek &ndash; a więc tym ciszej gra muzyka.</strong></em></strong></em></td> </tr> </tbody> </table> <p>&nbsp;</p> <p>Wynika stąd, że idealny wzmacniacz powinien być nie tylko źr&oacute;dłem napięciowym, ale źr&oacute;dłem napięciowym o zerowej impedancji wyjściowej. Tylko wtedy byłoby możliwe uniknięcie opisanych strat mocy. Policzmy je na kilku przykładach. Uwzględniając fakt, że w naszym obwodzie są też przewody, kt&oacute;re r&oacute;wnież mają określoną oporność, nasz dzielnik napięcia składa się nie z dw&oacute;ch, a z trzech rezystancji: obciążenia (R), wyjściowej wzmacniacza (Rwy) oraz rezystancji przewod&oacute;w.&nbsp; Moc oddawaną do obciążenia R (głośnika) obliczymy ze wzoru:</p> <p>&nbsp;<img src="https://m.avtest.pl/images/technika/wzor-do-tekstu1.jpg" alt="wzor do tekstu1" width="300" height="141" /></p> <p>Wr&oacute;ćmy do naszego &bdquo;testowego&rdquo; wzmacniacza tranzystorowego dającego napięcie 20 V podstawiając realistyczne wartości: Rwy = 0,05 &Omega;, Rk = 0,04 &Omega; (typowy op&oacute;r 3-metrowego przewodu głośnikowego). Wynik to 48,89 W. Spadek mocy jest więc niewielki (2,2%). W przypadku obciążenia 4-omowego wynosi on już 4,4% (95,6 vs 100 W). Jakby nie było, prawie 5 W &bdquo;wyparowało&rdquo;.</p> <p>Zgoła odmiennie przedstawia się sytuacja w przypadku typowego wzmacniacza lampowego push-pull o impedancji wyjściowej 2,2 &Omega;, wsp&oacute;łpracującego z bardziej sprzyjającym obciążeniem 8-omowym. Wtedy 20 V skutecznego napięcia wyjściowego (uzyskiwanego bez obciążenia) daje moc zaledwie 30,75 W.</p> <p>Spadek mocy przekracza 38%. W przypadku konstrukcji single-ended na lampie 300B (Rwy ok. 3 &Omega;) będzie to jeszcze więcej &ndash;&nbsp;aż 47%.</p> <p>Interesująco wygląda przeliczenie tych wartości na spadek głośności. Dla wzmacniacza tranzystorowego otrzymujemy zupełnie pomijalne spadki 0,1 dB (8 &Omega;) i 0,19 dB (4 &Omega;), zaś dla wzmacniaczy lampowych &ndash; znaczące 2,1 dB i 2,8 dB (single-ended 300B).</p> <p>&nbsp;</p> <h2>Niedoceniane kable słuchawkowe</h2> <p>Impedancja wyjściowa lampowc&oacute;w jest o dwa lub trzy rzędy wielkości większa od rezystancji kabli, w związku z czym straty mocy na kablach można zaniedbać. W przypadku wzmacniaczy słuchawkowych i odtwarzaczy mobilnych mamy do czynienia z pośrednim scenariuszem &ndash; rezystancja kabla może, lecz nie musi, stanowić dość istotny ułamek rezystancji wyjściowej wzmacniacza lub odtwarzacza. Ta pierwsza wartość z reguły jest wartością niewiadomą &ndash;&nbsp;oczywiście można ją zmierzyć, lecz mało kto się tym przejmuje (niesłusznie!). Zagadnienie okazuje się ciekawe, bowiem przewody słuchawkowe bywają długie (3&ndash;4 m), ich przekr&oacute;j jest wielokrotnie cieńszy niż kabli głośnikowych, zaś impedancje wielu wsp&oacute;łczesnych słuchawek oscylują wok&oacute;ł niskich wartości 18-24 &Omega;. Okazuje się, że metr typowego kabla słuchawkowego ma rezystancję&nbsp; 0,6&ndash;0,7 &Omega;&nbsp; (w pętli powrotnej). Jeśli przew&oacute;d jest 1-metrowy, problemu jeszcze nie ma, ale już w przypadku kabli 3-metrowych&nbsp; &ndash; a takie często bywają dodawane w komplecie &ndash;&nbsp;rezystancja rośnie do około 2 &Omega;! To wartość, kt&oacute;ra dubluje, a nawet kilkakrotnie zwiększa efektywną rezystancję wyjściową źr&oacute;dła sygnału, istotnie pogarszając dopasowanie słuchawek do wzmacniacza. Problem dotyczy w gł&oacute;wnej mierze słuchawek o małej impedancji &ndash;&nbsp;a więc konstrukcji mobilnych, kt&oacute;re nierzadko decydujemy się używać stacjonarnie, korzystając niekiedy z wygodniejszego, dużo dłuższego przewodu. Niestety, w zdecydowanej większości przypadk&oacute;w nie będzie to dobre posunięcie. Weźmy przykład znakomitych skądinąd słuchawek Meze 99 Classics (18 &Omega;). Kr&oacute;tki kabel fabryczny ma rezystancję 0,65 &Omega;, długi &ndash; aż 1,9 &Omega;. W przypadku sterowania ze wzmacniacza o impedancji wyjściowej 3 &Omega;, spadek poziomu SPL wyniesie 1,6 dB dla kr&oacute;tkiego kabla i 2,1 dB dla długiego. Nie są to r&oacute;żnice, kt&oacute;re łatwo usłyszymy, ale stosowanie dłuższego kabla jest niewskazane z jeszcze jednego powodu, kt&oacute;ry om&oacute;wimy za chwilę.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/kabel.jpg" alt="kabel" /></p> <p style="text-align: center;"><em><strong>Rynek specjalistycznych przewod&oacute;w słuchawkowych obfituje w coraz więcej konstrukcji, nieraz całkiem drogich. Niestety, producenci nie podają najważniejszego parametru takich kabli &ndash; rezystancji.</strong></em></p> <p>&nbsp;</p> <p>Reasumując: jeśli używamy słuchawek o małej impedancji (16&ndash;32 &Omega;) oraz długich przewod&oacute;w połączeniowych, powinniśmy szukać wzmacniacza o bardzo małej impedancji wyjściowej (2 &Omega;&nbsp; lub poniżej). Zalecenie to wynika nie tylko z dążenia do minimalizowania strat mocy, bo te w przypadku urządzeń stacjonarnych zwykle nie stanowią problemu. Chodzi o inny efekt, będący skutkiem niedopasowania impedancji źr&oacute;dła (czytaj: wzmacniacza) i obciążenia.</p> <p>&nbsp;</p> <h2>Dopasowanie wzmacniacza do obciążenia</h2> <p>Spadki mocy i poziomu natężenia dźwięku, obliczone dla r&oacute;żnych kombinacji impedancji wyjściowych, oporności przewod&oacute;w oraz impedancji głośnik&oacute;w/słuchawek są obojętne wobec faktu, że impedancja każdego przetwornika elektroakustycznego jest wartością zmienną, zależną od częstotliwości. Dla typowych zestaw&oacute;w głośnikowych (w dużo mniejszym stopniu dotyczy to także słuchawek) zmienność modułu impedancji &ndash; bo to on tak naprawdę determinuje spadki napięcia/mocy/poziomu SPL &ndash;&nbsp;jest nawet 10-krotna. Dobrym przykładem mogą być monitory Amphion Argon 3S, kt&oacute;rych minimum modułu impedancji wynosi 5 &Omega;, zaś maksimum &ndash;&nbsp;56 &Omega;. Taka zmienność impedancji ma wpływ na wynikową charakterystykę przenoszenia układu głośnik-kable-wzmacniacz.</p> <p><img src="https://m.avtest.pl/images/technika/impedancja/technika-1.jpg" alt="Spadek SPL - wzmacniacz" width="1200" height="815" style="display: block; margin-right: auto; margin-left: auto;" title="Spadek SPL - wzmacniacz" /></p> <p style="text-align: center;"><em><strong>Wykresy spadk&oacute;w napięcia użytecznego (U) względem napięcia wyjściowego bez obciążenia (Uwy) w zależności od impedancji wyjściowej wzmacniacza (oś X) oraz impedancji podłączonych zestaw&oacute;w głośnikowych. 6 dB na osi Y oznacza spadek napięcia o połowę, mocy o 75%. Poszczeg&oacute;lne linie odpowiadają r&oacute;żnym wartościom obciążeń: 3, 4, 6, 8 om&oacute;w. W symulacjach uwzględniono rezystancję przewod&oacute;w głośnikowych (50 miliom&oacute;w). Wartości na osi X odpowiadają wzmacniaczom o dużych impedancjach wyjściowych, typowych dla konstrukcji lampowych. Obszary zawarte pomiędzy daną krzywą a najwyżej położoną linią w kolorze bladoczerwonym (30 om&oacute;w) wyznaczają przybliżony wpływ impedancji wyjściowej wzmacniacza na zaburzenia charakterystyki przenoszenia zestawu wzmacniacz-kolumny. Analogiczne zjawisko zachodzi w systemach słuchawkowych (patrz następny wykres). Wzmacniacze tranzystorowe lub hybrydy z p&oacute;łprzewodnikowym stopniem końcowym w połączeniu z kolumnami r&oacute;wnież wykazują ten efekt, ale jest on pomijalnie mały.</strong></em></p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/technika-2.jpg" alt="Spadek SPL - słuchawki" width="1200" height="783" title="Spadek SPL - słuchawki" /></p> <p style="text-align: center;"><em><strong>Rodzina wykres&oacute;w przedstawiająca spadki głośności (w skali decybelowej &ndash; oś Y) wywołanych niezerową impedancją wyjściową wzmacniacza (oś X) i opornością kabli połączeniowych dla r&oacute;żnych impedancji słuchawek (oznaczenia przy wykresach: 16, 32, 64 &Omega; ). Najniżej położona linia obrazuje wpływ długiego kabla słuchawkowego o rezystancji 1,9 &Omega;</strong></em>.</p> <p>&nbsp;</p> <p>Jak już wiemy, większa impedancja głośnika to mniejszy spadek mocy/poziomu; mniejsza impedancja &ndash; większy spadek. Oznacza to, że na kształt charakterystyki zespoł&oacute;w głośnikowych nakłada się spłaszczony obraz wykresu modułu impedancji: tam gdzie ma on g&oacute;rkę, tam charakterystyka przenoszenia systemu &bdquo;podnosi się&rdquo; (dokładniej: opada najmniej), zaś dla częstotliwości odpowiadających minimom opada najniżej. Jak duże są to wahania? W przypadku wzmacniaczy lampowych mogą one dochodzić nawet do 4,5&ndash;5 dB, co będzie słyszalne (to jeden z powod&oacute;w, dla kt&oacute;rych wzmacniacze lampowe koloryzują brzmienie, szczeg&oacute;lnie w zakresie niskotonowym), natomiast w przypadku tranzystor&oacute;w nie przekraczają 0,2&ndash;0,3 dB, a więc efekt jest niesłyszalny.</p> <p>W systemach słuchawkowych problem modulacji pasma przez niezerową impedancję wyjściową wzmacniacza i kabli jest generalnie mniejszy niż w zestawach głośnikowych ze wzmacniaczem lampowym, ponieważ zmienność impedancji słuchawek dynamicznych nie jest tak duża jak w przypadku głośnik&oacute;w: rzadko kiedy zmiany są większe niż dwukrotne. Najlepiej jest w przypadku magnetostat&oacute;w, będących obciążeniem czysto rezystancyjnym oraz małych słuchawek mobilnych. Moduł impedancji w tych przypadkach ma niemal stałą wartość w całym zakresie akustycznym. Problem modulacji pasma zatem nie występuje. Dotyczy on natomiast system&oacute;w na bazie większości słuchawek dynamicznych (lub hybrydowych) o źle dobranej impedancji względem wyjścia we wzmacniaczu. Należy przyjąć, że stosunek impedancji znamionowej słuchawek do sumy rezystancji wyjściowej wzmacniacza i kabli połączeniowych (odpowiednik wsp&oacute;łczynnika tłumienia znanego ze świata wzmacniaczy) powinien wynosić co najmniej 5 (a najlepiej powyżej 10). W&oacute;wczas omawiany efekt będzie umiarkowany. Poza tym, wraz z rosnącym wsp&oacute;łczynnikiem tłumienia (stosunek impedancji słuchawek do sumy rezystancji wyjściowej wzmacniacza i kabli) poprawia się kontrola przetwornik&oacute;w, a więc precyzja dźwięku.</p> <p>Spełnienie powyższego warunku zwykle nie stanowi żadnego problemu w odniesieniu do słuchawek o dużej impedancji &ndash; powyżej 100 &Omega;, natomiast w przypadku słuchawek mobilnych i długich kabli wymaga już czujności ze strony użytkownika. Dla przykładu: słuchawki 20-omowe z 3-metrowym przewodem (rezystancja ok. 2 &Omega;) wymagają źr&oacute;dła o rezystancji wyjściowej nie większej niż 2 &Omega;. Tymczasem znane są przykłady stacjonarnych DAC-&oacute;w z wyjściem słuchawkowym o rezystancji 15 &Omega; (Asus Xonar Essence One, Atoll HD120).</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/impedancja/ASUS.jpg" alt="ASUS" style="display: block; margin-left: auto; margin-right: auto;" /></p> <p>&nbsp;</p> <p style="text-align: center;"><em><strong>Niedrogi Asus Xonar Essence One dysponuje dużym napięciem wyjściowym, dzięki kt&oacute;remu &bdquo;napędza" nawet mało czułe słuchawki. Niemniej, duża impedancja wyjścia (15 &Omega;) sprawia, że nie jest to właściwy wzmacniacz dla słuchawek niskoomowych ze względu na skrajnie niski wsp&oacute;łczynnik tłumienia (1-2) oraz idącą za tym dużą podatność wzmacniacza na wahania obciążenia w funkcji częstotliwości.</strong></em></p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/Hugo-2-S-Right-Angle.jpg" alt="Hugo 2 S Right Angle" /></p> <p style="text-align: center;"><em><strong>Istnieją wzmacniacze zintegrowane z przetwornikiem c/a o ekstremalnie małej impedancji wyjściowej &ndash; rzędu 0,1 &Omega;. Chord Hugo (2) jest jednym z nich. Jemu jest wszystko jedno (z elektrycznego punktu widzenia), jakie słuchawki podłączymy: 16- czy 300-omowe, o małej czy dużej czułości.</strong></em></p> <p>&nbsp;<br /><br /></p> <h2>Mit wydajności prądowej</h2> <p>W środowisku audiofan&oacute;w często słyszy się sformułowanie: &bdquo;ten wzmacniacz nie ma dużej mocy, ale za to jest wydajny prądowo&rdquo;. Nierzadko jest to stwierdzenie nie poparte faktami, a odnoszące się do subiektywnych cech wzmacniacza: jego szybkości, dynamiki, umiejętności wysterowania &bdquo;trudnych&rdquo; kolumn. I choć na gruncie technicznym sprawa jest nieco bardziej skomplikowana niż poniższe wyliczenie &ndash;dochodzą bowiem kwestie związane z radzeniem sobie wzmacniacza z obciążeniami reaktancyjnymi i induktancyjnymi silnie przesuwającymi fazę prądu względem napięcia &ndash;&nbsp;to jednak mocy i wydajności prądowej, z elektrycznego punktu widzenia, nie da się rozdzielić.</p> <p>Natężenie prądu jest pierwiastkiem kwadratowym z ilorazu P/R, zatem wydajność prądowa jest pochodną mocy. Policzmy konkretne wartości. W pierwszym przykładzie 50-watowego wzmacniacza maksymalny prąd wyjściowy (ciągły) wynosi: 2,5 A dla 8 &Omega; i 5 A dla 4 &Omega;. Weźmy teraz nominalnie mocniejszy wzmacniacz 70 W/8 &Omega;, kt&oacute;ry nie dubluje mocy przy spadku impedancji o połowę, osiągając &bdquo;jedynie&rdquo; 120 W. Maksymalny prąd wyjściowy to, odpowiednio, 2,96 A i 5,48 A. Wniosek: fakt, że wzmacniacz podwaja moc przy spadku impedancji o połowę, jest pożądany, ale w żadnym razie nie przesądza o dużej wydajności prądowej, ponieważ do jej uzyskania potrzebne jest duże napięcie, czyli&hellip; duża moc.&nbsp;</p> <p>&nbsp;</p> <h2>Ile mocy dla słuchawek?&nbsp;</h2> <p>W odniesieniu do wzmacniaczy głośnikowych, podawanie mocy wyjściowej jest dobrą praktyką &ndash; szczeg&oacute;lnie jeśli producent podaje wartości dla 8 i dla 4 &Omega; (inna sprawa, że wytw&oacute;rcy nie stosują ujednoliconych warunk&oacute;w testowania, ale to temat na oddzielny artykuł).</p> <p>W przypadku wzmacniaczy słuchawkowych i odtwarzaczy mobilnych sprawa jest bardziej złożona i tym samym mniej oczywista, ponieważ moc wyjściowa najczęściej jest podawana dla jednej (bywa, że dla dw&oacute;ch) impedancji &ndash; tymczasem rozrzut możliwych wartości obciążeń jest ponad 30-krotny (16&ndash;600 &Omega;). <br />Jak już wiemy, moc jest odwrotnie proporcjonalna do obciążenia. Gdyby wzmacniacz słuchawkowy był idealnym źr&oacute;dłem napięciowym, sprawa byłaby prosta: moc podaną dla obciążenia X wystarczyłoby przeliczyć (z prostej proporcji) dla obciążenia Y. Niestety, tak łatwo nie jest, ponieważ wzmacniacze słuchawkowe odbiegają od postulowanego ideału wskutek ograniczeń stopni końcowych (wydajność prądowa tranzystor&oacute;w i zasilaczy) oraz niezerowej impedancji wyjściowej, kt&oacute;ra &ndash; jak pokazaliśmy wcześniej &ndash; tworzy dzielnik napięcia z obciążeniem i kablami.</p> <p>W rzeczy samej, na podstawie mocy oddawanej do obciążenia X, możemy z niezłym przybliżeniem obliczyć moc dla obciążenia R&gt;X, ponieważ nic nie stoi na przeszkodzie, by wzmacniacz podawał takie samo (lub nieco wyższe) napięcie do słuchawek o większej impedancji. W drugą stronę, czyli dla mniejszych impedancji, to założenie jest nieprawdziwe, ponieważ nie wiemy, jak stopień końcowy zachowuje się pod większym obciążeniem. Producenci wzmacniaczy, chcąc być fair wobec konsument&oacute;w, powinni podawać wykres mocy lub &ndash; lepiej &ndash;&nbsp;maksymalnego napięcia wyjściowego w funkcji obciążenia. Jednak tego nie robią.</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/impedancja/lg-Blue-Heaven-Headphones.jpg" alt="lg Blue Heaven Headphones" /></p> <p style="text-align: center;"><em><strong>Decydując się na długi kabel słuchawkowy powinniśmy zapytać sprzedawcę, jaką ma rezystancję. Jeśli nie wie &ndash; a z reguły tak będzie (ponieważ jest podawany bardzo rzadko przez producent&oacute;w)-&nbsp; to warto ją sprawdzić samemu, używając dobrej klasy multimetru, a najlepiej miliomomierza. Jako regułę należy przyjąć, że nie powinna ona być większa niż 1/40 impedancji słuchawek. Warunek ten nakłada konkretne wymagania na grubość kabli wsp&oacute;łpracujących ze słuchawkami o impedancji poniżej 32 om&oacute;w. W przypadku słuchawek wysokoomowych rezystancję kabla można zignorować.</strong></em></p> <p>&nbsp;</p> <p>Z reguły wzmacniacz słuchawkowy osiąga swoje maksimum mocy dla pośrednich wartości impedancji (32&ndash;64 &Omega;). Dla dużych impedancji moc w naturalny spos&oacute;b maleje (prawo Ohma), dla małych &ndash; r&oacute;wnież.</p> <p>No dobrze, ale ile mocy realnie potrzeba? Bardzo niewiele słuchawek na rynku wymaga do właściwego wysterowania napięcia powyżej 2,5 V RMS. Tłumacząc to na moc, otrzymujemy wartości:</p> <ul> <li>390 mW dla 16 &Omega;</li> <li>195 mW dla 32 &Omega;</li> <li>98 mW dla 64 &Omega;</li> <li>78 mW dla 80 &Omega;</li> <li>52 mW dla 120 &Omega;</li> <li>25 mW dla 250 &Omega;</li> </ul> <p>Można przyjąć, że będą to wielkości wystarczające w 95% przypadk&oacute;w. Jedynie najmniej czułe słuchawki, te o dużej impedancji, wymagają większych napięć/mocy.</p> <p>&nbsp;</p> <table border="0" style="text-align: center;" cellspacing="0" cellpadding="10"> <tbody> <tr> <td style="text-align: center;"><strong><img src="https://m.avtest.pl/images/technika/impedancja/Miliomomierz-R-200.jpg" alt="Miliomomierz R 200" width="554" height="761" /></strong></td> <td style="text-align: center;"><strong><strong><img src="https://m.avtest.pl/images/technika/impedancja/Multimetr-Beha.jpg" alt="Multimetr Beha" width="432" height="716" /></strong></strong></td> </tr> <tr> <td colspan="2" style="text-align: center;"><em><strong>Do zgrubnych pomiar&oacute;w rezystancji kabli słuchawkowych (oraz impedancji słuchawek) wystarczy dobrej klasy multimetr cyfrowy, jak ten na zdjęciu po prawej (Beha Amprobe AM5-510). O wiele większą dokładność pomiaru zapewni jednak miliomomierz - np. Voltcraft R-200 (po lewej) o precyzji pomiaru 1 milioma, pozwalającej na całkiem dokładny pomiar rezystancji kabli głośnikowych, kt&oacute;rych końc&oacute;wki z biegiem czasu się utleniają (a to znacząco zwiększa op&oacute;r elektryczny). Można go kupić za niecałe 400 zł. W por&oacute;wnaniu do cen audiofilskich akcesori&oacute;w to niewiele.&nbsp;</strong></em></td> </tr> </tbody> </table> <h2>&nbsp;</h2> <h2>Wnioski</h2> <p>Życie uczy, że audiofile rzadko są &bdquo;techniczni&rdquo; i w związku z tym dość często bagatelizują znaczenie takich parametr&oacute;w jak impedancja wyjściowa wzmacniacza, oporność kabli. Oczywiście prawdą jest, że sprzęt należy dobierać na słuch, jednak ograniczanie się tylko do tej metody konfigurowania system&oacute;w może&nbsp; prowadzić do niezamierzonych błęd&oacute;w, a w konsekwencji &ndash; rozczarowań (o niezrozumiałej przyczynie!). Właśnie dlatego powstał ten artykuł. Impedancja wyjściowa wzmacniacza, impedancja słuchawek, oporność kabli &ndash; to parametry zdecydowanie ważne z użytkowego punktu widzenia, kt&oacute;re bardziej niż pasmo przenoszenia, zniekształcenia THD czy nawet moc znamionowa determinują to, co ostatecznie słyszymy.</p> <p>&nbsp;</p> <h2>Galeria</h2> <p>{gallery}technika/impedancja{/gallery}</p></div> HDR rewelacja (i rewolucja) w świecie wideo 2015-12-16T00:00:00+00:00 2015-12-16T00:00:00+00:00 https://m.avtest.pl/artykuly/technika/item/360-hdr-rewelacja-i-rewolucja-w-swiecie-wideo Webmaster webmaster@av.com.pl <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/6ddb2450462828abf9aabc88d6bfb7fe_S.jpg" alt="HDR rewelacja (i rewolucja) w świecie wideo" /></div><div class="K2FeedIntroText"><p>HDR, czyli obraz o szerokim zakresie dynamiki, najpierw wkroczył do świata fotografii cyfrowej. Dziś staje się hasłem-kluczem w najnowszych generacjach telewizor&oacute;w. Ale co tak naprawdę ten termin oznacza?</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Filip Kulpa, Maciej Koper | <strong>Zdjęcia:</strong> Filip Kulpa, Grafika: BBC, Dolby</p> <hr /> <p>Podczas tegorocznych targ&oacute;w CES (2015) gł&oacute;wną osią tematyczną w&nbsp;sektorze wideo był standard Ultra HD, a&nbsp;w&nbsp;szczeg&oacute;lności kolejne etapy rozwoju tej technologii. Pierwszy, polegający na zwiększeniu rozdzielczości, przebiegł w&nbsp;miarę bezproblemowo. Już w&nbsp;ubiegłorocznych katalogach wielu firm, znaczna część wyświetlaczy miała w&nbsp;specyfikacji rozdzielczość 3840 x 2160 pikseli. Dziś obserwujemy ich prawdziwy wysyp. To jednak dopiero początek tego, co nas czeka.</p> <p>[columns background="none" ]<br />[column_item col="6"]</p> <p><a href="https://m.avtest.pl/images/technika/hdr/HDR-1.jpg" target="_blank" class="jcepopup" data-mediabox="group[hdr]"><img src="https://m.avtest.pl/images/technika/hdr/HDR-1.jpg" alt="HDR" style="border: 1px solid #000000;" title="hdr" /></a></p> <p>[/column_item]<br />[column_item col="6"]</p> <p><a href="https://m.avtest.pl/images/technika/hdr/non-HDR.jpg" target="_blank" class="jcepopup" data-mediabox="group[hdr]"><img src="https://m.avtest.pl/images/technika/hdr/non-HDR.jpg" alt="bez HDR" style="border: 1px solid #000000;" /></a></p> <p>[/column_item]<br />[/columns]</p> <p>Nareszcie dostrzeżono, że rozdzielczość to nie wszystko. My powiedzielibyśmy nawet, że na tym etapie rozwoju techniki wideo nie jest to najważniejszy parametr obrazu. Uwaga producent&oacute;w zaczęła dryfować w&nbsp;kierunku szerszej przestrzeni barwnej (ta obecnie stosowana liczy sobie już kilkadziesiąt lat) oraz zwiększonego zakresu dynamiki. Elementy te, po nieudanej promocji technologii 3D, powinny stać się motorem napędowym dla wyświetlaczy następnych generacji. Tak przynajmniej życzą sobie tego producenci. I&nbsp;tym razem zasadniczo mają rację.</p> <p>O&nbsp;zwiększonej przestrzeni kolor&oacute;w i&nbsp;związanych z&nbsp;tym zagadnieniem problemach napiszemy przy innej okazji. Tym razem zajmiemy się obrazem o&nbsp;zwiększonej dynamice tonalnej. To ciekawe, ale i&nbsp;złożone zagadnienie.</p> <hr class="system-pagebreak" title="Początki HDR" /> <h2>Początki HDR</h2> <p>Obrazowanie z&nbsp;dużym zakresem dynamiki, czy &ndash;&nbsp;jak kto woli &ndash; z&nbsp;dużą rozpiętością tonalną (HDR &ndash; High Dynamic Range) przez całe dekady było marzeniem zawodowc&oacute;w parających się fotografią krajobrazową i&nbsp;specjalistyczną. Za prekursora tej techniki uważa się Francuza Gustave&rsquo;a&nbsp;Le Graya, kt&oacute;ry już w&nbsp;latach 50. XIX wieku, a&nbsp;więc 160 lat temu, wykonał pierwszą fotografię morskiego krajobrazu, stosując oddzielne negatywy dla nieba (kr&oacute;tsza ekspozycja) i&nbsp;dla morza (dłuższa ekspozycja). Sto lat p&oacute;źniej Charles Wyckoff opracował na zam&oacute;wienie Sił Powietrznych Stan&oacute;w Zjednoczonych tr&oacute;jwarstwową kolorową błonę fotograficzną XR, zdolną do rejestracji obraz&oacute;w o&nbsp;ekstremalnie dużej rozpiętości tonalnej. Dolna warstwa filmu miała czułość ASA 0,004, g&oacute;rna &ndash; ASA 400. Film ten m&oacute;gł ponoć rejestrować obrazy o&nbsp;kontraście 100 000:1. Oczywiście nie powstał z&nbsp;myślą o&nbsp;amatorach i&nbsp;fotografii ślubnej. Dzięki niemu wykonano pierwsze fotografie wybuch&oacute;w jądrowych. Materiał ten był też stosowany w&nbsp;astrofotografii, medycynie i&nbsp;w&nbsp;badaniach spektrograficznych.</p> <p>Pod koniec lat 90. ubiegłego stulecia tematyka obrazu HDR ponownie wypłynęła na światło dzienne &ndash; tym razem za sprawą fotografii cyfrowej, kt&oacute;ra w&nbsp;relatywnie łatwy spos&oacute;b umożliwiła wykonanie zdjęć, kt&oacute;re w&nbsp;bardziej realistyczny spos&oacute;b oddają sceny o&nbsp;dużej rozpiętości tonalnej. Fotografowanie w&nbsp;technice HDR polega na wykonaniu dw&oacute;ch lub więcej fotografii o&nbsp;r&oacute;żnych ekspozycjach: jedna z&nbsp;nich musi wydobywać informacje w&nbsp;cieniach (zdjęcie prześwietlone), druga &ndash; w&nbsp;bielach (zdjęcie niedoświetlone). Następnie obydwa zdjęcia składa się w&nbsp;jedno. Potrzeba ta wynikła z&nbsp;niedoskonałości wczesnych matryc, kt&oacute;re miały ograniczony zakres dynamiki &ndash; ustępowały one pod tym względem błonie światłoczułej. Wraz z&nbsp;postępem technologicznym i&nbsp;rozwojem oprogramowania graficznego, dynamika matryc osiągnęła satysfakcjonujące wartości. Wciąż jednak fotografia HDR jest atrakcyjna &ndash; pozwala bowiem zdecydowanie lepiej przenieść na zwykły ekran monitora lub na odbitkę fotograficzną obraz sceny o&nbsp;dużej rozpiętości tonalnej. Mamy tu więc do czynienia nie tyle ze zwiększaniem dynamiki obrazu, ile z&nbsp;jej kompresją w&nbsp;taki spos&oacute;b, by efekt był atrakcyjny dla oka i&nbsp;pełniej odzwierciedlał rzeczywistość. To trochę tak, jak ze słuchaniem radia, gdzie muzyka jest celowo poddana kompresji po to, by lepiej było ją słychać w&nbsp;samochodzie i&nbsp;ze zwykłych odbiornik&oacute;w.</p> <p>Postęp w&nbsp;nowoczesnych wyświetlaczach &ndash; w&nbsp;szczeg&oacute;lności w&nbsp;telewizorach &ndash;&nbsp;daje realną nadzieję, że fotografie HDR można będzie wkr&oacute;tce oglądać w&nbsp;pełnej krasie, tj. nie jako obrazy przetworzone techniką mapowania tonalnego (to właśnie ten proces umożliwia wspomnianą kompresję HDR-&oacute;w), lecz jako obrazy o&nbsp;faktycznie zwiększonej dynamice &ndash;&nbsp;kontraście rzędu tysięcy do jednego.</p> <p>By zrozumieć, czym jest obraz o&nbsp;dużej dynamice (HDR) konieczne jest uświadomienie sobie, z&nbsp;jak dużymi kontrastami mamy do czynienia w&nbsp;rzeczywistości.</p> <hr class="system-pagebreak" title="Rozpiętość tonalna" /> <h2>Rozpiętość tonalna</h2> <p>Wygodną jednostką do posługiwania się zakresem dynamiki jest nie kontrast, lecz liczba stopni przesłony &ndash; termin historycznie wywodzący się z&nbsp;fotografii. Jedna działka przesłony (EV &ndash;&nbsp;Exposure Value) odpowiada dwukrotnej zmianie jasności obrazu. Dwie działki &ndash; czterokrotnej, 10 działek &ndash; 1024-krotnej. Obowiązuje tu proste prawo potęgowe: 2 do potęgi EV definiuje kontrast.</p> <p>W&nbsp;rzeczywistym świecie rozpiętość tonalna obraz&oacute;w jest olbrzymia. Określa się ją na 26 EV, co odpowiada kontrastowi 67 milion&oacute;w, choć tak naprawdę jest jeszcze większa, gdyby za miarę omawianego zjawiska przyjąć analog kontrastu on/off w&nbsp;świecie wideo. Najjaśniejszy naturalny obiekt spotykany w&nbsp;przyrodzie &ndash;Słońce &ndash; osiąga jasność 1,6 miliarda cd/m2, czyli aż 5 milion&oacute;w razy większą niż telewizory LED! Z&nbsp;kolei nocne, bezksiężycowe niebo osiąga &bdquo;czerń&rdquo; znacznie poniżej możliwości wyświetlaczy plazmowych: 3 x 10-5 cd/m2. Wprawdzie obydwa te elementy w&nbsp;warunkach ziemskich nigdy nie występują jednocześnie, jednak por&oacute;wnanie to ukazuje, jak ekstremalna jest rozpiętość jasności obraz&oacute;w obserwowanych w&nbsp;naturze.</p> <p>Na tym tle dynamika ludzkiego wzroku wydaje się niezbyt imponująca. Określa się ją maksymalnie na 14 EV, co odpowiada kontrastowi 16 000:1. Nasze testy najlepszych na rynku ekran&oacute;w plazmowych (ostatniej generacji Panasonik&oacute;w i&nbsp;Pioneera Kuro 9G) zdają się potwierdzać to oszacowanie: kontrast ANSI rzędu kilkunastu tysięcy do jednego jest już na tyle duży, że czarne pola wydają się czarne. Zwiększenie kontrastu ANSI do 100 000:1 nie przyniosłoby żadnej odczuwalnej poprawy kontrastu.</p> <p>M&oacute;wimy tu jednak o&nbsp;rozpiętości tonalnej obserwowanej w&nbsp;danej chwili, przy niezmienionym stopniu otwarcia (przymknięcia) źrenic. Ludzki wzrok jest w&nbsp;stanie rejestrować znacznie większe wahania jasności dzięki szerokim możliwościom adaptacji. Przy w&nbsp;pełni otwartych źrenicach możemy czytać książkę w&nbsp;świetle księżyca, a&nbsp;także dostrzegać relatywnie słabe obiekty astronomiczne na niebie. W&nbsp;słoneczny dzień r&oacute;wnież radzimy sobie z&nbsp;czytaniem książki, jednak bezpośrednia obserwacja tarczy słonecznej nie jest już możliwa.</p> <p>Jak na tym tle wypadają wsp&oacute;łczesne wyświetlacze wideo? Nie najgorzej. Kontrast najlepszych matryc LCD sięga 12 EV (4000:1), najlepsze plazmy osiągały 14&ndash;15 EV. Problem jednak w&nbsp;tym, że jasność obrazu telewizyjnego (o&nbsp;projekcyjnym nie wspominając) jest odg&oacute;rnie ograniczona: nie przekracza 250&ndash;300 cd/m2 (stare generacje matryc podświetlanych świetl&oacute;wkami CCFL osiągały wartości ponad 500 cd/m2), zaś obowiązujący od lat standard &ndash; 100 cd/m2 dla monitor&oacute;w profesjonalnych i&nbsp;ekran&oacute;w domowych. W&nbsp;kinie jest jeszcze ciemniej &ndash; 48 cd/m2.</p> <p>Dla por&oacute;wnania, Księżyc w&nbsp;pełni osiąga jasność 2500 cd/m2, zaś przeciętna jasność gruntu w&nbsp;słoneczny dzień wynosi około 3000 cd/m2. R&oacute;żnica jest więc 30-krotna. Innymi słowy, wsp&oacute;łczesne domowe i&nbsp;profesjonalne wyświetlacze wideo (SDR) nie są w&nbsp;stanie realistycznie przekazać jasnych obraz&oacute;w z&nbsp;otaczającej nas rzeczywistości.</p> <hr class="system-pagebreak" title="Problematyczna DUŻA jasność" /> <h2>Problematyczna DUŻA jasność</h2> <p>10-krotne zwiększenie jasności matryc telewizyjnych wiązałoby się z&nbsp;koniecznością stosowania bardzo mocnych diod, kt&oacute;re byłyby kosztowne i&nbsp;wymagałyby potężnych zasilaczy. Oczywiście, jasność rzędu 3000 cd/m2 nie jest potrzebna na całym ekranie ani przez długi czas. To wym&oacute;g kr&oacute;tkotrwały, nieobciążający w&nbsp;proporcjonalny spos&oacute;b zasilania. Niemniej, musiałoby ono jednak podołać wielokrotnie większym mocom niż obecne układy impulsowe. Technicznie nie jest to wielki problem, ale pociąga za sobą koszty. Wraz ze wzrostem mocy podświetlenia pojawia się jednak kolejny problem &ndash; chłodzenia panelu. By uniknąć tych trudności, producenci m&oacute;wią na razie o&nbsp;jasnościach rzędu 1000 cd/m2. Laboratorium Dolby &ndash; na bazie własnych, przeprowadzonych w&nbsp;ubiegłym roku badaniach panelowych &ndash;&nbsp; twierdzi jednak, że nasze potrzeby są 10-krotnie większe. Zakres luminancji idealnego wyświetlacza powinien rozciągać się od 0,004 do 20000 cd/m2 (!). Nie jest to żadna teoria, lecz wynik badań, w&nbsp;kt&oacute;rych wykorzystano specjalnie skonstruowany wyświetlacz z&nbsp;projekcją tylną, podświetlany bardzo mocnym projektorem NEC. Tworzony w&nbsp;tej spos&oacute;b obraz osiągał jasność&nbsp; 20 000 nit&oacute;w (cd/m2).</p> <p>Na razie zejdźmy na ziemię. Ze względu na charakter obraz&oacute;w o&nbsp;dużej dynamice, dla potrzeb telewizor&oacute;w mających zapewniać obraz HDR zdecydowanie rozsądne i&nbsp;wskazane wydaje się stosowanie podświetleń direct LED oraz system&oacute;w strefowego sterowania jasnością. Tak jest w&nbsp;szczytowym modelu Samsunga JS9500. Implementacja techniki HDR w&nbsp;połączeniu w&nbsp;podświetleniami krawędziowymi wydaje się z&nbsp;g&oacute;ry skazana na porażkę &ndash; chwilowe podnoszenie mocy całego panelu (lub znacznej jego części) nakłada większe wymagania na zasilacz, a&nbsp;trzeba też pamiętać, że wraz z&nbsp;jasnością bieli rośnie też luminancja czerni &ndash; kontrast obrazu będzie wciąż wąskim gardłem.</p> <hr class="system-pagebreak" title="Jak zakodować HDR" /> <h2>Jak zakodować HDR</h2> <p>W&nbsp;dw&oacute;ch ostatnich dekadach nastąpił wielki postęp w&nbsp;jakości urządzeń rejestrujących wideo oraz wyświetlaczy. Ich jasność jest znacznie wyższa niż ekran&oacute;w CRT, problem szumu (analogowego) przestał istnieć, a&nbsp;kamery wizyjne osiągają dziś dynamikę rzędu 13&ndash;14 EV &ndash; podobnie jest z&nbsp;aparatami cyfrowymi wyższej klasy. Taśma filmowa r&oacute;wnież przenosi rozpiętość tonalną 14 EV. Na tym tle obecny standard wideo ze swoimi 8 bitami (8 EV) jest archaiczny. Mamy więc drugi ważki pow&oacute;d, dla kt&oacute;rego warto by w&nbsp;końcu coś zrobić z&nbsp;obowiązującym standardem kodowania wideo, a&nbsp;konkretnie &ndash;&nbsp; stworzyć go od podstaw. Tym bardziej, że studia emisyjne i&nbsp;produkcyjne od lat pracują już na 10 bitach.</p> <p>Podniesienie jasności matryc to najmniejszy z&nbsp;problem&oacute;w, jakie czekają wytw&oacute;rc&oacute;w paneli i&nbsp;telewizor&oacute;w HDR, nie m&oacute;wiąc o&nbsp;nadawcach i&nbsp;producentach &bdquo;kontentu&rdquo;. O&nbsp;wiele ważniejszym zagadnieniem okazuje się to, jak dobrze zakodować sygnał wideo o&nbsp;zwiększonej dynamice. Dobrze, to znaczy, w&nbsp;taki spos&oacute;b, żeby rozszerzenie dynamiki nie spowodowało efektu posteryzacji (bandingu) wywołanego zbyt &bdquo;rzadką&rdquo; kwantyzacją poziom&oacute;w luminancji. No bo skoro dzisiejsze wyświetlacze operujące 8-bitowym sygnałem wideo pokazują pewne ograniczenia obecnego standardu, to nietrudno sobie wyobrazić, że 10-krotny (nie m&oacute;wiąc o&nbsp;większym) wzrost luminancji, pociągający za sobą proporcjonalny wzrost dynamiki sygnału, spowodowałby silną posteryzację obrazu &ndash; utratę ciągłości przejść tonalnych. Jak temu zaradzić?</p> <p>Rozwiązaniem wydaje się zagęszczenie kodowania wideo &ndash; na przykład poprzez dodanie 2 bit&oacute;w. Dwa dodatkowe bity przyniosłyby jednak tylko 4-krotne zwiększenie liczby poziom&oacute;w, co w&nbsp;kontekście postulowanego przyrostu luminancji obrazu jest niewystarczające. Dalsze zwiększenie rozdzielczości &ndash;&nbsp;do 12 bit&oacute;w &ndash; wydaje się rozwiązywać problem, ale tylko doraźnie. Nowy standard wideo nie powinien &bdquo;ledwo co&rdquo; zaspokajać bieżących potrzeb &ndash; tym bardziej, że &ndash; jak wspomnieliśmy &ndash; z&nbsp;badań przeprowadzonych w&nbsp;ubiegłym roku przez Dolby wynika, że optymalną g&oacute;rną granicą luminancji obrazu powinno być 100 00 cd/m2, co oznacza 100-krotny przyrost dynamiki obrazu względem obecnego standardu (100 cd/m2).</p> <p>Dalsze zwiększanie rozdzielczości kodowania wideo okazuje się niepraktyczne (nie mieści się w&nbsp;standardach Ultra HD ani w&nbsp;Blu-ray Ultra HD) i&nbsp;niecelowe. Istnieje inne, lepsze rozwiązanie problemu. By je zrozumieć, musimy przypominieć sobie, czym jest gamma i&nbsp;dlaczego się ją stosuje.</p> <hr class="system-pagebreak" title="EOTF - koniec z gammą" alt="EOTF - koniec z gammą" /> <h2>EOTF - koniec z gammą</h2> <p>Jasność obrazu emitowanego przez wyświetlacz wideo (obojętnie jakiego typu) zależy od amplitudy (poziomu) sygnału wejściowego, lecz nie jest to zależność liniowa (przykładowo: dwukrotnemu wzrostowi sygnału nie towarzyszy dwukrotny wzrost luminancji panelu). Odpowiedź tę opisuje funkcja EOTF (Electro-Optical Transfer Function). W&nbsp;og&oacute;lności może to być dowolna zależność. Od kilkudziesięciu już lat w&nbsp;technice wideo obowiązuje jednak jedna i&nbsp;ta sama postać funkcji EOTF, kt&oacute;rą w&nbsp;uproszczeniu opisuje prosta zależność potęgowa:</p> <p><strong>L&nbsp;= Vingamma x Lmax,</strong></p> <p>gdzie L to luminancja; Vin &ndash; poziom sygnału wejściowego (kod danego odcienia) w&nbsp;znormalizowanej skali (0-1), zaś Lmax &ndash; maksymalna luminancja panelu.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/hdr/hdr-oetf.gif" alt="hdr oetf" style="border: 1px solid #000000;" /></p> <p style="text-align: center;"><em>Krzywe funkcji OETF (odwrotności EOTF) opisują charakterystykę urządzeń rejestrujących obraz. By zwiększyć zakres dynamiki wideo, kamery mają załamanie (kolanko) na charakterystyce OETF (krzywa r&oacute;żowa), by przenieść dodatkowe informacje w bielach. Linia ż&oacute;łta obrazuje funkcję proponowaną przez BBC, niebieska &ndash; przez Dolby.</em></p> <p>&nbsp;</p> <p>Przetłumaczmy to na język zrozumiały dla humanist&oacute;w. Dla małych sygnał&oacute;w (ciemnych i&nbsp;szarości) jasność obrazu narasta powoli (wolniej niż w&nbsp;zależności liniowej), zaś dla dużych &ndash;&nbsp;zdecydowanie szybciej. Tak więc, zmianom małych sygnał&oacute;w towarzyszą małe r&oacute;żnice jasności obrazu (mała dyskretyzacja ich poziom&oacute;w), zaś zmianom dużych sygnał&oacute;w towarzyszą duże zmiany jasności. Ta nieliniowość była historycznie pożądana &ndash; z&nbsp;trzech względ&oacute;w. Po pierwsze, charakterystyka opisana gammą r&oacute;wną 2,4 odpowiadała naturalnej charakterystyce pracy wyświetlaczy (CRT). Po drugie, dobrze kompensowała problem szum&oacute;w &ndash; bardziej dokuczliwych przy małych amplitudach sygnału niż przy dużych. Po trzecie, gamma 2,4 dobrze kompensuje naturalną nieliniowość ludzkiego wzroku. W&nbsp;skali małych zmian natężenia światła reakcję wzroku można przybliżyć prawem logarytmicznym, natomiast w&nbsp;skali większych r&oacute;żnic lepiej opisuje ją funkcja potęgowa (z&nbsp;wykładnikiem wynoszącym około 0,42).</p> <p>Funkcja EOTF opisana gammą przetrwała w&nbsp;niezmienionej postaci dobrych kilkadziesiąt lat (kineskopy są produkowane od lat 30. ubiegłego stulecia). Jak to możliwe? Nadawany sygnał wideo jest (wciąż) 8-bitowy, a&nbsp;to oznacza, że użyteczna dynamika (kontrast) obrazu telewizyjnego pozostaje dzisiaj na śmiesznym, zdawałoby się, poziomie 200:1. Wprawdzie kontrast dobrych matryc telewizyjnych LCD jest dziś o&nbsp;rząd wielkości większy (a&nbsp;najlepszych plazm był kolejne 10 razy większy), lecz nie był to dotąd wystarczający pow&oacute;d ku temu, by zająć się nową funkcją EOTF. Niemniej, kuriozalny jest fakt, że dopiero 4 lata temu, a&nbsp;więc po wyeliminowaniu ekran&oacute;w CRT, funkcja ta została oficjalnie ustandaryzowana w&nbsp;ramach dokumentu ITU-R Rec BT.1866.</p> <hr class="system-pagebreak" title="Gamma a&nbsp;HDR &ndash; trochę teorii" /> <h2>Gamma a HDR - trochę teorii</h2> <p>Dop&oacute;ki poruszamy się w&nbsp;obszarze obraz&oacute;w SDR (o&nbsp;standardowej dynamice), dop&oacute;ty gamma zdaje egzamin. Przysłowiowe schody zaczynają się wraz ze znacznym poszerzeniem dynamiki i&nbsp;pr&oacute;bą zakodowania obrazu HDR z&nbsp;wykorzystaniem nie 8 lub nawet 10 bit&oacute;w. W&oacute;wczas okazuje się, że rozważana funkcja EOTF, w&nbsp;korelacji z&nbsp;postrzeganiem r&oacute;żnic jasności przez ludzkie oko, nieoptymalnie wykorzystuje bity sł&oacute;w kodowych, przypisując zbyt dużo informacji obszarom jasnym, a&nbsp;zbyt mało &ndash; ciemnym. Efekt jest taki, że przejścia tonalne w&nbsp;zakresie jasnych szarości i&nbsp;bieli są oddane doskonale &ndash; nawet zbyt dobrze w&nbsp;stosunku do potrzeb &ndash; natomiast w&nbsp;cieniach mamy zbyt mało informacji (banding). Zrozumienie tego fenomenu wymaga poznania zależności opisującej czułość ludzkiego wzroku na zmiany jasności obrazu.</p> <p>Już w&nbsp;XIX wieku Ernst Heinrich Weber (1795&ndash;1878) odkrył, że pr&oacute;g rozr&oacute;żnialności bodźca (świetlnego, dźwiękowego i&nbsp;innych) determinuje jego względna zmiana, nie zaś bezwzględna r&oacute;żnica w&nbsp;natężeniu. Najmniejszą procentową zmianę, jaką jesteśmy w&nbsp;stanie zarejestrować, określono mianem frakcji Webera (uważa się, że jej wartość w&nbsp;odniesieniu do jasności wynosi 0,01&ndash;0,02). Nieco p&oacute;źniej Gustav Fechner doprecyzował tę zależność w&nbsp;spos&oacute;b matematyczny, stwierdzając, że relacja pomiędzy bodźcem a&nbsp;percepcją jest logarytmiczna. Prawo to posłużyło zresztą za podstawę do określenia miary jasności obiekt&oacute;w astronomicznych. Dziś uważa się, że reakcje wzroku na zmiany jasności (w&nbsp;dużej skali) lepiej opisuje prawo potęgowe. Za dokładniejszą miarę czułości wzroku na zmiany jasności uznaje się obecnie model Bartena (patrz: załączony wykres). Przy małych jasnościach obrazu jesteśmy w&nbsp;stanie dostrzec 1&ndash;2-procentowe r&oacute;żnice w&nbsp;jego jasności (jak wynika z&nbsp;prawa Webera), zaś przy jasnościach rzędu 100 cd/m2, rejestrujemy znacznie mniejsze zmiany w&nbsp;jasności &ndash; rzędu 0,2%.</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/hdr/hdr-barten.gif" alt="hdr barten" style="display: block; margin-right: auto; border: 1px solid rgb(0, 0, 0); margin-left: auto;" /></p> <p style="text-align: center;"><em>Linia przerywana obrazuje progową wartość detekcji kontrastu (r&oacute;żnic w&nbsp;jasności obrazu) przez ludzkie oko &ndash; tak zwany model Bartena. Przy małych jasnościach, wykrywalna przez wzrok względna zmiana jasności jest znacznie większa niż przy dużych i&nbsp;bardzo dużych jasnościach. Zaproponowana przez Dolby funkcja EOTF (linia czarna) zapewnia niewidoczne przejścia tonalne przy 12-bitowym kodowaniu sygnału. Dopiero 15-bitowa gamma (linia czerwona) dałaby por&oacute;wnywalny efekt.</em></p> <p>&nbsp;</p> <p>Specjaliści z&nbsp;laboratori&oacute;w Dolby uznali to kryterium za podstawę do wyznaczenia nowej krzywej EOTF, kt&oacute;ra pokryłaby zakres luminancji od 0 do 10 000 nit&oacute;w (cd/m2) w&nbsp;taki spos&oacute;b, by w&nbsp;całym zakresie jasności obraz zakodowany 12-bitowo był całkowicie wolny od bandingu (pominięto tu oczywiście wpływ ewentualnej kompresji). Krzywa ta, nazwana skr&oacute;tem PQ (od Perceptual Quantizer), zapewnia r&oacute;wnie znakomite efekty co 15-bitowa EOTF Rec.709 (gamma), tak więc oszczędność w&nbsp;pojemności sł&oacute;w kodowych jest znacząca &ndash; wynosi całe 3 bity.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/hdr/hdr-frakcje.gif" alt="hdr frakcje" style="border: 1px solid #000000;" /></p> <p style="text-align: center;"><em>Wykresy 10-bitowych frakcji Webera dla r&oacute;żnych krzywych OETF opracowane przez BBC pokazują nieodpowiedniość obecnego standardu (gammy), kt&oacute;ra zbyt dokładnie (małe wartości frakcji Webera) opisywałaby przejścia tonalne w jasnych partiach obrazu, a zbyt zgrubnie &ndash; w ciemnych.&nbsp;</em> &nbsp;</p> <p>&nbsp;</p> <p>Odmienną funkcję EOTF postulują specjaliści z&nbsp;BBC, dowodząc, że w&nbsp;ramach 10-bitowego kodowania, a&nbsp;więc takiego, jakie zaakceptowano w&nbsp;standardzie Ultra HD, zapewnia ona mniejszy banding niż krzywa PQ. Ponadto proponowana krzywa jest bardziej kompatybilna z&nbsp;gammą Rec.709, ponieważ została opracowana z&nbsp;myślą o&nbsp;wyświetlaniu obraz&oacute;w tylko 4-krotnie jaśniejszych niż w&nbsp;obecnym standardzie. BBC nie skorzystało z&nbsp;modelu Bartena, lecz z&nbsp;prostszego prawa Webera-Fehnera, kt&oacute;re &ndash; jak wspomnieliśmy &ndash; opiera się na pojęciu frakcji Webera i&nbsp;jej stałej wartości.</p> <hr class="system-pagebreak" title="Zupełnie nowa jakość!" /> <h2>Zupełnie nowa jakość!</h2> <p>Znamy już aspekty techniczne obrazu o&nbsp;szerokim zakresie dynamiki. Pozostaje pytanie &ndash; jak on wygląda w&nbsp;praktyce? Odpowiedź nie jest jednoznaczna, bowiem HDR jest tak naprawdę narzędziem, kt&oacute;re artysta-tw&oacute;rca może wykorzystać do uzyskania takiego czy innego efektu. Od niego zależy, czy będzie on duży, subtelny, czy może ledwo widoczny. Tak czy inaczej, potencjał 100-krotnie jaśniejszego obrazu (1000 cd/m2, bo o&nbsp;takich wartościach na razie się m&oacute;wi w&nbsp;zastosowaniach komercyjnych) jest ogromny. Wystarczy wyobrazić sobie ujęcia, w&nbsp;kt&oacute;rych blask słońca odbija się od wody, czy choćby blask księżyca na czystym niebie. To, co do tej pory musiało być jednolitą, niezbyt jasną plamą, będzie mogło zawierać znacznie więcej informacji, a&nbsp;jasne obiekty znacznie zyskają na realizmie.</p> <p>Od razu uspokoję sceptyk&oacute;w &ndash; HDR nie oznacza, że wszystko będzie wypalało wzrok, jak na wystawach sklepowych (choć biorąc pod uwagę, że producenci w&nbsp;początkowej fazie będą się bardzo chwalić HDR-em, nie dysponując odpowiednimi treściami, takie ryzyko jednak istnieje). Niemniej, żaden artysta/producent nie będzie się starał nas oślepić pełnoekranową bielą o&nbsp;tak wysokiej jasności. Mowa jest jedynie o&nbsp;niezbyt dużych elementach w&nbsp;obrazie, kt&oacute;re zwiększają jego ekspresję.</p> <p>Kilka miesięcy temu wsp&oacute;łautor tego artykułu (MK) miał okazję podziwiać prawdziwy obraz HDR na wyświetlaczu inżynieryjnym w&nbsp;siedzibie Philipsa, w&nbsp;Ghent. Oj, było się czym zachwycać! Obok stał zwykły telewizor i&nbsp;dopiero takie por&oacute;wnanie jasno obrazowało, ile jeszcze możemy osiągnąć w&nbsp;dziedzinie jakości obrazu.</p> <hr class="system-pagebreak" title="Więcej pytań niż odpowiedzi" /> <h2>Więcej pytań niż odpowiedzi</h2> <p>Przed nami jednak długa droga. By można było cieszyć się obrazem o&nbsp;rozszerzonej dynamice, konieczne jest stworzenie jednolitych specyfikacji w&nbsp;ramach standardu Ultra HD. Nie wiadomo, jaka funkcja EOTF zostanie zastosowana w&nbsp;standardzie Blu-ray UHD i&nbsp;czy przypadkiem nie pozostaniemy ze starą gammą na kolejne lata. Według finalnej specyfikacji, obsługiwana jest otwarta norma SMPTE ST.2084. W&nbsp;grę wchodzi także wspomniana funkcja PQ (Dolby Vision), a&nbsp;także trzecia &ndash; autorstwa Philipsa. Nie da się ukryć, że wprowadzenie nowej funkcji EOTF spowoduje olbrzymie zamieszanie nie tylko po stronie producent&oacute;w, użytkownik&oacute;w, ale też nadawc&oacute;w i&nbsp;sprzętu studyjnego, w&nbsp;tym kamer, kt&oacute;re będą musiały wykorzystywać zmodyfikowaną funkcję OETF (odwrotność EOTF). To wielkie wyzwanie dla całego przemysłu wideo, stąd też niepewność, czy i&nbsp;kiedy nowa krzywa transferu zostanie zaimplementowana.</p> <p>Ze wstępnych ustaleń wynika, że wymagana jest też aktualizacja interfejsu HDMI do standardu 2.0a. Na spotkaniu organizowanym przez Philipsa w&nbsp;Barcelonie, inżynier obrazu, Danny Tack, poinformował bowiem, że HDMI 2.0 w&nbsp;obecnej formie nie jest przystosowane do transportu treści HDR (!).</p> <p>W&nbsp;styczniu na targach CES większość producent&oacute;w zadeklarowała, że flagowe serie na 2015 rok będą wspierały HDR. Nie jest jednak jasne, co powinniśmy przez to rozumieć. Zagadnieniem interesują się też serwisy strumieniowe, takie jak np. Netflix. Nie wiadomo, kiedy zostaną przedsięwzięte jakieś poważniejsze kroki w&nbsp;kierunku popularyzacji treści HDR.</p> <p>Na telewizję w&nbsp;najbliższych latach raczej nie powinniśmy liczyć. Pozostaje nowy standard Blu-ray Ultra HD oraz, ewentualnie, streaming. Z&nbsp;pewnością same telewizory wyprzedzą całą resztę: treść i&nbsp;nowy standard. Na razie ich możliwości będzie można wykorzystać tylko w&nbsp;jeden spos&oacute;b: do symulacji efektu HDR. Czasami wychodzi to nawet całkiem ciekawie, jak na przykład we flagowym Samsungu JS9500, w&nbsp;kt&oacute;rym możemy uzyskać efekt HDR dla dowolnej treści. Uaktywnienie funkcji wygaszania (&bdquo;diody smart led&rdquo;) maksymalnie podnosi luminancję niewielkich jaskrawych element&oacute;w ponad skalibrowany poziom bieli. Jest to nawet atrakcyjne wizualnie, ale to wciąż tylko konwersja. Idziemy jednak o&nbsp;zakład, że właśnie w&nbsp;taki &bdquo;sztuczny&rdquo; spos&oacute;b producenci telewizor&oacute;w będą w&nbsp;nich zachwalać funkcję HDR. Oby tylko nie poprzestano na samej funkcji (konwersji), bo potencjał HDR-a&nbsp;jest niepor&oacute;wnywalnie większy. Z&nbsp;punktu widzenia wierności obrazu jest to bardziej pożądana zmiana niż przejście z&nbsp;rozdzielczości Full HD na Ultra HD.</p> <p>Podsumowując: na razie mamy więcej niewiadomych niż konkret&oacute;w. Jeśli nie zostanie to szybko uporządkowane, a&nbsp;wyświetlacze HDR będą bardziej dostępne, to może dojść do sytuacji, w&nbsp;kt&oacute;rej nie będziemy mogli prawidłowo odtworzyć danego filmu w&nbsp;HDR (lub przekaz zostanie zniekształcony), bo został on zapisany w&nbsp;formacie niekompatybilnym z&nbsp;naszym ekranem. <br />Może się też okazać, że będziemy świadkami swego rodzaju wojny standard&oacute;w. Oby tak się nie stało.</p> <hr class="system-pagebreak" title="Galeria" alt="Galeria" /> <h2>Galeria</h2> <p>{gallery}technika/hdr{/gallery}</p></div> <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/6ddb2450462828abf9aabc88d6bfb7fe_S.jpg" alt="HDR rewelacja (i rewolucja) w świecie wideo" /></div><div class="K2FeedIntroText"><p>HDR, czyli obraz o szerokim zakresie dynamiki, najpierw wkroczył do świata fotografii cyfrowej. Dziś staje się hasłem-kluczem w najnowszych generacjach telewizor&oacute;w. Ale co tak naprawdę ten termin oznacza?</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Filip Kulpa, Maciej Koper | <strong>Zdjęcia:</strong> Filip Kulpa, Grafika: BBC, Dolby</p> <hr /> <p>Podczas tegorocznych targ&oacute;w CES (2015) gł&oacute;wną osią tematyczną w&nbsp;sektorze wideo był standard Ultra HD, a&nbsp;w&nbsp;szczeg&oacute;lności kolejne etapy rozwoju tej technologii. Pierwszy, polegający na zwiększeniu rozdzielczości, przebiegł w&nbsp;miarę bezproblemowo. Już w&nbsp;ubiegłorocznych katalogach wielu firm, znaczna część wyświetlaczy miała w&nbsp;specyfikacji rozdzielczość 3840 x 2160 pikseli. Dziś obserwujemy ich prawdziwy wysyp. To jednak dopiero początek tego, co nas czeka.</p> <p>[columns background="none" ]<br />[column_item col="6"]</p> <p><a href="https://m.avtest.pl/images/technika/hdr/HDR-1.jpg" target="_blank" class="jcepopup" data-mediabox="group[hdr]"><img src="https://m.avtest.pl/images/technika/hdr/HDR-1.jpg" alt="HDR" style="border: 1px solid #000000;" title="hdr" /></a></p> <p>[/column_item]<br />[column_item col="6"]</p> <p><a href="https://m.avtest.pl/images/technika/hdr/non-HDR.jpg" target="_blank" class="jcepopup" data-mediabox="group[hdr]"><img src="https://m.avtest.pl/images/technika/hdr/non-HDR.jpg" alt="bez HDR" style="border: 1px solid #000000;" /></a></p> <p>[/column_item]<br />[/columns]</p> <p>Nareszcie dostrzeżono, że rozdzielczość to nie wszystko. My powiedzielibyśmy nawet, że na tym etapie rozwoju techniki wideo nie jest to najważniejszy parametr obrazu. Uwaga producent&oacute;w zaczęła dryfować w&nbsp;kierunku szerszej przestrzeni barwnej (ta obecnie stosowana liczy sobie już kilkadziesiąt lat) oraz zwiększonego zakresu dynamiki. Elementy te, po nieudanej promocji technologii 3D, powinny stać się motorem napędowym dla wyświetlaczy następnych generacji. Tak przynajmniej życzą sobie tego producenci. I&nbsp;tym razem zasadniczo mają rację.</p> <p>O&nbsp;zwiększonej przestrzeni kolor&oacute;w i&nbsp;związanych z&nbsp;tym zagadnieniem problemach napiszemy przy innej okazji. Tym razem zajmiemy się obrazem o&nbsp;zwiększonej dynamice tonalnej. To ciekawe, ale i&nbsp;złożone zagadnienie.</p> <hr class="system-pagebreak" title="Początki HDR" /> <h2>Początki HDR</h2> <p>Obrazowanie z&nbsp;dużym zakresem dynamiki, czy &ndash;&nbsp;jak kto woli &ndash; z&nbsp;dużą rozpiętością tonalną (HDR &ndash; High Dynamic Range) przez całe dekady było marzeniem zawodowc&oacute;w parających się fotografią krajobrazową i&nbsp;specjalistyczną. Za prekursora tej techniki uważa się Francuza Gustave&rsquo;a&nbsp;Le Graya, kt&oacute;ry już w&nbsp;latach 50. XIX wieku, a&nbsp;więc 160 lat temu, wykonał pierwszą fotografię morskiego krajobrazu, stosując oddzielne negatywy dla nieba (kr&oacute;tsza ekspozycja) i&nbsp;dla morza (dłuższa ekspozycja). Sto lat p&oacute;źniej Charles Wyckoff opracował na zam&oacute;wienie Sił Powietrznych Stan&oacute;w Zjednoczonych tr&oacute;jwarstwową kolorową błonę fotograficzną XR, zdolną do rejestracji obraz&oacute;w o&nbsp;ekstremalnie dużej rozpiętości tonalnej. Dolna warstwa filmu miała czułość ASA 0,004, g&oacute;rna &ndash; ASA 400. Film ten m&oacute;gł ponoć rejestrować obrazy o&nbsp;kontraście 100 000:1. Oczywiście nie powstał z&nbsp;myślą o&nbsp;amatorach i&nbsp;fotografii ślubnej. Dzięki niemu wykonano pierwsze fotografie wybuch&oacute;w jądrowych. Materiał ten był też stosowany w&nbsp;astrofotografii, medycynie i&nbsp;w&nbsp;badaniach spektrograficznych.</p> <p>Pod koniec lat 90. ubiegłego stulecia tematyka obrazu HDR ponownie wypłynęła na światło dzienne &ndash; tym razem za sprawą fotografii cyfrowej, kt&oacute;ra w&nbsp;relatywnie łatwy spos&oacute;b umożliwiła wykonanie zdjęć, kt&oacute;re w&nbsp;bardziej realistyczny spos&oacute;b oddają sceny o&nbsp;dużej rozpiętości tonalnej. Fotografowanie w&nbsp;technice HDR polega na wykonaniu dw&oacute;ch lub więcej fotografii o&nbsp;r&oacute;żnych ekspozycjach: jedna z&nbsp;nich musi wydobywać informacje w&nbsp;cieniach (zdjęcie prześwietlone), druga &ndash; w&nbsp;bielach (zdjęcie niedoświetlone). Następnie obydwa zdjęcia składa się w&nbsp;jedno. Potrzeba ta wynikła z&nbsp;niedoskonałości wczesnych matryc, kt&oacute;re miały ograniczony zakres dynamiki &ndash; ustępowały one pod tym względem błonie światłoczułej. Wraz z&nbsp;postępem technologicznym i&nbsp;rozwojem oprogramowania graficznego, dynamika matryc osiągnęła satysfakcjonujące wartości. Wciąż jednak fotografia HDR jest atrakcyjna &ndash; pozwala bowiem zdecydowanie lepiej przenieść na zwykły ekran monitora lub na odbitkę fotograficzną obraz sceny o&nbsp;dużej rozpiętości tonalnej. Mamy tu więc do czynienia nie tyle ze zwiększaniem dynamiki obrazu, ile z&nbsp;jej kompresją w&nbsp;taki spos&oacute;b, by efekt był atrakcyjny dla oka i&nbsp;pełniej odzwierciedlał rzeczywistość. To trochę tak, jak ze słuchaniem radia, gdzie muzyka jest celowo poddana kompresji po to, by lepiej było ją słychać w&nbsp;samochodzie i&nbsp;ze zwykłych odbiornik&oacute;w.</p> <p>Postęp w&nbsp;nowoczesnych wyświetlaczach &ndash; w&nbsp;szczeg&oacute;lności w&nbsp;telewizorach &ndash;&nbsp;daje realną nadzieję, że fotografie HDR można będzie wkr&oacute;tce oglądać w&nbsp;pełnej krasie, tj. nie jako obrazy przetworzone techniką mapowania tonalnego (to właśnie ten proces umożliwia wspomnianą kompresję HDR-&oacute;w), lecz jako obrazy o&nbsp;faktycznie zwiększonej dynamice &ndash;&nbsp;kontraście rzędu tysięcy do jednego.</p> <p>By zrozumieć, czym jest obraz o&nbsp;dużej dynamice (HDR) konieczne jest uświadomienie sobie, z&nbsp;jak dużymi kontrastami mamy do czynienia w&nbsp;rzeczywistości.</p> <hr class="system-pagebreak" title="Rozpiętość tonalna" /> <h2>Rozpiętość tonalna</h2> <p>Wygodną jednostką do posługiwania się zakresem dynamiki jest nie kontrast, lecz liczba stopni przesłony &ndash; termin historycznie wywodzący się z&nbsp;fotografii. Jedna działka przesłony (EV &ndash;&nbsp;Exposure Value) odpowiada dwukrotnej zmianie jasności obrazu. Dwie działki &ndash; czterokrotnej, 10 działek &ndash; 1024-krotnej. Obowiązuje tu proste prawo potęgowe: 2 do potęgi EV definiuje kontrast.</p> <p>W&nbsp;rzeczywistym świecie rozpiętość tonalna obraz&oacute;w jest olbrzymia. Określa się ją na 26 EV, co odpowiada kontrastowi 67 milion&oacute;w, choć tak naprawdę jest jeszcze większa, gdyby za miarę omawianego zjawiska przyjąć analog kontrastu on/off w&nbsp;świecie wideo. Najjaśniejszy naturalny obiekt spotykany w&nbsp;przyrodzie &ndash;Słońce &ndash; osiąga jasność 1,6 miliarda cd/m2, czyli aż 5 milion&oacute;w razy większą niż telewizory LED! Z&nbsp;kolei nocne, bezksiężycowe niebo osiąga &bdquo;czerń&rdquo; znacznie poniżej możliwości wyświetlaczy plazmowych: 3 x 10-5 cd/m2. Wprawdzie obydwa te elementy w&nbsp;warunkach ziemskich nigdy nie występują jednocześnie, jednak por&oacute;wnanie to ukazuje, jak ekstremalna jest rozpiętość jasności obraz&oacute;w obserwowanych w&nbsp;naturze.</p> <p>Na tym tle dynamika ludzkiego wzroku wydaje się niezbyt imponująca. Określa się ją maksymalnie na 14 EV, co odpowiada kontrastowi 16 000:1. Nasze testy najlepszych na rynku ekran&oacute;w plazmowych (ostatniej generacji Panasonik&oacute;w i&nbsp;Pioneera Kuro 9G) zdają się potwierdzać to oszacowanie: kontrast ANSI rzędu kilkunastu tysięcy do jednego jest już na tyle duży, że czarne pola wydają się czarne. Zwiększenie kontrastu ANSI do 100 000:1 nie przyniosłoby żadnej odczuwalnej poprawy kontrastu.</p> <p>M&oacute;wimy tu jednak o&nbsp;rozpiętości tonalnej obserwowanej w&nbsp;danej chwili, przy niezmienionym stopniu otwarcia (przymknięcia) źrenic. Ludzki wzrok jest w&nbsp;stanie rejestrować znacznie większe wahania jasności dzięki szerokim możliwościom adaptacji. Przy w&nbsp;pełni otwartych źrenicach możemy czytać książkę w&nbsp;świetle księżyca, a&nbsp;także dostrzegać relatywnie słabe obiekty astronomiczne na niebie. W&nbsp;słoneczny dzień r&oacute;wnież radzimy sobie z&nbsp;czytaniem książki, jednak bezpośrednia obserwacja tarczy słonecznej nie jest już możliwa.</p> <p>Jak na tym tle wypadają wsp&oacute;łczesne wyświetlacze wideo? Nie najgorzej. Kontrast najlepszych matryc LCD sięga 12 EV (4000:1), najlepsze plazmy osiągały 14&ndash;15 EV. Problem jednak w&nbsp;tym, że jasność obrazu telewizyjnego (o&nbsp;projekcyjnym nie wspominając) jest odg&oacute;rnie ograniczona: nie przekracza 250&ndash;300 cd/m2 (stare generacje matryc podświetlanych świetl&oacute;wkami CCFL osiągały wartości ponad 500 cd/m2), zaś obowiązujący od lat standard &ndash; 100 cd/m2 dla monitor&oacute;w profesjonalnych i&nbsp;ekran&oacute;w domowych. W&nbsp;kinie jest jeszcze ciemniej &ndash; 48 cd/m2.</p> <p>Dla por&oacute;wnania, Księżyc w&nbsp;pełni osiąga jasność 2500 cd/m2, zaś przeciętna jasność gruntu w&nbsp;słoneczny dzień wynosi około 3000 cd/m2. R&oacute;żnica jest więc 30-krotna. Innymi słowy, wsp&oacute;łczesne domowe i&nbsp;profesjonalne wyświetlacze wideo (SDR) nie są w&nbsp;stanie realistycznie przekazać jasnych obraz&oacute;w z&nbsp;otaczającej nas rzeczywistości.</p> <hr class="system-pagebreak" title="Problematyczna DUŻA jasność" /> <h2>Problematyczna DUŻA jasność</h2> <p>10-krotne zwiększenie jasności matryc telewizyjnych wiązałoby się z&nbsp;koniecznością stosowania bardzo mocnych diod, kt&oacute;re byłyby kosztowne i&nbsp;wymagałyby potężnych zasilaczy. Oczywiście, jasność rzędu 3000 cd/m2 nie jest potrzebna na całym ekranie ani przez długi czas. To wym&oacute;g kr&oacute;tkotrwały, nieobciążający w&nbsp;proporcjonalny spos&oacute;b zasilania. Niemniej, musiałoby ono jednak podołać wielokrotnie większym mocom niż obecne układy impulsowe. Technicznie nie jest to wielki problem, ale pociąga za sobą koszty. Wraz ze wzrostem mocy podświetlenia pojawia się jednak kolejny problem &ndash; chłodzenia panelu. By uniknąć tych trudności, producenci m&oacute;wią na razie o&nbsp;jasnościach rzędu 1000 cd/m2. Laboratorium Dolby &ndash; na bazie własnych, przeprowadzonych w&nbsp;ubiegłym roku badaniach panelowych &ndash;&nbsp; twierdzi jednak, że nasze potrzeby są 10-krotnie większe. Zakres luminancji idealnego wyświetlacza powinien rozciągać się od 0,004 do 20000 cd/m2 (!). Nie jest to żadna teoria, lecz wynik badań, w&nbsp;kt&oacute;rych wykorzystano specjalnie skonstruowany wyświetlacz z&nbsp;projekcją tylną, podświetlany bardzo mocnym projektorem NEC. Tworzony w&nbsp;tej spos&oacute;b obraz osiągał jasność&nbsp; 20 000 nit&oacute;w (cd/m2).</p> <p>Na razie zejdźmy na ziemię. Ze względu na charakter obraz&oacute;w o&nbsp;dużej dynamice, dla potrzeb telewizor&oacute;w mających zapewniać obraz HDR zdecydowanie rozsądne i&nbsp;wskazane wydaje się stosowanie podświetleń direct LED oraz system&oacute;w strefowego sterowania jasnością. Tak jest w&nbsp;szczytowym modelu Samsunga JS9500. Implementacja techniki HDR w&nbsp;połączeniu w&nbsp;podświetleniami krawędziowymi wydaje się z&nbsp;g&oacute;ry skazana na porażkę &ndash; chwilowe podnoszenie mocy całego panelu (lub znacznej jego części) nakłada większe wymagania na zasilacz, a&nbsp;trzeba też pamiętać, że wraz z&nbsp;jasnością bieli rośnie też luminancja czerni &ndash; kontrast obrazu będzie wciąż wąskim gardłem.</p> <hr class="system-pagebreak" title="Jak zakodować HDR" /> <h2>Jak zakodować HDR</h2> <p>W&nbsp;dw&oacute;ch ostatnich dekadach nastąpił wielki postęp w&nbsp;jakości urządzeń rejestrujących wideo oraz wyświetlaczy. Ich jasność jest znacznie wyższa niż ekran&oacute;w CRT, problem szumu (analogowego) przestał istnieć, a&nbsp;kamery wizyjne osiągają dziś dynamikę rzędu 13&ndash;14 EV &ndash; podobnie jest z&nbsp;aparatami cyfrowymi wyższej klasy. Taśma filmowa r&oacute;wnież przenosi rozpiętość tonalną 14 EV. Na tym tle obecny standard wideo ze swoimi 8 bitami (8 EV) jest archaiczny. Mamy więc drugi ważki pow&oacute;d, dla kt&oacute;rego warto by w&nbsp;końcu coś zrobić z&nbsp;obowiązującym standardem kodowania wideo, a&nbsp;konkretnie &ndash;&nbsp; stworzyć go od podstaw. Tym bardziej, że studia emisyjne i&nbsp;produkcyjne od lat pracują już na 10 bitach.</p> <p>Podniesienie jasności matryc to najmniejszy z&nbsp;problem&oacute;w, jakie czekają wytw&oacute;rc&oacute;w paneli i&nbsp;telewizor&oacute;w HDR, nie m&oacute;wiąc o&nbsp;nadawcach i&nbsp;producentach &bdquo;kontentu&rdquo;. O&nbsp;wiele ważniejszym zagadnieniem okazuje się to, jak dobrze zakodować sygnał wideo o&nbsp;zwiększonej dynamice. Dobrze, to znaczy, w&nbsp;taki spos&oacute;b, żeby rozszerzenie dynamiki nie spowodowało efektu posteryzacji (bandingu) wywołanego zbyt &bdquo;rzadką&rdquo; kwantyzacją poziom&oacute;w luminancji. No bo skoro dzisiejsze wyświetlacze operujące 8-bitowym sygnałem wideo pokazują pewne ograniczenia obecnego standardu, to nietrudno sobie wyobrazić, że 10-krotny (nie m&oacute;wiąc o&nbsp;większym) wzrost luminancji, pociągający za sobą proporcjonalny wzrost dynamiki sygnału, spowodowałby silną posteryzację obrazu &ndash; utratę ciągłości przejść tonalnych. Jak temu zaradzić?</p> <p>Rozwiązaniem wydaje się zagęszczenie kodowania wideo &ndash; na przykład poprzez dodanie 2 bit&oacute;w. Dwa dodatkowe bity przyniosłyby jednak tylko 4-krotne zwiększenie liczby poziom&oacute;w, co w&nbsp;kontekście postulowanego przyrostu luminancji obrazu jest niewystarczające. Dalsze zwiększenie rozdzielczości &ndash;&nbsp;do 12 bit&oacute;w &ndash; wydaje się rozwiązywać problem, ale tylko doraźnie. Nowy standard wideo nie powinien &bdquo;ledwo co&rdquo; zaspokajać bieżących potrzeb &ndash; tym bardziej, że &ndash; jak wspomnieliśmy &ndash; z&nbsp;badań przeprowadzonych w&nbsp;ubiegłym roku przez Dolby wynika, że optymalną g&oacute;rną granicą luminancji obrazu powinno być 100 00 cd/m2, co oznacza 100-krotny przyrost dynamiki obrazu względem obecnego standardu (100 cd/m2).</p> <p>Dalsze zwiększanie rozdzielczości kodowania wideo okazuje się niepraktyczne (nie mieści się w&nbsp;standardach Ultra HD ani w&nbsp;Blu-ray Ultra HD) i&nbsp;niecelowe. Istnieje inne, lepsze rozwiązanie problemu. By je zrozumieć, musimy przypominieć sobie, czym jest gamma i&nbsp;dlaczego się ją stosuje.</p> <hr class="system-pagebreak" title="EOTF - koniec z gammą" alt="EOTF - koniec z gammą" /> <h2>EOTF - koniec z gammą</h2> <p>Jasność obrazu emitowanego przez wyświetlacz wideo (obojętnie jakiego typu) zależy od amplitudy (poziomu) sygnału wejściowego, lecz nie jest to zależność liniowa (przykładowo: dwukrotnemu wzrostowi sygnału nie towarzyszy dwukrotny wzrost luminancji panelu). Odpowiedź tę opisuje funkcja EOTF (Electro-Optical Transfer Function). W&nbsp;og&oacute;lności może to być dowolna zależność. Od kilkudziesięciu już lat w&nbsp;technice wideo obowiązuje jednak jedna i&nbsp;ta sama postać funkcji EOTF, kt&oacute;rą w&nbsp;uproszczeniu opisuje prosta zależność potęgowa:</p> <p><strong>L&nbsp;= Vingamma x Lmax,</strong></p> <p>gdzie L to luminancja; Vin &ndash; poziom sygnału wejściowego (kod danego odcienia) w&nbsp;znormalizowanej skali (0-1), zaś Lmax &ndash; maksymalna luminancja panelu.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/hdr/hdr-oetf.gif" alt="hdr oetf" style="border: 1px solid #000000;" /></p> <p style="text-align: center;"><em>Krzywe funkcji OETF (odwrotności EOTF) opisują charakterystykę urządzeń rejestrujących obraz. By zwiększyć zakres dynamiki wideo, kamery mają załamanie (kolanko) na charakterystyce OETF (krzywa r&oacute;żowa), by przenieść dodatkowe informacje w bielach. Linia ż&oacute;łta obrazuje funkcję proponowaną przez BBC, niebieska &ndash; przez Dolby.</em></p> <p>&nbsp;</p> <p>Przetłumaczmy to na język zrozumiały dla humanist&oacute;w. Dla małych sygnał&oacute;w (ciemnych i&nbsp;szarości) jasność obrazu narasta powoli (wolniej niż w&nbsp;zależności liniowej), zaś dla dużych &ndash;&nbsp;zdecydowanie szybciej. Tak więc, zmianom małych sygnał&oacute;w towarzyszą małe r&oacute;żnice jasności obrazu (mała dyskretyzacja ich poziom&oacute;w), zaś zmianom dużych sygnał&oacute;w towarzyszą duże zmiany jasności. Ta nieliniowość była historycznie pożądana &ndash; z&nbsp;trzech względ&oacute;w. Po pierwsze, charakterystyka opisana gammą r&oacute;wną 2,4 odpowiadała naturalnej charakterystyce pracy wyświetlaczy (CRT). Po drugie, dobrze kompensowała problem szum&oacute;w &ndash; bardziej dokuczliwych przy małych amplitudach sygnału niż przy dużych. Po trzecie, gamma 2,4 dobrze kompensuje naturalną nieliniowość ludzkiego wzroku. W&nbsp;skali małych zmian natężenia światła reakcję wzroku można przybliżyć prawem logarytmicznym, natomiast w&nbsp;skali większych r&oacute;żnic lepiej opisuje ją funkcja potęgowa (z&nbsp;wykładnikiem wynoszącym około 0,42).</p> <p>Funkcja EOTF opisana gammą przetrwała w&nbsp;niezmienionej postaci dobrych kilkadziesiąt lat (kineskopy są produkowane od lat 30. ubiegłego stulecia). Jak to możliwe? Nadawany sygnał wideo jest (wciąż) 8-bitowy, a&nbsp;to oznacza, że użyteczna dynamika (kontrast) obrazu telewizyjnego pozostaje dzisiaj na śmiesznym, zdawałoby się, poziomie 200:1. Wprawdzie kontrast dobrych matryc telewizyjnych LCD jest dziś o&nbsp;rząd wielkości większy (a&nbsp;najlepszych plazm był kolejne 10 razy większy), lecz nie był to dotąd wystarczający pow&oacute;d ku temu, by zająć się nową funkcją EOTF. Niemniej, kuriozalny jest fakt, że dopiero 4 lata temu, a&nbsp;więc po wyeliminowaniu ekran&oacute;w CRT, funkcja ta została oficjalnie ustandaryzowana w&nbsp;ramach dokumentu ITU-R Rec BT.1866.</p> <hr class="system-pagebreak" title="Gamma a&nbsp;HDR &ndash; trochę teorii" /> <h2>Gamma a HDR - trochę teorii</h2> <p>Dop&oacute;ki poruszamy się w&nbsp;obszarze obraz&oacute;w SDR (o&nbsp;standardowej dynamice), dop&oacute;ty gamma zdaje egzamin. Przysłowiowe schody zaczynają się wraz ze znacznym poszerzeniem dynamiki i&nbsp;pr&oacute;bą zakodowania obrazu HDR z&nbsp;wykorzystaniem nie 8 lub nawet 10 bit&oacute;w. W&oacute;wczas okazuje się, że rozważana funkcja EOTF, w&nbsp;korelacji z&nbsp;postrzeganiem r&oacute;żnic jasności przez ludzkie oko, nieoptymalnie wykorzystuje bity sł&oacute;w kodowych, przypisując zbyt dużo informacji obszarom jasnym, a&nbsp;zbyt mało &ndash; ciemnym. Efekt jest taki, że przejścia tonalne w&nbsp;zakresie jasnych szarości i&nbsp;bieli są oddane doskonale &ndash; nawet zbyt dobrze w&nbsp;stosunku do potrzeb &ndash; natomiast w&nbsp;cieniach mamy zbyt mało informacji (banding). Zrozumienie tego fenomenu wymaga poznania zależności opisującej czułość ludzkiego wzroku na zmiany jasności obrazu.</p> <p>Już w&nbsp;XIX wieku Ernst Heinrich Weber (1795&ndash;1878) odkrył, że pr&oacute;g rozr&oacute;żnialności bodźca (świetlnego, dźwiękowego i&nbsp;innych) determinuje jego względna zmiana, nie zaś bezwzględna r&oacute;żnica w&nbsp;natężeniu. Najmniejszą procentową zmianę, jaką jesteśmy w&nbsp;stanie zarejestrować, określono mianem frakcji Webera (uważa się, że jej wartość w&nbsp;odniesieniu do jasności wynosi 0,01&ndash;0,02). Nieco p&oacute;źniej Gustav Fechner doprecyzował tę zależność w&nbsp;spos&oacute;b matematyczny, stwierdzając, że relacja pomiędzy bodźcem a&nbsp;percepcją jest logarytmiczna. Prawo to posłużyło zresztą za podstawę do określenia miary jasności obiekt&oacute;w astronomicznych. Dziś uważa się, że reakcje wzroku na zmiany jasności (w&nbsp;dużej skali) lepiej opisuje prawo potęgowe. Za dokładniejszą miarę czułości wzroku na zmiany jasności uznaje się obecnie model Bartena (patrz: załączony wykres). Przy małych jasnościach obrazu jesteśmy w&nbsp;stanie dostrzec 1&ndash;2-procentowe r&oacute;żnice w&nbsp;jego jasności (jak wynika z&nbsp;prawa Webera), zaś przy jasnościach rzędu 100 cd/m2, rejestrujemy znacznie mniejsze zmiany w&nbsp;jasności &ndash; rzędu 0,2%.</p> <p>&nbsp;</p> <p><img src="https://m.avtest.pl/images/technika/hdr/hdr-barten.gif" alt="hdr barten" style="display: block; margin-right: auto; border: 1px solid rgb(0, 0, 0); margin-left: auto;" /></p> <p style="text-align: center;"><em>Linia przerywana obrazuje progową wartość detekcji kontrastu (r&oacute;żnic w&nbsp;jasności obrazu) przez ludzkie oko &ndash; tak zwany model Bartena. Przy małych jasnościach, wykrywalna przez wzrok względna zmiana jasności jest znacznie większa niż przy dużych i&nbsp;bardzo dużych jasnościach. Zaproponowana przez Dolby funkcja EOTF (linia czarna) zapewnia niewidoczne przejścia tonalne przy 12-bitowym kodowaniu sygnału. Dopiero 15-bitowa gamma (linia czerwona) dałaby por&oacute;wnywalny efekt.</em></p> <p>&nbsp;</p> <p>Specjaliści z&nbsp;laboratori&oacute;w Dolby uznali to kryterium za podstawę do wyznaczenia nowej krzywej EOTF, kt&oacute;ra pokryłaby zakres luminancji od 0 do 10 000 nit&oacute;w (cd/m2) w&nbsp;taki spos&oacute;b, by w&nbsp;całym zakresie jasności obraz zakodowany 12-bitowo był całkowicie wolny od bandingu (pominięto tu oczywiście wpływ ewentualnej kompresji). Krzywa ta, nazwana skr&oacute;tem PQ (od Perceptual Quantizer), zapewnia r&oacute;wnie znakomite efekty co 15-bitowa EOTF Rec.709 (gamma), tak więc oszczędność w&nbsp;pojemności sł&oacute;w kodowych jest znacząca &ndash; wynosi całe 3 bity.</p> <p>&nbsp;</p> <p style="text-align: center;"><img src="https://m.avtest.pl/images/technika/hdr/hdr-frakcje.gif" alt="hdr frakcje" style="border: 1px solid #000000;" /></p> <p style="text-align: center;"><em>Wykresy 10-bitowych frakcji Webera dla r&oacute;żnych krzywych OETF opracowane przez BBC pokazują nieodpowiedniość obecnego standardu (gammy), kt&oacute;ra zbyt dokładnie (małe wartości frakcji Webera) opisywałaby przejścia tonalne w jasnych partiach obrazu, a zbyt zgrubnie &ndash; w ciemnych.&nbsp;</em> &nbsp;</p> <p>&nbsp;</p> <p>Odmienną funkcję EOTF postulują specjaliści z&nbsp;BBC, dowodząc, że w&nbsp;ramach 10-bitowego kodowania, a&nbsp;więc takiego, jakie zaakceptowano w&nbsp;standardzie Ultra HD, zapewnia ona mniejszy banding niż krzywa PQ. Ponadto proponowana krzywa jest bardziej kompatybilna z&nbsp;gammą Rec.709, ponieważ została opracowana z&nbsp;myślą o&nbsp;wyświetlaniu obraz&oacute;w tylko 4-krotnie jaśniejszych niż w&nbsp;obecnym standardzie. BBC nie skorzystało z&nbsp;modelu Bartena, lecz z&nbsp;prostszego prawa Webera-Fehnera, kt&oacute;re &ndash; jak wspomnieliśmy &ndash; opiera się na pojęciu frakcji Webera i&nbsp;jej stałej wartości.</p> <hr class="system-pagebreak" title="Zupełnie nowa jakość!" /> <h2>Zupełnie nowa jakość!</h2> <p>Znamy już aspekty techniczne obrazu o&nbsp;szerokim zakresie dynamiki. Pozostaje pytanie &ndash; jak on wygląda w&nbsp;praktyce? Odpowiedź nie jest jednoznaczna, bowiem HDR jest tak naprawdę narzędziem, kt&oacute;re artysta-tw&oacute;rca może wykorzystać do uzyskania takiego czy innego efektu. Od niego zależy, czy będzie on duży, subtelny, czy może ledwo widoczny. Tak czy inaczej, potencjał 100-krotnie jaśniejszego obrazu (1000 cd/m2, bo o&nbsp;takich wartościach na razie się m&oacute;wi w&nbsp;zastosowaniach komercyjnych) jest ogromny. Wystarczy wyobrazić sobie ujęcia, w&nbsp;kt&oacute;rych blask słońca odbija się od wody, czy choćby blask księżyca na czystym niebie. To, co do tej pory musiało być jednolitą, niezbyt jasną plamą, będzie mogło zawierać znacznie więcej informacji, a&nbsp;jasne obiekty znacznie zyskają na realizmie.</p> <p>Od razu uspokoję sceptyk&oacute;w &ndash; HDR nie oznacza, że wszystko będzie wypalało wzrok, jak na wystawach sklepowych (choć biorąc pod uwagę, że producenci w&nbsp;początkowej fazie będą się bardzo chwalić HDR-em, nie dysponując odpowiednimi treściami, takie ryzyko jednak istnieje). Niemniej, żaden artysta/producent nie będzie się starał nas oślepić pełnoekranową bielą o&nbsp;tak wysokiej jasności. Mowa jest jedynie o&nbsp;niezbyt dużych elementach w&nbsp;obrazie, kt&oacute;re zwiększają jego ekspresję.</p> <p>Kilka miesięcy temu wsp&oacute;łautor tego artykułu (MK) miał okazję podziwiać prawdziwy obraz HDR na wyświetlaczu inżynieryjnym w&nbsp;siedzibie Philipsa, w&nbsp;Ghent. Oj, było się czym zachwycać! Obok stał zwykły telewizor i&nbsp;dopiero takie por&oacute;wnanie jasno obrazowało, ile jeszcze możemy osiągnąć w&nbsp;dziedzinie jakości obrazu.</p> <hr class="system-pagebreak" title="Więcej pytań niż odpowiedzi" /> <h2>Więcej pytań niż odpowiedzi</h2> <p>Przed nami jednak długa droga. By można było cieszyć się obrazem o&nbsp;rozszerzonej dynamice, konieczne jest stworzenie jednolitych specyfikacji w&nbsp;ramach standardu Ultra HD. Nie wiadomo, jaka funkcja EOTF zostanie zastosowana w&nbsp;standardzie Blu-ray UHD i&nbsp;czy przypadkiem nie pozostaniemy ze starą gammą na kolejne lata. Według finalnej specyfikacji, obsługiwana jest otwarta norma SMPTE ST.2084. W&nbsp;grę wchodzi także wspomniana funkcja PQ (Dolby Vision), a&nbsp;także trzecia &ndash; autorstwa Philipsa. Nie da się ukryć, że wprowadzenie nowej funkcji EOTF spowoduje olbrzymie zamieszanie nie tylko po stronie producent&oacute;w, użytkownik&oacute;w, ale też nadawc&oacute;w i&nbsp;sprzętu studyjnego, w&nbsp;tym kamer, kt&oacute;re będą musiały wykorzystywać zmodyfikowaną funkcję OETF (odwrotność EOTF). To wielkie wyzwanie dla całego przemysłu wideo, stąd też niepewność, czy i&nbsp;kiedy nowa krzywa transferu zostanie zaimplementowana.</p> <p>Ze wstępnych ustaleń wynika, że wymagana jest też aktualizacja interfejsu HDMI do standardu 2.0a. Na spotkaniu organizowanym przez Philipsa w&nbsp;Barcelonie, inżynier obrazu, Danny Tack, poinformował bowiem, że HDMI 2.0 w&nbsp;obecnej formie nie jest przystosowane do transportu treści HDR (!).</p> <p>W&nbsp;styczniu na targach CES większość producent&oacute;w zadeklarowała, że flagowe serie na 2015 rok będą wspierały HDR. Nie jest jednak jasne, co powinniśmy przez to rozumieć. Zagadnieniem interesują się też serwisy strumieniowe, takie jak np. Netflix. Nie wiadomo, kiedy zostaną przedsięwzięte jakieś poważniejsze kroki w&nbsp;kierunku popularyzacji treści HDR.</p> <p>Na telewizję w&nbsp;najbliższych latach raczej nie powinniśmy liczyć. Pozostaje nowy standard Blu-ray Ultra HD oraz, ewentualnie, streaming. Z&nbsp;pewnością same telewizory wyprzedzą całą resztę: treść i&nbsp;nowy standard. Na razie ich możliwości będzie można wykorzystać tylko w&nbsp;jeden spos&oacute;b: do symulacji efektu HDR. Czasami wychodzi to nawet całkiem ciekawie, jak na przykład we flagowym Samsungu JS9500, w&nbsp;kt&oacute;rym możemy uzyskać efekt HDR dla dowolnej treści. Uaktywnienie funkcji wygaszania (&bdquo;diody smart led&rdquo;) maksymalnie podnosi luminancję niewielkich jaskrawych element&oacute;w ponad skalibrowany poziom bieli. Jest to nawet atrakcyjne wizualnie, ale to wciąż tylko konwersja. Idziemy jednak o&nbsp;zakład, że właśnie w&nbsp;taki &bdquo;sztuczny&rdquo; spos&oacute;b producenci telewizor&oacute;w będą w&nbsp;nich zachwalać funkcję HDR. Oby tylko nie poprzestano na samej funkcji (konwersji), bo potencjał HDR-a&nbsp;jest niepor&oacute;wnywalnie większy. Z&nbsp;punktu widzenia wierności obrazu jest to bardziej pożądana zmiana niż przejście z&nbsp;rozdzielczości Full HD na Ultra HD.</p> <p>Podsumowując: na razie mamy więcej niewiadomych niż konkret&oacute;w. Jeśli nie zostanie to szybko uporządkowane, a&nbsp;wyświetlacze HDR będą bardziej dostępne, to może dojść do sytuacji, w&nbsp;kt&oacute;rej nie będziemy mogli prawidłowo odtworzyć danego filmu w&nbsp;HDR (lub przekaz zostanie zniekształcony), bo został on zapisany w&nbsp;formacie niekompatybilnym z&nbsp;naszym ekranem. <br />Może się też okazać, że będziemy świadkami swego rodzaju wojny standard&oacute;w. Oby tak się nie stało.</p> <hr class="system-pagebreak" title="Galeria" alt="Galeria" /> <h2>Galeria</h2> <p>{gallery}technika/hdr{/gallery}</p></div> Dolby Atmos - pierwsza instalacja kinowa w Polsce 2014-07-22T00:00:00+00:00 2014-07-22T00:00:00+00:00 https://m.avtest.pl/artykuly/technika/item/54-dolby-atmos-pierwsza-instalacja-kinowa-w-polsce Webmaster webmaster@av.com.pl <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/a27a3b73d355048c6bab885897085f62_S.jpg" alt="Dolby Atmos - pierwsza instalacja kinowa w Polsce" /></div><div class="K2FeedIntroText"><p>Jedna z sal nowo otwartego katowickiego Multikina ma nie tylko dumną nazwę Xtreme, ale także spektakularne, 49-kanałowe nagłośnienie w systemie Dolby Atmos. Cóż to takiego? Wcale niemała rewolucja w kinowym dźwięku – a może i nie tylko kinowym.</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Filip Kulpa | <strong>Zdjęcia:</strong> autor, Multikino</p> <hr /> <p>Dolby Atmos jest zupełnie nową techniką zapisu i odtwarzania dźwięku wielokanałowego, opracowanego z myślą o dużych salach kinowych. System oficjalnie zaprezentowano w czerwcu 2012 roku, podczas premierowego pokazu nowej produkcji wytwórni Disney Pixar – „Brave”. Co wyróżnia Atmosa? Najoględniej mówiąc: znacznie większa liczba kanałów, a w związku z tym – głośników i wzmacniaczy.<br /><br /><img style="border: 1px solid #000000;" src="https://m.avtest.pl/images/technika/dolbyatmos/sala-kinowa.jpg" alt="sala-kinowa" /><br /><br />W dotychczas funkcjonujących systemach nagłośnienia Dolby liczba kanałów jest z góry predefiniowana: 6 lub 8. Ponieważ w klasycznym kinie z instalacją dźwiękową Dolby Surround taka liczba głośników byłaby niewystarczająca, to na ścianach bocznych instaluje się nie jedną, lecz kilka par głośników efektowych – zależnie od wielkości sali. Głośniki te odtwarzają jednak tę samą informację przestrzenną, z podziałem na stronę lewą (jeden kanał) i prawą (drugi kanał). Dodatkowo, w nagłośnieniu 7.1, dochodzą zestawy efektowe tylne – również podzielone na lewe i prawe.&nbsp; To oczywisty kompromis, ponieważ w ten sposób trudno jest zapewnić idealne przechodzenie dźwięków ze strony lewej na prawą, tak by widz czuł autentyczną płynność ruchu poruszających się obiektów, szczególnie gdy siedzi daleko poza punktem referencyjnym, czyli sweet spotem. Innym ograniczeniem jest brak głośników efektowych na suficie, w związku z czym jest bardzo trudno realistycznie oddać efekt przelotu helikoptera nad głową widza czy np. odgłos jaskini (przykładowa scena w „Hobbicie”). Także w obrębie samego ekranu mogą wystąpić problemy z brakiem ciągłości sceny dźwiękowej, bowiem w klasycznej instalacji Dolby za ekranem znajdują się trzy zestawy głośnikowe: centralny, lewy i prawy (jak w kinie domowym). O ile w przypadku niedużych sal kinowych ze względnie niedużym ekranem to wystarcza, o tyle w przypadku wielkich, kilkunastometrowych ekranów i zasiadania widzów w pierwszych rzędach, może występować efekt przeskakiwania dialogów ze środka na skraj ekranu. &nbsp;</p> <p><a class="jcepopup" href="https://m.avtest.pl/images/technika/dolbyatmos/jbl3732left.jpg" target="_blank"><img style="margin-left: 15px; margin-bottom: 10px; float: right;" src="https://m.avtest.pl/images/technika/dolbyatmos/jbl3732left.jpg" alt="jbl3732left" width="350" height="580" /></a>Aby się wyzbyć powyższych ograniczeń, tym samym dopasowując się niejako z jakością fonii do wymagań obrazu stereoskopowego (3D), inżynierowie Dolby opracowali Atmosa. Unikatowość tego rozwiązania polega na tym, że jest to system skalowalny, w którym liczba kanałów nie jest z góry ściśle określona (maksymalnie jest ich 128), a cały koncept zapisu dźwięku radykalnie różni się od dotychczas obowiązujących systemów dyskretnych.</p> <p>Głośników jest nie tylko więcej, ale pokrywają one znacznie większy obszar ścian bocznych oraz – co jest nowością – także sufit. Pierwsza różnica zaczyna się jednak już za samym ekranem, gdzie znajdują się nie trzy, a pięć zestawów głośnikowych. Do kompletu centralnego i dwóch zestawów głównych umiejscowionych przy skrajach ekranu, dodano głośniki wewnętrzny lewy (Lc) i wewnętrzny prawy (Rc). Prócz nich instaluje się dwa subwoofery – asymetrycznie względem ścian bocznych (bliżej jednej niż drugiej), by nie wzbudzać osiowych fal stojących. Pierwsze głośniki efektowe są montowane niemal na początku ścian bocznych (niedaleko narożników), nie zaś dopiero na 1/3 długości ściany bocznej, jak w klasycznych instalcjach Dolby Surround 5.1 czy 7.1. Wszystko oczywiście po to, by zapewnić lepszą płynność przejść dźwięków z ekranu na boki. <br /><br />Liczba par głośników efektowych jest uzależniona od wielkości sali. Specyfikacja zaleca, aby odstęp pomiędzy kolejnymi głośnikami wynosił 2–3 metry. Na ścianie tylnej stawia się trzeci rząd głośników efektowych oraz dwa subwoofery (kolejna nowość). I tak dochodzimy do sufitu. Liczba i rozstaw głośników odpowiadają zestawom bocznym. Może być ich 18, 20, a nawet 22.</p> <p>Maksymalna liczba zestawów głośnikowych jest ograniczona do 64, przy czym liczba kanałów jest dwukrotnie większa – wynosi 128! Ta pozorna rozbieżność jest konsekwencją przyjętego modelu zapisu i miksowania dźwięku, w którym kanał audio nie jest tożsamy z sygnałem głośnikowym na wyjściu procesorów.</p> <hr class="system-pagebreak" title="Kompatybilność" alt="Kompatybilność" /> <h2>Kompatybilność</h2> <p>Skoro kanałów i głośników jest tak wiele, a sale z nagłośnieniem Dolby Atmos mają różną liczbę głośników, to automatycznie pojawia się pytanie: czy każde z kin otrzymuje inną wersję (miks) ścieżki dźwiękowej. Byłaby to olbrzymia komplikacja, której inżynierowie Dolby z pewnością chcieli uniknąć. W rzeczy samej, za całe dopasowanie soundtracku do danej sali kinowej odpowiada procesor dźwiękowy Dolby Atmos Cinema Processor CP850. Cały materiał jest dostarczany w jednej paczce DCP (Digital Cinema Package), mającej postać twardego dysku. Co istotne, DCP zawiera zarówno zapis w systemie Dolby Atmos, jak i w Dolby Surround 7.1 i 5.1. Nie ma więc znaczenia, jaką instalację dźwiękową ma dane kino.<br /> <br />Każda ze ścieżek dźwiękowych w systemie Dolby Atmos jest skomprymowana bezstratnie, zaś do kompresji obrazu (każdej z klatek oddzielnie) używa się kodeka JPEG2000.</p> <p>Procesor CP850 jest wyposażony w 16-kanałowe wyjście audio. W przypadku rozbudowanych instalacji jest konieczne zestawienie go z dodatkowymi urządzeniami, które zwiększają liczbę kanałów wyjściowych.</p> <hr class="system-pagebreak" title="Korzyści" alt="Korzyści" /> <h2>Korzyści</h2> <p>Bardziej realistyczne oddawanie efektów przestrzennych to tylko jedna z korzyści, jaką zapewnia Dolby Atmos. Wszystkie kanały i głośniki są pełnopasmowe (w przypadku głośników efektowych w zwykłych kinach tak nie jest), zatem nie ma mowy o kompromisie w kwestii oddawania efektów niskotonowych dochodzących z boku czy powyżej głowy widzów. Cały koncept systemu stworzono w taki sposób, by wydatnie poprawić zakres dynamiczny, przesuwając w górę próg kompresji. Tym bardziej, że dodatkowe subwoofery z tyłu odciążają dodatkowo głośniki efektowe.</p> <p>Kolumny efektowe, mimo znacznie większych gabarytów, szerszego pasma i większej dynamiki niż w tradycyjnych kinach 5.1/7.1, z oczywistych względów nie są w stanie dorównać mocą zestawom frontowym. Dlatego też, w skrajnych wypadkach, procesor Atmos używa kilku głośników bocznych lub ich całego ciągu (podając do nich ten sam sygnał) do reprodukcji najgłośniejszych eksplozji, nie dopuszczając tym samym do kompresji. <br /><br />Kolejną zaletą, wynikającą ze zróżnicowania informacji audio podawanej do każdego z głośników bocznych, jest wyeliminowanie problemu pasożytniczych interferencji fal dźwiękowych przez nie promieniowanych. W starszych systemach Dolby tak właśnie się dzieje, ponieważ wiele głośników, umieszczonych w rzędzie odtwarza identyczny sygnał audio. Wprawdzie odległości pomiędzy głośnikami są na tyle duże, że nierównomierności charakterystyki powodowane efektem filtru grzebieniowego nie występują w krytycznym obszarze średnich tonów, niemniej niekorzystne deformacje barwy dźwięku muszą jednak się ujawniać.</p> <h4>Łóżka i obiekty</h4> <p>Tworząc Atmosa, Dolby Labs wyszedł z innego założenia niż przy opracowywaniu wcześniejszych systemów wielokanałowych, gdzie kanał audio był równoznaczny w przypisaniem go konkretnemu głośnikowi, którego ustawienie jest z góry zdefiniowane. W przypadku Atmosa realizator dźwięku i reżyser mają znacznie więcej swobody w określaniu, skąd dany dźwięk ma dobiegać – tj. dokładnie z jakiego kąta względem osi ekranu. Mogą to zrobić, ponieważ głośników jest wystarczająco dużo.</p> <p><a class="jcepopup" href="https://m.avtest.pl/images/technika/dolbyatmos/dolby-atmos-processor-wzmacniacze.jpg" target="_blank"><img style="border: 1px solid #000000; margin-right: 15px; margin-bottom: 10px; float: left;" src="https://m.avtest.pl/images/technika/dolbyatmos/dolby-atmos-processor-wzmacniacze.jpg" alt="dolby-atmos-processor-wzmacniacze" width="400" height="602" /></a>Konstrukcja systemu jest niejako dwupoziomowa. W nomenklaturze Dolby mówi się o tzw. łóżkach (beds) i obiektach (objects). Pierwsze są odpowiednikiem typowych kanałów w zapisie surround, niosących informację o muzyce filmowej, aurze nagrania, scenie dźwiękowej, odgłosach z tła itd. Słowem, reprezentują one informację rozproszoną, którą jest sens umieszczać w wielu kanałach jednocześnie, bo zapewnia to dobry efekt. Gdy jednak reżyser chce, aby odgłos widelca, trzask drzwi lub szczekanie psa dochodziły z konkretnego punktu w przestrzeni, realizator może to zrobić, tworząc ów tak zwany obiekt i określić jego dokładne położenie w przestrzeni. Nie znaczy to jednak, że ten dźwięk ma być odtwarzany przez konkretny głośnik, ponieważ w rzeczywistości mogłoby się okazać, że konkretny głośnik stoi w innym miejscu niż w studio postprodukcyjnym. Cały szkopuł tkwi więc w tym, by obiekty prawidłowo i powtarzalnie nanieść na kanały (łóżka), uwzględniając konkretny setup głośnikowy. To zadanie należy do procesora Atmos.</p> <p>Trzeba przyznać, że wszystko to brzmi tajemniczo i dość rewolucyjnie, a zarazem bardzo obiecująco. Można bowiem już teraz wyobrazić sobie, że „zmutowana” wersja Atmosa trafi pod strzechy. System ten jest z natury znacznie bardziej elastyczny niż Dolby TrueHD i pozwalałby tworzyć kina domowe o praktycznie dowolnej liczbie kanałów – zależnie od możliwości lokalowych i finansowych właściciela. Na razie są to jednak wyłącznie spekulacje.</p> <h4>Multikino: głośniki i wzmacniacze</h4> <p>Aby zobrazować możliwości systemu, prześledźmy pokrótce, jakich wzmacniaczy i zestawów głośnikowych użyto w sali Xtreme. Kolumny głośnikowe pochodzą z katalogu JBL, zaś jako wzmacniaczy mocy użyto jednostek Crown z serii DCI.</p> <p>Za ekranem pracują potężne, niemal 2-metrowe, 78-kilogramowe zestawy ScreenArray 3732. Wyposażone w dwa 18-calowe woofery 2241H, dwa średniotonowe 165-mm średniotonowce umieszczone w tubie oraz 75-mm tweeter tubowy zapewniają 125 dB poziomu SPL (z odległości 1 m) – w szczycie jest to nawet 131 dB. Efektywność zestawów wynosi 103 dB, pasmo 40 Hz – 19 kHz (+/- 3 dB), zaś moce poszczególnych sekcji to 500, 150 i 75 W.</p> <p>Również za ekranem ustawiono dwa 98-kilogramowe subwoofery 4642A wyposażone w dwa 18-calowe głośniki (każdy). Moc ciągła mierzona szumem różowym wynosi 1200 W, zaś muzyczna – 2400 W. Pasmo przenoszenia sięga 22 Hz przy spadku 10 dB, bez zastosowania korekcji EQ (z korekcją – dolna granica pasma obniża się do 20 Hz).</p> <p>Za głośniki efektowe posłużyły dwudrożne, 350-watowe modele 8350. Wspomagają je dwa subwoofery 4645C z pojedynczym, 18-calowym głośnikiem basowym 2242H. Wszystkie głośniki mają certyfikację THX Lucasflim.</p> <hr class="system-pagebreak" title="Filmy" alt="Filmy" /> <h2>Filmy</h2> <p>W 2013 roku odbyło się około 50 filmowych premier z dźwiękiem w systemie Dolby Atmos. Przeważają oczywiście drogie amerykańskie produkcje S-F, filmy akcji i animacje. Jedną z najgłośniejszych z nich jest druga część Hobbita „Desolation of Smaug”, w polskich kinach wyświetlana od 25 grudnia. Polska premiera tego obrazu z dźwiękiem Dolby Atmos odbyła się dwa dni później – właśnie w katowickim Multikinie.</p> <p>Na 2014 rok zapowiedziano już kilkanaście premier z wykorzystaniem systemu Atmos. Będzie więc co oglądać, choć repertuar z pewnością nie każdemu kinomaniakowi przypadnie do gustu.</p> <hr class="system-pagebreak" title="Efekty" alt="Efekty" /> <h2>Efekty</h2> <p>Mieliśmy okazję uczestniczyć w pokazie krótkich klipów i trailerów demonstrujących potencjał nowego systemu. To wprawdzie zbyt mało, by rzetelnie i obiektywnie ocenić Atmosa, jednak dwa wnioski są oczywiste. Po pierwsze, lokalizacja źródeł dźwięków, a związku z tym realizm całego dźwiękowego tła, są nieporównywalnie lepsze niż w tradycyjnym kinie. Przewyższa również możliwości zestawów kina domowego wysokiej klasy. Wprawdzie odniosłem wrażenie (i nie tylko ja), że efekty przestrzenne koncentrują się w płaszczyźnie powyżej głowy słuchacza (zasługa głośników sufitowych i bocznych umieszczonych powyżej widowni), niemniej ogłosy burzy przetaczającej się nad głową budziły jednak respekt. Realizm efektów przestrzennych jest naprawdę wysokiej próby i pod tym względem Atmos wyznacza nowe standardy.</p> <p><img style="border: 1px solid #000000;" src="https://m.avtest.pl/images/technika/dolbyatmos/sala-kinowa3.jpg" alt="sala-kinowa3" /><br /><br />Kto wie, czy nie ważniejsze jest jednak poczucie olbrzymiej dynamiki głośników JBL i wzmacniaczy Crown, odczuwalne w obrębie całej panoramy dźwiękowej. Niskie tony mają iście potężną energię i generalnie znacznie wyższą jakość niż to, co znamy z innych sal kinowych. Pełen rozmach.</p> <p>Jakkolwiek same efekty przetrzenne, dynamika i bas są imponujące, to rozdzielczość i barwy dźwięku,&nbsp; rozumiane w kategoriach audiofilskich – już niekoniecznie. Wydaje się, że pod tym względem high-endowe zestawy domowe wciąż oferują znacznie więcej. Cóż, systemy kinowe mają przede wszystkim zapewniać elektryzujące efekty, a realizm barwowy czy wybitna szczegółowość najwyraźniej nie są priorytetami. Jednak niezależnie od tego, życzylibyśmy sobie, by sal kinowych z nagłośnieniem Dolby Atmos było w Polsce przynajmniej po jednej w każdym większym mieście. Jak na razie, niechlubnie odstajemy od Europy, w której jest ich już 86 (na świecie – 310), z czego dwie w Bułgarii ...</p> <p>Na koniec ważna informacja praktyczna. Jak zapowiedziało szefostwo katowickiego Multikina, bilety w sali Xtreme będą zaledwie o 3 złote droższe od normalnych. Znakomity obraz i dźwięk, które z pewnością przewyższają jakością te oferowane przez inne kina, także w przypadku tradycyjnych ścieżek dźwiękowych Dolby 5.1 czy 7.1, na pewno są tego warte. Przynajmniej wiadomo, za co płacimy. A to, niestety, nie jest standardem w polskich kinach, gdzie na poprawne ustawienie fonii i obrazu operatorom w multipleksach często zwyczajnie brakuje czasu...</p> <hr class="system-pagebreak" title="Galeria" alt="Galeria" /> <h2>Galeria</h2> <p>{gallery}technika/dolbyatmos{/gallery}</p></div> <div class="K2FeedImage"><img src="https://m.avtest.pl/media/k2/items/cache/a27a3b73d355048c6bab885897085f62_S.jpg" alt="Dolby Atmos - pierwsza instalacja kinowa w Polsce" /></div><div class="K2FeedIntroText"><p>Jedna z sal nowo otwartego katowickiego Multikina ma nie tylko dumną nazwę Xtreme, ale także spektakularne, 49-kanałowe nagłośnienie w systemie Dolby Atmos. Cóż to takiego? Wcale niemała rewolucja w kinowym dźwięku – a może i nie tylko kinowym.</p> </div><div class="K2FeedFullText"> <p style="text-align: right;"><strong>Tekst:</strong> Filip Kulpa | <strong>Zdjęcia:</strong> autor, Multikino</p> <hr /> <p>Dolby Atmos jest zupełnie nową techniką zapisu i odtwarzania dźwięku wielokanałowego, opracowanego z myślą o dużych salach kinowych. System oficjalnie zaprezentowano w czerwcu 2012 roku, podczas premierowego pokazu nowej produkcji wytwórni Disney Pixar – „Brave”. Co wyróżnia Atmosa? Najoględniej mówiąc: znacznie większa liczba kanałów, a w związku z tym – głośników i wzmacniaczy.<br /><br /><img style="border: 1px solid #000000;" src="https://m.avtest.pl/images/technika/dolbyatmos/sala-kinowa.jpg" alt="sala-kinowa" /><br /><br />W dotychczas funkcjonujących systemach nagłośnienia Dolby liczba kanałów jest z góry predefiniowana: 6 lub 8. Ponieważ w klasycznym kinie z instalacją dźwiękową Dolby Surround taka liczba głośników byłaby niewystarczająca, to na ścianach bocznych instaluje się nie jedną, lecz kilka par głośników efektowych – zależnie od wielkości sali. Głośniki te odtwarzają jednak tę samą informację przestrzenną, z podziałem na stronę lewą (jeden kanał) i prawą (drugi kanał). Dodatkowo, w nagłośnieniu 7.1, dochodzą zestawy efektowe tylne – również podzielone na lewe i prawe.&nbsp; To oczywisty kompromis, ponieważ w ten sposób trudno jest zapewnić idealne przechodzenie dźwięków ze strony lewej na prawą, tak by widz czuł autentyczną płynność ruchu poruszających się obiektów, szczególnie gdy siedzi daleko poza punktem referencyjnym, czyli sweet spotem. Innym ograniczeniem jest brak głośników efektowych na suficie, w związku z czym jest bardzo trudno realistycznie oddać efekt przelotu helikoptera nad głową widza czy np. odgłos jaskini (przykładowa scena w „Hobbicie”). Także w obrębie samego ekranu mogą wystąpić problemy z brakiem ciągłości sceny dźwiękowej, bowiem w klasycznej instalacji Dolby za ekranem znajdują się trzy zestawy głośnikowe: centralny, lewy i prawy (jak w kinie domowym). O ile w przypadku niedużych sal kinowych ze względnie niedużym ekranem to wystarcza, o tyle w przypadku wielkich, kilkunastometrowych ekranów i zasiadania widzów w pierwszych rzędach, może występować efekt przeskakiwania dialogów ze środka na skraj ekranu. &nbsp;</p> <p><a class="jcepopup" href="https://m.avtest.pl/images/technika/dolbyatmos/jbl3732left.jpg" target="_blank"><img style="margin-left: 15px; margin-bottom: 10px; float: right;" src="https://m.avtest.pl/images/technika/dolbyatmos/jbl3732left.jpg" alt="jbl3732left" width="350" height="580" /></a>Aby się wyzbyć powyższych ograniczeń, tym samym dopasowując się niejako z jakością fonii do wymagań obrazu stereoskopowego (3D), inżynierowie Dolby opracowali Atmosa. Unikatowość tego rozwiązania polega na tym, że jest to system skalowalny, w którym liczba kanałów nie jest z góry ściśle określona (maksymalnie jest ich 128), a cały koncept zapisu dźwięku radykalnie różni się od dotychczas obowiązujących systemów dyskretnych.</p> <p>Głośników jest nie tylko więcej, ale pokrywają one znacznie większy obszar ścian bocznych oraz – co jest nowością – także sufit. Pierwsza różnica zaczyna się jednak już za samym ekranem, gdzie znajdują się nie trzy, a pięć zestawów głośnikowych. Do kompletu centralnego i dwóch zestawów głównych umiejscowionych przy skrajach ekranu, dodano głośniki wewnętrzny lewy (Lc) i wewnętrzny prawy (Rc). Prócz nich instaluje się dwa subwoofery – asymetrycznie względem ścian bocznych (bliżej jednej niż drugiej), by nie wzbudzać osiowych fal stojących. Pierwsze głośniki efektowe są montowane niemal na początku ścian bocznych (niedaleko narożników), nie zaś dopiero na 1/3 długości ściany bocznej, jak w klasycznych instalcjach Dolby Surround 5.1 czy 7.1. Wszystko oczywiście po to, by zapewnić lepszą płynność przejść dźwięków z ekranu na boki. <br /><br />Liczba par głośników efektowych jest uzależniona od wielkości sali. Specyfikacja zaleca, aby odstęp pomiędzy kolejnymi głośnikami wynosił 2–3 metry. Na ścianie tylnej stawia się trzeci rząd głośników efektowych oraz dwa subwoofery (kolejna nowość). I tak dochodzimy do sufitu. Liczba i rozstaw głośników odpowiadają zestawom bocznym. Może być ich 18, 20, a nawet 22.</p> <p>Maksymalna liczba zestawów głośnikowych jest ograniczona do 64, przy czym liczba kanałów jest dwukrotnie większa – wynosi 128! Ta pozorna rozbieżność jest konsekwencją przyjętego modelu zapisu i miksowania dźwięku, w którym kanał audio nie jest tożsamy z sygnałem głośnikowym na wyjściu procesorów.</p> <hr class="system-pagebreak" title="Kompatybilność" alt="Kompatybilność" /> <h2>Kompatybilność</h2> <p>Skoro kanałów i głośników jest tak wiele, a sale z nagłośnieniem Dolby Atmos mają różną liczbę głośników, to automatycznie pojawia się pytanie: czy każde z kin otrzymuje inną wersję (miks) ścieżki dźwiękowej. Byłaby to olbrzymia komplikacja, której inżynierowie Dolby z pewnością chcieli uniknąć. W rzeczy samej, za całe dopasowanie soundtracku do danej sali kinowej odpowiada procesor dźwiękowy Dolby Atmos Cinema Processor CP850. Cały materiał jest dostarczany w jednej paczce DCP (Digital Cinema Package), mającej postać twardego dysku. Co istotne, DCP zawiera zarówno zapis w systemie Dolby Atmos, jak i w Dolby Surround 7.1 i 5.1. Nie ma więc znaczenia, jaką instalację dźwiękową ma dane kino.<br /> <br />Każda ze ścieżek dźwiękowych w systemie Dolby Atmos jest skomprymowana bezstratnie, zaś do kompresji obrazu (każdej z klatek oddzielnie) używa się kodeka JPEG2000.</p> <p>Procesor CP850 jest wyposażony w 16-kanałowe wyjście audio. W przypadku rozbudowanych instalacji jest konieczne zestawienie go z dodatkowymi urządzeniami, które zwiększają liczbę kanałów wyjściowych.</p> <hr class="system-pagebreak" title="Korzyści" alt="Korzyści" /> <h2>Korzyści</h2> <p>Bardziej realistyczne oddawanie efektów przestrzennych to tylko jedna z korzyści, jaką zapewnia Dolby Atmos. Wszystkie kanały i głośniki są pełnopasmowe (w przypadku głośników efektowych w zwykłych kinach tak nie jest), zatem nie ma mowy o kompromisie w kwestii oddawania efektów niskotonowych dochodzących z boku czy powyżej głowy widzów. Cały koncept systemu stworzono w taki sposób, by wydatnie poprawić zakres dynamiczny, przesuwając w górę próg kompresji. Tym bardziej, że dodatkowe subwoofery z tyłu odciążają dodatkowo głośniki efektowe.</p> <p>Kolumny efektowe, mimo znacznie większych gabarytów, szerszego pasma i większej dynamiki niż w tradycyjnych kinach 5.1/7.1, z oczywistych względów nie są w stanie dorównać mocą zestawom frontowym. Dlatego też, w skrajnych wypadkach, procesor Atmos używa kilku głośników bocznych lub ich całego ciągu (podając do nich ten sam sygnał) do reprodukcji najgłośniejszych eksplozji, nie dopuszczając tym samym do kompresji. <br /><br />Kolejną zaletą, wynikającą ze zróżnicowania informacji audio podawanej do każdego z głośników bocznych, jest wyeliminowanie problemu pasożytniczych interferencji fal dźwiękowych przez nie promieniowanych. W starszych systemach Dolby tak właśnie się dzieje, ponieważ wiele głośników, umieszczonych w rzędzie odtwarza identyczny sygnał audio. Wprawdzie odległości pomiędzy głośnikami są na tyle duże, że nierównomierności charakterystyki powodowane efektem filtru grzebieniowego nie występują w krytycznym obszarze średnich tonów, niemniej niekorzystne deformacje barwy dźwięku muszą jednak się ujawniać.</p> <h4>Łóżka i obiekty</h4> <p>Tworząc Atmosa, Dolby Labs wyszedł z innego założenia niż przy opracowywaniu wcześniejszych systemów wielokanałowych, gdzie kanał audio był równoznaczny w przypisaniem go konkretnemu głośnikowi, którego ustawienie jest z góry zdefiniowane. W przypadku Atmosa realizator dźwięku i reżyser mają znacznie więcej swobody w określaniu, skąd dany dźwięk ma dobiegać – tj. dokładnie z jakiego kąta względem osi ekranu. Mogą to zrobić, ponieważ głośników jest wystarczająco dużo.</p> <p><a class="jcepopup" href="https://m.avtest.pl/images/technika/dolbyatmos/dolby-atmos-processor-wzmacniacze.jpg" target="_blank"><img style="border: 1px solid #000000; margin-right: 15px; margin-bottom: 10px; float: left;" src="https://m.avtest.pl/images/technika/dolbyatmos/dolby-atmos-processor-wzmacniacze.jpg" alt="dolby-atmos-processor-wzmacniacze" width="400" height="602" /></a>Konstrukcja systemu jest niejako dwupoziomowa. W nomenklaturze Dolby mówi się o tzw. łóżkach (beds) i obiektach (objects). Pierwsze są odpowiednikiem typowych kanałów w zapisie surround, niosących informację o muzyce filmowej, aurze nagrania, scenie dźwiękowej, odgłosach z tła itd. Słowem, reprezentują one informację rozproszoną, którą jest sens umieszczać w wielu kanałach jednocześnie, bo zapewnia to dobry efekt. Gdy jednak reżyser chce, aby odgłos widelca, trzask drzwi lub szczekanie psa dochodziły z konkretnego punktu w przestrzeni, realizator może to zrobić, tworząc ów tak zwany obiekt i określić jego dokładne położenie w przestrzeni. Nie znaczy to jednak, że ten dźwięk ma być odtwarzany przez konkretny głośnik, ponieważ w rzeczywistości mogłoby się okazać, że konkretny głośnik stoi w innym miejscu niż w studio postprodukcyjnym. Cały szkopuł tkwi więc w tym, by obiekty prawidłowo i powtarzalnie nanieść na kanały (łóżka), uwzględniając konkretny setup głośnikowy. To zadanie należy do procesora Atmos.</p> <p>Trzeba przyznać, że wszystko to brzmi tajemniczo i dość rewolucyjnie, a zarazem bardzo obiecująco. Można bowiem już teraz wyobrazić sobie, że „zmutowana” wersja Atmosa trafi pod strzechy. System ten jest z natury znacznie bardziej elastyczny niż Dolby TrueHD i pozwalałby tworzyć kina domowe o praktycznie dowolnej liczbie kanałów – zależnie od możliwości lokalowych i finansowych właściciela. Na razie są to jednak wyłącznie spekulacje.</p> <h4>Multikino: głośniki i wzmacniacze</h4> <p>Aby zobrazować możliwości systemu, prześledźmy pokrótce, jakich wzmacniaczy i zestawów głośnikowych użyto w sali Xtreme. Kolumny głośnikowe pochodzą z katalogu JBL, zaś jako wzmacniaczy mocy użyto jednostek Crown z serii DCI.</p> <p>Za ekranem pracują potężne, niemal 2-metrowe, 78-kilogramowe zestawy ScreenArray 3732. Wyposażone w dwa 18-calowe woofery 2241H, dwa średniotonowe 165-mm średniotonowce umieszczone w tubie oraz 75-mm tweeter tubowy zapewniają 125 dB poziomu SPL (z odległości 1 m) – w szczycie jest to nawet 131 dB. Efektywność zestawów wynosi 103 dB, pasmo 40 Hz – 19 kHz (+/- 3 dB), zaś moce poszczególnych sekcji to 500, 150 i 75 W.</p> <p>Również za ekranem ustawiono dwa 98-kilogramowe subwoofery 4642A wyposażone w dwa 18-calowe głośniki (każdy). Moc ciągła mierzona szumem różowym wynosi 1200 W, zaś muzyczna – 2400 W. Pasmo przenoszenia sięga 22 Hz przy spadku 10 dB, bez zastosowania korekcji EQ (z korekcją – dolna granica pasma obniża się do 20 Hz).</p> <p>Za głośniki efektowe posłużyły dwudrożne, 350-watowe modele 8350. Wspomagają je dwa subwoofery 4645C z pojedynczym, 18-calowym głośnikiem basowym 2242H. Wszystkie głośniki mają certyfikację THX Lucasflim.</p> <hr class="system-pagebreak" title="Filmy" alt="Filmy" /> <h2>Filmy</h2> <p>W 2013 roku odbyło się około 50 filmowych premier z dźwiękiem w systemie Dolby Atmos. Przeważają oczywiście drogie amerykańskie produkcje S-F, filmy akcji i animacje. Jedną z najgłośniejszych z nich jest druga część Hobbita „Desolation of Smaug”, w polskich kinach wyświetlana od 25 grudnia. Polska premiera tego obrazu z dźwiękiem Dolby Atmos odbyła się dwa dni później – właśnie w katowickim Multikinie.</p> <p>Na 2014 rok zapowiedziano już kilkanaście premier z wykorzystaniem systemu Atmos. Będzie więc co oglądać, choć repertuar z pewnością nie każdemu kinomaniakowi przypadnie do gustu.</p> <hr class="system-pagebreak" title="Efekty" alt="Efekty" /> <h2>Efekty</h2> <p>Mieliśmy okazję uczestniczyć w pokazie krótkich klipów i trailerów demonstrujących potencjał nowego systemu. To wprawdzie zbyt mało, by rzetelnie i obiektywnie ocenić Atmosa, jednak dwa wnioski są oczywiste. Po pierwsze, lokalizacja źródeł dźwięków, a związku z tym realizm całego dźwiękowego tła, są nieporównywalnie lepsze niż w tradycyjnym kinie. Przewyższa również możliwości zestawów kina domowego wysokiej klasy. Wprawdzie odniosłem wrażenie (i nie tylko ja), że efekty przestrzenne koncentrują się w płaszczyźnie powyżej głowy słuchacza (zasługa głośników sufitowych i bocznych umieszczonych powyżej widowni), niemniej ogłosy burzy przetaczającej się nad głową budziły jednak respekt. Realizm efektów przestrzennych jest naprawdę wysokiej próby i pod tym względem Atmos wyznacza nowe standardy.</p> <p><img style="border: 1px solid #000000;" src="https://m.avtest.pl/images/technika/dolbyatmos/sala-kinowa3.jpg" alt="sala-kinowa3" /><br /><br />Kto wie, czy nie ważniejsze jest jednak poczucie olbrzymiej dynamiki głośników JBL i wzmacniaczy Crown, odczuwalne w obrębie całej panoramy dźwiękowej. Niskie tony mają iście potężną energię i generalnie znacznie wyższą jakość niż to, co znamy z innych sal kinowych. Pełen rozmach.</p> <p>Jakkolwiek same efekty przetrzenne, dynamika i bas są imponujące, to rozdzielczość i barwy dźwięku,&nbsp; rozumiane w kategoriach audiofilskich – już niekoniecznie. Wydaje się, że pod tym względem high-endowe zestawy domowe wciąż oferują znacznie więcej. Cóż, systemy kinowe mają przede wszystkim zapewniać elektryzujące efekty, a realizm barwowy czy wybitna szczegółowość najwyraźniej nie są priorytetami. Jednak niezależnie od tego, życzylibyśmy sobie, by sal kinowych z nagłośnieniem Dolby Atmos było w Polsce przynajmniej po jednej w każdym większym mieście. Jak na razie, niechlubnie odstajemy od Europy, w której jest ich już 86 (na świecie – 310), z czego dwie w Bułgarii ...</p> <p>Na koniec ważna informacja praktyczna. Jak zapowiedziało szefostwo katowickiego Multikina, bilety w sali Xtreme będą zaledwie o 3 złote droższe od normalnych. Znakomity obraz i dźwięk, które z pewnością przewyższają jakością te oferowane przez inne kina, także w przypadku tradycyjnych ścieżek dźwiękowych Dolby 5.1 czy 7.1, na pewno są tego warte. Przynajmniej wiadomo, za co płacimy. A to, niestety, nie jest standardem w polskich kinach, gdzie na poprawne ustawienie fonii i obrazu operatorom w multipleksach często zwyczajnie brakuje czasu...</p> <hr class="system-pagebreak" title="Galeria" alt="Galeria" /> <h2>Galeria</h2> <p>{gallery}technika/dolbyatmos{/gallery}</p></div>