Авторизуйтесь, чтобы ответить.
В чем разница
13.11.2012 22:03
Знатоки, подскажите ответ, плз.
Насколько я понимаю, интерфейс HDMI цифровой. Т.е. загрузив один и тот же BD диск в аппараты [url=https://www.pult.ru/product/68301.htm]https://www.pult.ru/product/68301.htm[/url] (Blu-ray плеер Philips BDP2600/51 - 2430 руб) и например [url=https://www.pult.ru/product/53065.htm]https://www.pult.ru/product/53065.htm[/url] (Blu-ray плеер Marantz UD5005 black - 37000 руб) на выходе HDMI кабеля получаем идентичную последовательность битов (0 и 1)? Допускает ли стандарт HDMI определенный % искаженных цифровых данных или нет (может это как-то оправдает разницу в стоимости)? Например, в цифровом стандарте Ethernet можно быть увереным, что файл переданный по сети идентичен на стороне приемника и передатчика... Другими словами, при цифровом способе передачи информации принципиальных различии между разными моделями проигрывателей нет (при условии, что они поддерживают одну спецификацию HDMI - 1.3, 1.4, 1.4a). Верно? Функции 3D, BD-Live оставим за скобками как редко используемые и имеющие небольшую потребительскую ценность (для меня точно). Качество звука звука в первую очередь зависит от ЦАП в AV ресивере, кабелей, акустики (достойное вложение денег). Т.е. там, где начинается аналоговый тракт. Качество картинки - от ЦАП панели и применяемой технологии отображения цветов (до панели видео сигнал доходит по HDMI опять же в цифровом виде). Верно? |
|
19.11.2012 17:22
Нет, не верно. В HDMI-стандарте нет коррекции ошибок в отличие от Ethernet-сетей, с которысм вы проводите сравнение, да и jitter ещё никто не отменял. Вы не учли разницу в пакетной (Ethernet) и потоковой (HDMI) передаче данных.
|
- 1