Обсуждение вопросов, связанных с поддержкой формата HDR на телевизорах LG с webOS
Полезные ссылки:
- Отличия между HDR Pro и HDR Super в телевизорах LG
- Стандарты HDR видео
- HDR видео: что нужно знать
- Что такое HDR-телевизор и почему он показывает ярче и чернее
- Что такое Dolby Vision: ответы на важные вопросы
- https://webos-forums.ru/topic4689.html
- HDR10 и его отличие от Dolby Vision
- Вывод HDR видео на ТВ из Windows 10
- Отличия между HDR Pro и HDR Super в телевизорах LG
- Просмотр спутникового телевидения в формате HDR
- 4K фильмы в лучшем качестве
- Как узнать включен ли HDR на телевизоре LG
- Тестовые примеры HDR видео в различных стандартах
- Видеоролики в формате 4K HDR
В последнее время на форумах и сайтах, посвященных телевизионным технологиям, появляется все больше публикаций о технологии HDR. Как пишет сама компания LG, "стандарт HDR позволяет наиболее полно раскрыть потенциал технологии OLED. Благодаря OLED HDR качество изображения выходит на ранее недостижимый для обычных LED телевизоров уровень. Палитра с миллиардами оттенков обеспечивает беспрецедентную плавность перехода между цветами. А расширенный диапазон яркости позволит рассмотреть во всех деталях как очень яркие, так и почти черные объекты в одной сцене одновременно".
Хотя технология достаточно интересная, многие еще не понимают до конца что это такое, потому что не хочется терять много времени на чтение. Давайте попробуем разобраться с ней и на нашем форуме. Поможет нам в этом публикация Юрия Глушкова.
Прежде всего, нужно разобраться с определениями. HDR – это High Dynamic Range, то есть широкий, а точнее расширенный динамический диапазон. Применительно к изображению это выражается в большем диапазоне яркостей между самыми темными и самым яркими полутонами. Изображение с реальным широким динамическим диапазоном выглядит контрастнее и «ярче» обычного, в нем больше деталей, а краски выглядят более насыщенными. Проблема в том, что такое изображение довольно сложно показать на большинстве средств отображения, будь то фотобумага, дисплей с электронными чернилами, компьютерный монитор, телевизор или проекционный экран, потому что их реальный динамический диапазон не столь велик, как хотелось бы. Чтобы создать фотографию с широким динамическим диапазоном обычно два или три снимка объединяют в фоторедакторе вроде Lightroom или Photoshop так, чтобы показать детали, неизбежно пропадающие в тенях и на свету в одном фото (в смартфонах весь процесс происходит автоматически). При грубом использовании настроек результат получается очень неестественным, поэтому мало кому нравится.
В видео два кадра никто не объединяет – это невозможно, да и не нужно никому. Под расширенным динамическим диапазоном там понимается совсем другое, а именно увеличение визуальной контрастности изображения с улучшение детальности, проработки в тенях, большим количеством полутонов на цветовых переходах и т.д. Другими словами HDR обеспечивает визуальное улучшение изображения практически по всем параметрам, в чем воочию могли убедиться все посетители трех последних крупнейших выставок в Берлине, Лас Вегасе и Амстердаме. Как это достигается? Это и есть самое интересное в данном вопросе.
В рекламных материалах производители намеренно дают по этому поводу очень мало информации, говоря лишь о том, что используется видеосигнал с 10-битным кодированием, который будет доступен на дисках в стандарте UHD Blu-ray и в трансляциях 4К-контента через видеосервисы вроде Netflix, Amazon и проч. Кроме того, особо подчеркивается, что такой видеосигнал передается между устройствами только через разъемы HDMI 2.0 c протоколом обмена информации HDCP версии 2.2. Эту весьма скудную информацию радостно перепечатали многие западные и некоторые наши издания, назвав технологию HDR «революционной», ведь в «обычном» видео сигнал как известно пишется в 8-битной форме. Это, мол, и обеспечивает беспрецедентное качество изображения. Более того, HDR якобы позволит увеличить яркость телевизоров в 2-2,5 раза – динамический диапазон ведь шире!
Их можно понять. Многие на собственном опыте убедились, что увеличение "битности" сигнала в аудио дает вполне объективный прирост качества звучания, ощутимый даже при использовании карманных плееров в сочетании с качественными внутриканальными наушниками, не говоря уже о дорогих стационарных системах. Однако в видео такой фокус невозможен, по крайней мере в обозримом будущем. Видеосигнал для записи на диски и тем более для трансляций любыми средствами ужимается почище МР3 с реальным уменьшением разрешения по двум из трех каналов цветности в 4 раза. Вам знакомо такое обозначение «4:2:0», которое фигурирует в описании свойств видеосигналов всех бытовых носителей и файлов HDTV и IPTV? Оно как раз и означает, что цвета в видео записываются с такими потерями. Кодирование в 4:2:2 и 4:4:4 применяется только на стадии мастеринга и в быту не используется вообще.
Более того, для эффективного сжатия 4К-видео без артефактов пришлось даже внедрять новый кодек Н.265, потому что применяющийся в «обычных» Blu-ray алгоритм H.264 дает шумы, сравнимые с размером пикселя. Если же видео реально кодировать в разрядностью 10 бит в каждом из трех цветовых каналов (RGB или Y-Cr-Cb), то битрейт неизбежно вырастет в 4 раза, что для сохранения на дисках и тем более для трансляций любого рода неприемлемо.
Впрочем, для улучшения качества изображения этого и не нужно. Причин несколько. Во-первых, мы, то есть наше зрение, не в состоянии различить в четыре раза больше градаций яркости в одном условном кадре одновременно. Мы не различаем одновременно даже 256 градаций, которые обеспечивает 8-битное кодирование видео – для этого нам нужно либо повышать, либо понижать общую яркость всего поля. Все богатство полутонов в природе мы различаем благодаря подвижной радужке – динамической диафрагме в наших глазах, а так же адаптивной «настройке» палочек (фоторецепторов) в сетчатке. Во-вторых, в мире не существует ни одного дисплея или другого устройства, которое бы обеспечивала передачу 1024 градации яркости одновременно, даже прототипов нет. Да и не нужны такие дисплеи по означенной выше причине.
Как же тогда обеспечить передачу видео с расширенным диапазоном имеющимися средствами? Да также, как это делалось раньше! Нужно изменять общую яркость всего кадра. Только раньше все устройства это делали не слишком корректно. Чтобы визуально повысить контрастность, а с ней и проработку полутонов в тенях и на светлых участках, телевизоры меняли яркость подсветки (свечения ячеек в плазмах), а проекторы – диафрагму, принимая в расчет среднюю яркость видеосигнала в кадре, в результате чего всегда получался некое компромиссное изображение, мало похожее на реальность. Технология HDR и призвана устранить этот компромисс.
Протокол HDCP версии 2.2 позволяет передавать дополнительные метаданные для изображения, в которых и будет закодирована информация о динамически меняющейся экспозиции (яркости) кадра и гамме (считай контрастности). А телевизор или проектор в свою очередь, пользуясь этими данными, могут мгновенно и, что главное, оптимально подстраивать изображение, как это происходит в Photoshop. В итоге и получается идеальная картинка практически на любом дисплее или экране. Визуально она кажется более контрастной и яркой, хотя в реальности ни предельная контрастность, ни яркость дисплеев не повышается, тем более в 2,5 раза до мифических 1000 нит, как пишут некоторые издания. Это просто невозможно. ЖК-дисплеи и мониторы фактически достигли своего пика развития – повышается только разрешение, а контрастность и яркость остаются на уровне 10-летней давности. Распределенную подсветку из светодиодов, которая кардинально повышает контрастность, применяют очень редко из-за ее высокой цены и желания предельно уменьшить толщину корпуса телевизоров. А значительно повышать яркость просто за счет мощных светодиодов просто нельзя из-за проблем с охлаждением. Существенно увеличить яркость OLED-дисплеев тоже нельзя – они будут быстрее деградировать, что неприемлемо. Да и не нужно это вовсе. Потому что для получения качественного изображения важны не предельные характеристики, а тонкая настройка. И эффектное появление HDR в видео это наглядно показывает.