Wann kommen HDR-Monitore und -Grafikkarten raus?



  • Wann kommen HDR-Monitore und -Grafikkarten raus? Und wenn man ein altes Spiel spielt, profitiert man dann automatisch schon von HDR?



  • Gefunden habe ich http://www.gamestar.de/hardware/praxis/tft-monitore/3271227/der_technik_trend_2016_p2.html

    Also: Aktuelle Grafikkarten unterstützen es anscheinend schon, und mit Monitoren ist in 6-9 Monaten zu rechnen.

    Bleibt meine Frage: Und wenn man ein altes Spiel spielt, profitiert man dann automatisch schon von HDR?



  • fsdfddf schrieb:

    Bleibt meine Frage: Und wenn man ein altes Spiel spielt, profitiert man dann automatisch schon von HDR?

    Nein, natürlich nicht.



  • hustbaer schrieb:

    fsdfddf schrieb:

    Bleibt meine Frage: Und wenn man ein altes Spiel spielt, profitiert man dann automatisch schon von HDR?

    Nein, natürlich nicht.

    Ich meine schon. HDR-Monitore sind soweit ich weiß im Schnitt heller, womit zu dunkleren Stellen ein stärkerer Kontrast entsteht.



  • Wieso sollte der Kontrast höher werden wenn man die Hintergrundbeleuchtung heller dreht? Dabei wird alles heller, also auch das "Schwarz", d.h. der Kontrast bleibt der selbe.

    Mal ganz davon abgesehen dass HDR Displays mit non-HDR Input nichts heller machen. Wäre ja auch nicht erwünscht, würde bloss unangenehm und schädlich für die Augen sein wenn alles doppelt oder dreifach so hell wäre wie es sein sollte.

    OLED sind dann nochmal ein eigenes Thema, da die keine Hintergrundbeleuchtung haben. Aber auch hier wird einem ein HDR OLED verglichen mit einem non-HDR OLED nix bringen so lange man keine HDR Quelle hat.



  • hustbaer schrieb:

    Wieso sollte der Kontrast höher werden wenn man die Hintergrundbeleuchtung heller dreht? Dabei wird alles heller, also auch das "Schwarz", d.h. der Kontrast bleibt der selbe.
    Ausgenommen OLED natürlich.

    Du kannst keine 1024 Abstufungen erreichen, wenn durch erhöhte Helligkeit alles heller wird. HDR hat eine erhöhte Helligkeit, um diese 1024 Abstufungen zu erreichen. Ich könnte mir daher vorstellen, dass wenn der Helligkeitsabstand zwischen schwarz und weiß bei HDR-Monitoren größer ist als bei Nicht-HDR-Monitoren, dass man hier auch von einem erhöhten Kontrast bei Nicht-HDR-Bildern profitiert. Andererseits kann ich mir auch vorstellen, dass man dies softwaretechnisch unterbindet, wenn Bilder nicht auf HDR ausgelegt sind, da die Bilder evtl. verfälscht aussehen.
    Ist natürlich alles Spekulation.



  • ShadowClone schrieb:

    Du kannst keine 1024 Abstufungen erreichen, wenn durch erhöhte Helligkeit alles heller wird.

    Doch, natürlich. Ich kann in jeder Range beliebig viele Abstufungen erreichen. Selbst wenn ich ein Display mit einem Kontrast von nur 1:100 habe kann ich den in 1 Mio. Abstufungen unterteilen wenn ich möchte.

    ShadowClone schrieb:

    HDR hat eine erhöhte Helligkeit, um diese 1024 Abstufungen zu erreichen.

    Nein, genau umgekehrt.
    HDR hat 1024 Abstufungen um eine höhere Helligkeit kodieren zu können, ohne dabei Genauigkeit im "klassischen" Helligkeitsbereich zu verlieren.

    ShadowClone schrieb:

    Ich könnte mir daher vorstellen, dass wenn der Helligkeitsabstand zwischen schwarz und weiß bei HDR-Monitoren größer ist als bei Nicht-HDR-Monitoren, dass man hier auch von einem erhöhten Kontrast bei Nicht-HDR-Bildern profitiert. Andererseits kann ich mir auch vorstellen, dass man dies softwaretechnisch unterbindet, wenn Bilder nicht auf HDR ausgelegt sind, da die Bilder evtl. verfälscht aussehen.
    Ist natürlich alles Spekulation.

    Siehst du und im Gegensatz zu dir spekuliere ich nicht sondern weiss wie das ganze funktioniert.

    Ein IPS Panel* hat z.B. inetwa nen statischen Kontrast von 1:1000. Statisch heisst: im selben Bild. Den dynamischen Kontrast kann man natürlich erhöhen, indem man die Helligkeit der Hintergrundbeleuchtung an die hellsten Bereiche des Bildes anpasst das gerade dargestellt wird.

    Wenn also dein hellster Punkt z.B. 200 Nits hat, dann hat dein dunkelster Punkt mindestens 0.2 Nits, dunkler kann das Panel nicht. Das ist so bei non-HDR Displays und es bleibt so bei HDR-Displays.

    Das HDR Display kann allerdings seine Hintergrundbeleuchtung deutlich weiter als 200 Nits aufdrehen. Und wenn das HDR Display die Hintergrundbeleuchtung so weit aufdreht dass der hellste Punkt 800 Nits hat, dann hat der dunkelst mögliche Punkt den es noch darstellen kann 0.8 Nits.

    Achja, nochmal zu

    ShadowClone schrieb:

    Andererseits kann ich mir auch vorstellen, dass man dies softwaretechnisch unterbindet, wenn Bilder nicht auf HDR ausgelegt sind, da die Bilder evtl. verfälscht aussehen.

    Nein, das würde man nie tun. Bzw. maximal als optionale Einstellung - wobei es durch die Standardeinstellungen die jeder Fernseher/Monitor anbietet sowieso schon möglich ist den Kontrast künstlich zu begrenzen indem man das "Schwarz aufhellt".
    Grundsätzlich versucht jeder Hersteller den maximalen Kontrast rauszuholen. Wenn es technisch möglich wäre, dann würden alle Hersteller LCDs mit einem Kontrast von 1:10000 oder mehr ausliefern. Weil es einfach viel besser aussieht, speziell im Dunkeln.

    Und bei OLED Displays hast du auch genau das. Bzw. noch mehr, der Kontrast von OLED Displays ist extrem hoch. Theoretisch "unendlich" - praktisch natürlich nicht, da durch Spiegelungen/Streuungen die "schwarzen" Pixel nie wirklich komplett 100% schwarz sind. Aber auch praktisch ist der Kontrast immer noch extrem hoch. So hoch, dass du in einem dunklen Raum nicht sehen kannst wo das Display anfängt oder aufhört, wenn es z.B. nur einen kleinen weissen Punkt in der Mitte darstellt. Statt dessen siehst du einfach nur Schwarz mit einem Lichtpunkt der "in der Luft hängt".

    *: Andere Panels haben nen höheren Kontrast, also z.B. MVA oder PVA. Ist aber wurst, dann sollen es halt 1:3000 oder gar 1:5000 sein. Wichtig ist: non-HDR MVA Panels haben den selben Kontrast wie HDR MVA Panels. D.h. ob HDR oder nicht ändert nichts am Kontrast - der ist und war grundsätzlich immer der beste den der Hersteller mit der jeweiligen Technoligie hinbekommt.



  • sdfffsd schrieb:

    Und wenn man ein altes Spiel spielt, profitiert man dann automatisch schon von HDR?

    Das Spiel selbst arbeitet mit RGB Daten, das sind also 8 Bit pro Farbe.

    Es kann allerdings sein, dass die Grafikkarte und die Treiber der Grafikkarte intern mit mehr Bits arbeitet um so weniger Verluste beim Dithering und Farbverläufen zu haben. Am Ende müsste der Treiber bzw. die Grafikkarte dieses aufgemotzte Bildsignal dann nur entsprechend an einen HDR Monitor liefern und ja, dann könnte es sein, dass man mit einem HDR Monitor auch bei alten Spielen profitiert.



  • @Käsfuss
    Grundsätzlich: ja, das wäre denkbar. Allerdings würde man dadurch bloss zu mehr Abstufungen innerhalb der "klassischen" Dynamic Range kommen. Also dem Bereicht der typischerweise bis ca. 150 Nits geht wenn man sein Display vernünftig eingestellt hat. Was jetzt nicht so eindrucksvoll ist. Den erweiterten Dynamic Range Bereich, durch den der eigentliche Mehrwert entsteht, könnte man damit allerdings nicht nutzen.


Anmelden zum Antworten