Gehe zu Seite: |vorherige| Erste . 10 . 20 . 30 . 36 37 38 39 40 41 Letzte |nächste|

Plasma und LCD im konkreten Vergleich - Was ist besser?

+A -A
Autor
Beitrag
darkphan
Inventar
#1972 erstellt: 16. Apr 2014, 17:24
Wieso Panasonic? Habe das u. a. auf einem Sony gesehen.
hagge
Inventar
#1973 erstellt: 16. Apr 2014, 17:28

El_Greco (Beitrag #1968) schrieb:
Also quasi drei benachbarte Pixel werden zu einen und zeigen das, was ein entsprechender Pixel von 720p Quelle zeigt.Anders ausgedrückt, mit 1080p auf UHD(und nicht 4K wie das falsch genannt wird), bekommen wir quasi gleiche Anzahl an Pixel wie bei besagten 1080p, nur die Pixel werden 2x größer, bei 720p auf UHD werden die Pixel dreifach größer da bestehend aus drei Pixel und hinzu die Zwischenräume, je nach Pixeldichte.

Wenn man nur einen ganz trivialen Skalierungsalgorithmus verwendet, ist es tatsächlich so. Genauer gesagt es ist so, dass ein Pixel des ursprünglichen 1080p- bzw. 720p-Bildes auf zwei bzw. drei Pixel des UHD-Bildes verteilt wird. Das heißt aber *nicht*, dass diese neuen Bildpunkte dabei absolut gesehen größer werden. Denn die Pixel eines UHD-Fernsehers sind ja deutlich kleiner als bei einem 1080p- oder 720p-Panel. Das heißt das Bilderlebnis bei diesem trivialen Skalierungsvorgang wäre exakt das Gleiche wie bei den originalen Paneln. Bei gleicher Bilddiagonale des Fernsehers sind auch die neuen Punkte genauso groß wie vorher.

ABER: es sagt ja niemand, dass das so trivial passieren muss. Man kann ja durchaus mit den mehr Pixeln auch mehr Information darstellen, die dann eben über Rechenalgorithmen erhalten werden. Ein besserer Skalierungsvorgang, der die Bildfrequenzen skaliert und nicht einfach nur die Pixel, wird hier durchaus jede Menge Zwischenwerte in die Zwischenpixel setzen können. Schon damit ist ein Bild mit sauberen Verläufen ohne Klötzchenbildung (z.B. bei diagonalen Linien) möglich. Es ist also in der Praxis keinesfalls so, dass einfach nur die Pixel verdoppelt oder verdreifacht werden.

Dazu kommen dann noch Verfahren wie Superresolution, die tatsächlich durch sehr intelligente lokale, inhaltsabhängige Bearbeitung des Bildes den Eindruck von mehr Schärfe vermitteln. Oder noch bessere Algorithmen wie Sonys RealityCreation, die anhand einer Datenbank Frequenzmuster mit einer niedrigen Auflösung durch Frequenzmuster mit einer höheren Auflösung ersetzt, was gerade bei 2K auf 4K-Skalierung tatsächlich erstaunliche Details und Schärfe hervorbringt.


Anhand von meine Denkweise, wäre der Argument, die Pixeldichte zu vergrößern, bzw. die Pixel zu verkleinern so, dass man auch auf größere Diagonale ohne Verluste zugreift, hin.

Aber genau das passiert ja mit 4K. Das ist ja sozusagen die Grundidee von 4K. Es vervierfacht sich die Pixelanzahl, bei im Normalfall gleichbleibender oder nur leicht größerer Bilddiagonale. Also wird die Pixeldichte auch um etwa das Vierfache höher.

Gruß,

Hagge

PS: Ja, der Begriff 4K ist beim TV eigentlich falsch und es müsste UHD heißen. Aber es hat sich auch im TV-Bereich der Begriff 4K durchgesetzt. Man meint also UHD, auch wenn man es nicht ganz präzise so sagt.


[Beitrag von hagge am 16. Apr 2014, 17:37 bearbeitet]
Nui
Inventar
#1974 erstellt: 16. Apr 2014, 17:44

darkphan (Beitrag #1972) schrieb:
Wieso Panasonic? Habe das u. a. auf einem Sony gesehen.

War nur ein Beispiel. Ich selbst kenne die Scaler von anderen Firmen nicht, nicht mal die von Panasonic
Andy_Slater
Inventar
#1975 erstellt: 16. Apr 2014, 18:11
4k ist vom Begriff her klug gewählt, denn wenn demnächst 8k kommt, wäre der Begriff Ultra HD wieder hinfällig und wie würden wir dann die 8k Fernseher nennen wollen? Etwa Mega UHD? Und wie nennen wir dann später mal in 30 Jahren die 12k TVs?
Nudgiator
Inventar
#1976 erstellt: 16. Apr 2014, 18:43
@hagge
Ich besitze selbst einen Scaler, der im Preissegment bis 20.000 USD das Nonplusultra darstellt. Zaubern kann aber auch dieses Gerät nicht. 720p auf 1080p hochskalieren sieht noch ganz passabel aus, aber 720p auf 2160p tue ich mir auch mit dem Lumagen nicht an.

Was tatsächlich besser aussieht: 1080p nach 2160p per Lumagen Radiance und dann per eShift auf "Pseudo-4k" mit dem JVC-X500. Da kann ein "normaler" 2k-nach 4k-Scaler (wie in fast allen AVRs / BD-Playern enthalten) nicht Schritt halten. Wenn man dann noch MPC / SR und Co. nutzt, gepaart mit einem Darbee, schaut das 2k-Bild auch auf einem 4k-Beamer / TV gut aus. Aber 720p kannst Du vergessen.
hagge
Inventar
#1977 erstellt: 16. Apr 2014, 20:44

Nudgiator (Beitrag #1976) schrieb:
Ich besitze selbst einen Scaler, der im Preissegment bis 20.000 USD das Nonplusultra darstellt. Zaubern kann aber auch dieses Gerät nicht. 720p auf 1080p hochskalieren sieht noch ganz passabel aus, aber 720p auf 2160p tue ich mir auch mit dem Lumagen nicht an.

Halt. Was erwartest Du von dieser Skalierung? Man muss doch unterscheiden.

1. Wie sieht ein 720p-Bild auf einem 720p-Bildschirm aus? Man hat 1280x720 disjunkte Bildpunkte. Das heißt der Bildschirm ist in x-Richtung in 1280 Bildpunkte und in y-Richtung in 720 Bildpunkte unterteilt. Wie sieht ein 720p-Bild selbst mit dem billigsten Skalierungsalgorithmus, der nur Pixel vervielfacht, auf einem 4K-Fernseher aus? Es ist ein Bild, das in x-Richtung in 1280 verschiedene Bildpunkte und in y-Richtung in 720 verschiedene Bildpunkte unterteilt ist. Wenn dazu die Bilddiagonale gleich groß ist, ist das Ergebnis doch 1:1 genau das gleiche wie auf einem 720p-Panel, oder nicht? Wieso sollte so ein Bild denn anders, also schlechter als auf einem 720p-Panel aussehen? Man sieht doch genau das gleiche. Dass die Pixel nun vervielfacht sind, ist doch letztendlich egal. Man sieht immer noch die gleich großen Bildpunkte des Originalbildes, nur dass diese Punkte nun halt aus mehreren Pixeln und nicht mehr nur einem Pixel bestehen. Aus der gleichen relativen Entfernung betrachtet wie das 720p-Panel müsste auch so ziemlich der gleiche Bildeindruck entstehen.

2. Wenn Du natürlich erwartest, dass ein 720p-Bild auf einem 4K-Fernseher wie ein 4K-Bild aussieht, dann ist das natürlich eine unrealistische Erwartung. So wird es nie aussehen. Aber es kann durchaus *besser* als das 720p-Bild auf dem 720p-Panel aussehen, aus den von mir schon genannten Gründen mit den Skalierungsalgorithmen. Nur wenn ich grundsätzlich an einem 4K-Bildschirm schon deutlich näher dransitze als an einem 720p-Panel, dann darf ich mich nicht wundern, dass so ein hochskaliertes Bild natürlich sichtbar unschärfer als ein echtes 4K-Bild ist. Das ist aber auch nicht anders möglich. Niemand redet hier von 4K-Qualität. Sondern nur von etwas besserer Qualität als das ursprüngliche 720p-Bild.


Was tatsächlich besser aussieht: 1080p nach 2160p per Lumagen Radiance und dann per eShift auf "Pseudo-4k" mit dem JVC-X500. Da kann ein "normaler" 2k-nach 4k-Scaler (wie in fast allen AVRs / BD-Playern enthalten) nicht Schritt halten. Wenn man dann noch MPC / SR und Co. nutzt, gepaart mit einem Darbee, schaut das 2k-Bild auch auf einem 4k-Beamer / TV gut aus. Aber 720p kannst Du vergessen.

Ich weiß dass bis vor wenigen Jahren die externen, zum Teil sauteuren Scaler den in den TVs eingebauten Systemen tatsächlich weit überlegen waren. Heutzutage möchte ich dafür aber nicht mehr meine Hand ins Feuer legen. Gerade was z.B. Sony mit dem X-Reality-4K-Chip abliefert, ist allerehrenwert.

Und ja, auch hier kann man geteilter Meinung sein. Wann ist ein Bild "besser"? Wenn man sich auf den Standpunkt stellt, dass das Bild wirklich nur skaliert werden darf, und keinerlei Nachschärfung oder andere Bildverarbeitung damit stattfinden darf, dann darf man sich nicht wundern, wenn auch wirklich nur ein 4K-Bild herauskommt, das zwar eine höhere Pixelzahl, aber nur die gleiche Bildinformation wie das 720p-Bild enthält. Und das natürlich aus der Nähe dann deutlich unschärfer aussieht. Wenn man aber ganz unvoreingenommen an die Sache rangeht und sagt, egal, was mit dem Bild intern passiert, ich schaue mir das Endergebnis an und wenn es dann tatsächlich mehr Details zeigt, dann akzeptiere ich das auch als das bessere Bild, dann kann man genau solche Methoden wie Superresolution und Sonys RealityCreation einsetzen und hat einen Gewinn davon. Natürlich können auch diese Verfahren nicht zaubern, es wird auch damit kein 4K-Bild daraus, aber es kann in vielen Fällen tatsächlich besser als das ursprüngliche Bild aussehen.

Und sicherlich bringt das nicht jede Firma hin. Was ich zum Beispiel auf der IFA2013 als 2K-auf-4K-Hochskalierung bei Philips gesehen habe, das ließ mich erschaudern. Das war Nachschärfen durch Kantenanhebung bis der Arzt kommt, und mehr nicht. *So* sieht ein auf 4K aufgepumptes Bild mit ursprünglich niedrigerer Auflösung tatsächlich furchtbar aus. Bei Panasonic ging es hingegen halbwegs, kam aber meiner Meinung nach auch nicht ganz an Sony ran. Bei LG, Sharp und Toshiba habe ich leider bisher keine Vergleiche zwischen originalem 2K-Material und auf 4K hochgerechnetem 2K-Material gesehen, da kann ich mir also kein Urteil erlauben.

Gruß,

Hagge
Nudgiator
Inventar
#1978 erstellt: 16. Apr 2014, 21:35

hagge (Beitrag #1977) schrieb:
Wenn dazu die Bilddiagonale gleich groß ist, ist das Ergebnis doch 1:1 genau das gleiche wie auf einem 720p-Panel, oder nicht? Wieso sollte so ein Bild denn anders, also schlechter als auf einem 720p-Panel aussehen? Man sieht doch genau das gleiche. Dass die Pixel nun vervielfacht sind, ist doch letztendlich egal. Man sieht immer noch die gleich großen Bildpunkte des Originalbildes, nur dass diese Punkte nun halt aus mehreren Pixeln und nicht mehr nur einem Pixel bestehen. Aus der gleichen relativen Entfernung betrachtet wie das 720p-Panel müsste auch so ziemlich der gleiche Bildeindruck entstehen.


Bei gleicher Bilddiagonale UND der Annahme, daß vier 4k-Pixel so groß sind, wie ein 720p-Pixel, hast Du vollkommen recht. Ich kenne aber kein Gerät, wo das zutrifft.


Aber es kann durchaus *besser* als das 720p-Bild auf dem 720p-Panel aussehen, aus den von mir schon genannten Gründen mit den Skalierungsalgorithmen.


Es könnte bei der obigen Annahme bestenfalls (!) gleich gut aussehen (bei gleicher Technologie). Nochmal: ein Skalierungsalgorithmus kann nicht zaubern und muß zwangsläufig interpolieren. Selbst der beste Algorithmus wird aber niemals so gut arbeiten, wie eine native Panel-Zuspielung.


Ich weiß dass bis vor wenigen Jahren die externen, zum Teil sauteuren Scaler den in den TVs eingebauten Systemen tatsächlich weit überlegen waren. Heutzutage möchte ich dafür aber nicht mehr meine Hand ins Feuer legen. Gerade was z.B. Sony mit dem X-Reality-4K-Chip abliefert, ist allerehrenwert.


Ich kann hier für den VW500 und den VW1000 sprechen (beides 4k-Beamer). Diese müssen bei 2k-Zuspielung das 2k-Bild auf 4k hochskalieren. Das beherrscht ein Lumagen Radiance 2041 absolut perfekt, ohne Ringing-Artefakte. Die beiden Beamer erzeugen beim Skalieren hingegen sichtbare Artefakte.


Wenn man sich auf den Standpunkt stellt, dass das Bild wirklich nur skaliert werden darf, und keinerlei Nachschärfung oder andere Bildverarbeitung damit stattfinden darf, dann darf man sich nicht wundern, wenn auch wirklich nur ein 4K-Bild herauskommt, das zwar eine höhere Pixelzahl, aber nur die gleiche Bildinformation wie das 720p-Bild enthält. Und das natürlich aus der Nähe dann deutlich unschärfer aussieht. Wenn man aber ganz unvoreingenommen an die Sache rangeht und sagt, egal, was mit dem Bild intern passiert, ich schaue mir das Endergebnis an und wenn es dann tatsächlich mehr Details zeigt, dann akzeptiere ich das auch als das bessere Bild, dann kann man genau solche Methoden wie Superresolution und Sonys RealityCreation einsetzen und hat einen Gewinn davon. Natürlich können auch diese Verfahren nicht zaubern, es wird auch damit kein 4K-Bild daraus, aber es kann in vielen Fällen tatsächlich besser als das ursprüngliche Bild aussehen.


MPC, RC, Darbee und Co können ein hochskaliertes Bild sichtbar verbessern, das wird aber niemals besser aussehen, als das Original, da Du das Panel nicht nativ ansteuerst.


[Beitrag von Nudgiator am 16. Apr 2014, 21:40 bearbeitet]
hagge
Inventar
#1979 erstellt: 16. Apr 2014, 21:54

Nudgiator (Beitrag #1978) schrieb:
Bei gleicher Bilddiagonale UND der Annahme, daß vier 4k-Pixel so groß sind, wie ein 720p-Pixel, hast Du vollkommen recht. Ich kenne aber kein Gerät, wo das zutrifft.

Weil bei gleicher Bilddiagonale ein 720p-Pixel neun 4K-Pixeln entspricht (3x3), nicht vier. Die vier gelten bei Full-HD -> 4K. Und wieso sollte das nicht zutreffen? Gleiche Bilddiagonale, also gleiche Bildgröße, aber die 9-fache Pixelzahl. Also muss ein Pixel auf dem 720p-Bild neun Pixeln auf dem 4K-Bild entsprechen. Wie sollte sonst die gleiche Diagonale dabei rauskommen?


Es könnte bei der obigen Annahme bestenfalls (!) gleich gut aussehen (bei gleicher Technologie). Nochmal: ein Skalierungsalgorithmus kann nicht zaubern und muß zwangsläufig interpolieren.

Korrekt. Und im einfachsten Fall interpoliert er die gleichen Pixel dazwischen. Damit kommt man zum gleichen Bild wie beim 720p-Panel. Im komplizierteren Fall interpoliert er die Pixel nach irgend einem Verfahren. Schlechte Interpolationen berechnen irgendwelche linearen Mittelwerte, gute Interpolationen wandeln das Bild per FFT ins Frequenzspektrum, skalieren dort und konvertieren das Bild wieder zurück ins Farbspektrum. Dann hat man sogar noch korrekte Farbverläufe drin.


Selbst der beste Algorithmus wird aber niemals so gut arbeiten, wie eine native Panel-Zuspielung.

Sag ich doch. Die native Ansteuerung eines 4K-Panels ist ein 4K-Bild. Und ein skaliertes 720p-Bild wird nie so gut wie ein 4K-Bild aussehen. Aber es kann besser als auf dem 720p-Panel aussehen. Und *das* ist doch das entscheidende. Dass es schlechter als auf dem 720p-Panel aussieht, ist eher unwahrscheinlich, es sei denn der Hersteller verhunzt es regelrecht, so wie die Überschärfung bei Philips.


MPC, RC, Darbee und Co können ein hochskaliertes Bild sichtbar verbessern, das wird aber niemals besser aussehen, als das Original, da Du das Panel nicht nativ ansteuerst.

Nochmal: 720p kann auf 4K-Panels besser aussehen als auf dem 720p-Panel, da durch die entsprechenden Algorithmen noch Bildinhalt ergänzt werden kann. Obwohl es dort dann keine native Zuspielung ist. Es wird aber *nicht* so gut wie ein 4K-Bild aussehen. Und es wird deutlich näher beim 720p-Bild liegen als beim 4K-Bild. Aber es kann trotzdem besser als auf dem 720p-Bildschirm sein. So wie SD-Inhalt auf einem Full-HD-Bildschirm auch besser aussehen kann als auf einem reinen SD-Gerät. Ich behaupte, dass eine DVD auf meinen HX925 definitiv besser aussieht als auf jeder SD-Röhre.

Gruß,

Hagge
Nudgiator
Inventar
#1980 erstellt: 16. Apr 2014, 22:13

hagge (Beitrag #1979) schrieb:

Nudgiator (Beitrag #1978) schrieb:
Bei gleicher Bilddiagonale UND der Annahme, daß vier 4k-Pixel so groß sind, wie ein 720p-Pixel, hast Du vollkommen recht. Ich kenne aber kein Gerät, wo das zutrifft.

Weil bei gleicher Bilddiagonale ein 720p-Pixel neun 4K-Pixeln entspricht (3x3), nicht vier. Die vier gelten bei Full-HD -> 4K.


Yep, sorry. Es sind natürlich 9 Pixel. Bin 720p nicht mehr gewohnt



Und wieso sollte das nicht zutreffen? Gleiche Bilddiagonale, also gleiche Bildgröße, aber die 9-fache Pixelzahl. Also muss ein Pixel auf dem 720p-Bild neun Pixeln auf dem 4K-Bild entsprechen. Wie sollte sonst die gleiche Diagonale dabei rauskommen?


Theoretisch hast Du recht, es gibt aber keine 720p-TVs mit gleicher Diagonale wie 4k-TVs - zumindest momentan nicht. Gäbe es das aber, wäre es durchaus interessant, mal einen Blindvergleich anzustellen, ob man einen Unterschied sehen kann.


Und ein skaliertes 720p-Bild wird nie so gut wie ein 4K-Bild aussehen. Aber es kann besser als auf dem 720p-Panel aussehen. Und *das* ist doch das entscheidende. Dass es schlechter als auf dem 720p-Panel aussieht, ist eher unwahrscheinlich, es sei denn der Hersteller verhunzt es regelrecht, so wie die Überschärfung bei Philips.


Das Problem dabei ist doch, daß bereits bei 1080p --> 2160p 75% der Bildinformation interpoliert werden müssen (mal von Deinem obigen Spezialfall abgesehen).


Nochmal: 720p kann auf 4K-Panels besser aussehen als auf dem 720p-Panel, da durch die entsprechenden Algorithmen noch Bildinhalt ergänzt werden kann.


Wie gesagt: reine Interpolation ! Die Betonung liegt hier ganz klar auf "KANN" !


So wie SD-Inhalt auf einem Full-HD-Bildschirm auch besser aussehen kann als auf einem reinen SD-Gerät. Ich behaupte, dass eine DVD auf meinen HX925 definitiv besser aussieht als auf jeder SD-Röhre.


Ich habe schon sehr viele TVs und Beamer mit 720p, 1080p und 2160p gesehen. Aber stets sah das Bild dann am besten aus, wenn dem Panel nativ zugespielt wurde.

Aktuelles Beispiel: ich hatte vorher ein 15"-MacBook ohne Retina-Auflösung, jetzt besitze ich die gleiche Diagonale mit Retina-Auflösung. Das skalierte Bild sieht auf dem Retina-Display keinesfalls besser aus, genau das Gegenteil ist der Fall.


[Beitrag von Nudgiator am 16. Apr 2014, 22:18 bearbeitet]
Master468
Inventar
#1981 erstellt: 16. Apr 2014, 22:56

Das Problem dabei ist doch, daß bereits bei 1080p --> 2160p 75% der Bildinformation interpoliert werden müssen (mal von Deinem obigen Spezialfall abgesehen).

Im Sinne der Alias-Vermeidung ist eine hohe Zielauflösung wünschenswert (auch bei geringer Differenz zwischen Eingangs- und Ausgangsauflösung). Am Ende ist die tatsächliche (d.h. physische) Ausgabegröße in Relation zum Betrachtungsabstand und nicht die Pixeldifferenz entscheidend. Bei den heutigen Riesen und im Vergleich dazu nicht deutlich gewachsenen Wohnzimmern kann eine skalierte Ausgabe daher auch grundsätzlich vorteilhaft sein - UHD-Workflows lasse ich jetzt mal außen vor. Nicht um magisch neue Details zu erzeugen, sondern zur Artefaktminderung.

In dem Zusammenhang ist es hilfreich, sich die Funktion verschiedener Filter (für den Anfangt reichen hier bilineare und bikubische Rekronstruktionsfilter) einmal anzusehen - insbesondere auch die jeweils berücksichtigten Umgebungspixel. In den Scaling-Engines ausgewachsener Lösungen steckt natürlich auch sehr spezielles Know-how. Ein gutes Beispiel sind tatsächlich die Lumagen Radiance, wobei ich mich mit Superlativen hier bewusst zurückhalte, denn das Ergebnis ist auch in diesem Fall Geschmackssache. Keine Haupt- (ausbleibende Doppelkonturen) ohne Nebenwirkung.

Gruß

Denis


[Beitrag von Master468 am 16. Apr 2014, 23:27 bearbeitet]
Nudgiator
Inventar
#1982 erstellt: 16. Apr 2014, 23:07

Master468 (Beitrag #1981) schrieb:
Wichtig ist die tatsächliche (d.h. physische) Ausgabegröße in Relation zum Betrachtungsabstand und nicht die Pixeldifferenz.


Da bin ich ganz bei Dir
hagge
Inventar
#1983 erstellt: 16. Apr 2014, 23:12

Nudgiator (Beitrag #1980) schrieb:
Aktuelles Beispiel: ich hatte vorher ein 15"-MacBook ohne Retina-Auflösung, jetzt besitze ich die gleiche Diagonale mit Retina-Auflösung. Das skalierte Bild sieht auf dem Retina-Display keinesfalls besser aus, genau das Gegenteil ist der Fall.

Ich kenne mich da jetzt nicht aus, was diese beiden Displaytypen für Auflösungen haben. Hat das Retina wirklich die vierfache Auflösung zum herkömmlichen Display?

Fakt ist, dass bei einem Computerbildschirm, also dem Desktop selbst, meist mit sehr banalen Skalierungsverfahren gearbeitet wird. Da kommt weder ein Verfahren mit Skalierung im Frequenzbereich, noch ein Schärfungsverfahren wie bei der RealityCreation zum Einsatz. Insofern ist der Desktop da als Vergleich zu TVs oder Beamern nur bedingt geeignet. Was anderes ist es, wenn Du einen Medienplayer nimmst, der auch wirklich eine entsprechend hochwertige Skalierung macht. Auf PCs wäre das z.B. eine Software wie Power-DVD. Dann wäre ein Vergleich eines Filmes bei gleicher Quellauflösung auf den beiden Displaytypen interessant, wenn man die Größe des Wiedergabefensters so wählt, dass es beim normalen Display eine 1:1-Zuspielung ergibt und beim Retina-Display ein Fenster mit gleichen Ausmaßen, aber was dann logischerweise keine 1:1-Zuspielung mehr ist, sondern eine Skalierung erfordert.

Wie unterschiedlich die ganzen Skalierungsmethoden arbeiten, kann man beispielsweise im Programm IrfanView sehen. Dort kann man unter mehreren verschiedenen Verfahren der Skalierung wählen, von der einfachen Pixelvervielfältigung bis zum Lanczos-Verfahren. Und da liegen Welten dazwischen.

Gruß,

Hagge
Nudgiator
Inventar
#1984 erstellt: 16. Apr 2014, 23:28

hagge (Beitrag #1983) schrieb:

Ich kenne mich da jetzt nicht aus, was diese beiden Displaytypen für Auflösungen haben. Hat das Retina wirklich die vierfache Auflösung zum herkömmlichen Display?


2880 x 1800 vs. 1440 x 900. Also exakt die vierfache Auflösung


Fakt ist, dass bei einem Computerbildschirm, also dem Desktop selbst, meist mit sehr banalen Skalierungsverfahren gearbeitet wird. Da kommt weder ein Verfahren mit Skalierung im Frequenzbereich, noch ein Schärfungsverfahren wie bei der RealityCreation zum Einsatz.


Das ist durchaus korrekt. Aber Du siehst hier sehr deutlich, daß bei gleicher Diagonale und vierfacher Auflösung das skalierte Bild nicht zwingend besser aussehen muß. Ab einem gewissen Betrachtungsabstand sieht man allerdings keinen Unterschiued mehr. Das ist bei einem Laptop aber etwas schwierig zu realisieren.


Wie unterschiedlich die ganzen Skalierungsmethoden arbeiten, kann man beispielsweise im Programm IrfanView sehen. Dort kann man unter mehreren verschiedenen Verfahren der Skalierung wählen, von der einfachen Pixelvervielfältigung bis zum Lanczos-Verfahren. Und da liegen Welten dazwischen.


Das kann ich bestätigen. Ich nutze hier XnView. Die alte Version skaliert auf dem Retina-Display lausig, die XnView MP-Version skaliert um Welten besser ! Da sieht man dann kein Aliasing mehr und das Zielbild ist nahezu perfekt. Schade, daß noch nicht einmal Windows 8.1 das so hinbekommt
andi@71
Hat sich gelöscht
#1985 erstellt: 17. Apr 2014, 01:11
"2880 x 1800 vs. 1440 x 900. Also exakt die vierfache Auflösung".

Soweit ich weiß braucht man die vierfache Pixelanzahl um die Auflösung zu verdoppeln.
Das heißt es hat nur doppelte Auflösung.
Nudgiator
Inventar
#1986 erstellt: 17. Apr 2014, 10:06
@andi
Yep, Du hast recht Die Auflösung verdoppelt sich (in beiden Richtungen), die Pixelanzahl wird vervierfacht
andi@71
Hat sich gelöscht
#1987 erstellt: 18. Apr 2014, 07:50
Wieso "in beiden Richtungen"?

Die Auflösung des Bildes verdoppelt sich durch Vervierfachung der Pixelanzahl.

Nur die Anzahl der Pixel erhöht sich in beiden Richtungen.

Wenn die Auflösung sich in beiden Richtungen verdoppeln würde,würde sie sich ja vervierfachen.
Alles klar?


[Beitrag von andi@71 am 18. Apr 2014, 07:52 bearbeitet]
Nui
Inventar
#1988 erstellt: 18. Apr 2014, 09:03
Nudgiator hat schon recht. Die Auflösung erhöht sich in beide Richtungen. Sonst hättest du auch keine vervierfachung der Pixelanzahl
Nudgiator
Inventar
#1989 erstellt: 18. Apr 2014, 10:21

andi@71 (Beitrag #1987) schrieb:
Wieso "in beiden Richtungen"?

Die Auflösung des Bildes verdoppelt sich durch Vervierfachung der Pixelanzahl.


1440 x 900 ... multipliziert mit 2 in beiden Richtungen ergibt ... 2880 x 1800
El_Greco
Inventar
#1990 erstellt: 18. Apr 2014, 11:53

hagge (Beitrag #1983) schrieb:

Fakt ist, dass bei einem Computerbildschirm, also dem Desktop selbst, meist mit sehr banalen Skalierungsverfahren gearbeitet wird. Da kommt weder ein Verfahren mit Skalierung im Frequenzbereich, noch ein Schärfungsverfahren wie bei der RealityCreation zum Einsatz. Insofern ist der Desktop da als Vergleich zu TVs oder Beamern nur bedingt geeignet.

Seit paar Tagen besitze ich den 65VTW60 und war ich erstaunt welche Quali der mit integrierten Mediaplayer zaubert, wenn ich die Videos von meine TZ-10 Pana abspielt.
Die TZ-10 nimmt mit 1280 x 720 Punkte auf und auf meinen Laptop hat das nur auf bescheidene Diagonale gut ausgesehen, habe ich das in Vollbildschirm abgespielt, so war das ganze nur olala.
Ich war sehr positiv überrascht, dass der VTW das so genial auf ganze Diagonale skalieren kann(dabei bin mir sicher, dass andere können es noch besser), selbst die VGA Aufnahmen mit Hi8 Camcorder sehen schlecht, aber anders wie bei PC, annehmbar oder besser gesagt, einsehbar.


[Beitrag von El_Greco am 18. Apr 2014, 11:56 bearbeitet]
El_Greco
Inventar
#1991 erstellt: 18. Apr 2014, 12:03

andi@71 (Beitrag #1987) schrieb:
Wieso "in beiden Richtungen"?

Die Auflösung des Bildes verdoppelt sich durch Vervierfachung der Pixelanzahl.

Nur die Anzahl der Pixel erhöht sich in beiden Richtungen.

Wenn die Auflösung sich in beiden Richtungen verdoppeln würde,würde sie sich ja vervierfachen.
Alles klar? :*
Wie ich schon vorher geschrieben habe, es ist keine reine 4K Auflösung, daher bestand ich darauf, dass UHD zu nennen wäre passend
Mary_1271
Inventar
#1992 erstellt: 18. Apr 2014, 15:04

El_Greco (Beitrag #1991) schrieb:
Wie ich schon vorher geschrieben habe, es ist keine reine 4K Auflösung, daher bestand ich darauf, dass UHD zu nennen wäre passend ;)


Hallo Du Erbsenzähler

3840 horizontale Bildpunkte sind doch annähernd 4000, also 4K !!!

4K geht uns momentan ohnehin am Allerwertesten vorbei.

Liebe Ostergrüße
Mary


[Beitrag von Mary_1271 am 18. Apr 2014, 15:04 bearbeitet]
andi@71
Hat sich gelöscht
#1993 erstellt: 18. Apr 2014, 15:17
Eine Verdoppelung der Auflösung eines Bildes impliziert aus meiner Sicht daß sich das Format nicht verändert.
Insofern braucht das auch nicht extra erwähnt zu werden,da es selbstverständlich ist.
2k,4k,8k.Da geht ja auch keiner davon aus es könnte sich das Format mitändern.

Der Erbsenzähler.


[Beitrag von andi@71 am 18. Apr 2014, 15:17 bearbeitet]
hagge
Inventar
#1994 erstellt: 19. Apr 2014, 10:07
Sorry, aber Auflösung ist die Anzahl der Pixel, in die das Bild aufgelöst (zerteilt) ist. Und das sind nun mal bei 4K viermal so viele wie bei Full-HD. Insofern hat sich die Auflösung tatsächlich vervierfacht. Die Anzahl der Pixel in x- und y-Richtung verdoppelt sich dabei natürlich nur.

Man könnte Auflösung auch als Pixeldichte pro Fläche definieren, also z.B. Pixel pro cm^2. Da diese Definition der Auflösung dann aber von der Bilddiagonale abhängig wäre, lässt man das pro Fläche weg und nimmt nur das Gesamtbild, also Pixel pro Bild.

Wie immer man das aber betrachtet ist die Bildauflösung immer eine zweidimensionale Sache, keine eindimensionale. Ein Bild hat die Auflösung 1920x1080 Pixel, oder 3840x2160 Pixel. Bezeichnungen wie 4K, die also nur die x-Richtung angeben, oder 1080p, die nur die y-Richtung angeben, sind also immer unzureichend und ungenau, da sie die zweite Dimension weglassen und ein Wissen über das Bildformat voraussetzen, das nicht immer gegeben und auch nicht immer eindeutig ist. Zum Beispiel gibt es die verschiedenen Bildformate. Gibt man nur eine Größe an, fehlt die Information zur anderen Größe. Ein 4:3-Film in HD hat halt nur 1440x1080 Punkte, ein 16:9-Film hat 1920x1080 Punkte und ein 64:27-Film (oft auch als 21:9 bezeichnet) hat so ca. 1920x810 Pixel. Hier also 1080p dazu zu sagen ist eigentlich genauso falsch wie 2K zu sagen.

Dies gilt übrigens im Kino nicht. Ein 4K-Film hat dort 4K-Auflösung egal welches Filmformat. Dort wird das Seitenverhältnis meines Wissens rein durch die Optik (Linse) auf dem Projektor erzeugt. Dort hat also der 16:9-Film genauso 4096 Pixel in x-Richtung wie der 64:27-Cinemascope-Film.

Gruß,

Hagge
darkphan
Inventar
#1995 erstellt: 06. Mai 2014, 17:29
Tja, wer auf OLED setzt, muss wohl mit ner Totgeburt rechnen: Nach Sony und Panasonic verabschiedet sich Samsung von der OLED-Entwicklung.

Ich mache drei Kreuze, dass ich mir noch nen Plasma-gekauft hab im Herbst!
Bart1893
Inventar
#1996 erstellt: 06. Mai 2014, 17:38
zum kotzen.
Andy_Slater
Inventar
#1997 erstellt: 06. Mai 2014, 19:34
Ich habs ja gesagt! OLED dauert noch! Von wegen in drei Jahren...

Ich tippe weiterhin auf mindestens fünf Jahre, bis das es die ersten bezahlbaren OLED TVs geben wird. Betonung liegt auf "mindestens".
El_Greco
Inventar
#1998 erstellt: 06. Mai 2014, 19:54
@Andy,
das kann sich keiner leisten, selbst mit Abstand grösste TV-Hersteller musste passen.Wir warten schon seid 5 Jahren und jedes Jahr wird die OLED-Reife verschoben, hallo, geht es noch

Wenn etwas nicht passiert, wird das größte klappe der letzten Jahren. Die Probleme waren von Anfang an bekannt, man war sich aber überzeugt, dass mit dem Zeit werden verbessernde Lösungen gefunden, wahrscheinlich Überschätzung.

Ich habe OLEDs Untergang prophezeit, denke zu 40%, dass es so wird, und falls ja, riskiere meine Äußerung, dass SED wird auferstehen, wetten

Übrigens LG lag richtig in der Entscheidung, die Plasma-Sparte noch zu erhalten.


[Beitrag von El_Greco am 06. Mai 2014, 19:55 bearbeitet]
service
Inventar
#1999 erstellt: 06. Mai 2014, 20:06
Falls es einige noch nicht bemerkt haben, TV-OLEDs gibt es mittlerweile in 55 Zoll von LG zum kaufen.Im Profesionellen Bereich hat Sony fast die komplette Produkt-Palette erfolgreich auf OLEDs umgestellt.
Andy_Slater
Inventar
#2000 erstellt: 06. Mai 2014, 20:11
Ich hätte ja gerne so einen Sony OLED PC Monitor, aber irgendwie fehlt mir das nötige Kleingeld mal wieder.

Warum sind es eigentlich immer die Chinesen und Japaner, die sowas entwickeln? Wieso nicht mal wieder Philips oder warum kann man in Deutschland kein OLED Werk öffnen? Loewe, Technisat, Nordmende, Grundig - wieso kommt von denen nichts eigenes? Warum kommt sowas immer aus Asien? Fehlt den Holländern, den Deutschen oder den Amerikanern der nötige Grips, um sowas zu bauen?
service
Inventar
#2001 erstellt: 06. Mai 2014, 20:24
Lg ist Korea, in Europa ist die Elektronik-Industrie längst in der Versenkung verschwunden von Grundig z.B. existiert im ursprünglichen Sinne nur noch der Name.
Die Marktwirtschaft ist ein natürlicher Ausleseprozess der stärkere und bessere überlebt verdrängt den schwächeren, das gleiche kann im Prinzip auch der japanischen TV-Branche jetzt drohen.
zirpl
Ist häufiger hier
#2002 erstellt: 06. Mai 2014, 20:27

Andy_Slater (Beitrag #2000) schrieb:

Warum sind es eigentlich immer die Chinesen und Japaner, die sowas entwickeln? Wieso nicht mal wieder Philips oder warum kann man in Deutschland kein OLED Werk öffnen? Loewe, Technisat, Nordmende, Grundig - wieso kommt von denen nichts eigenes? Warum kommt sowas immer aus Asien? Fehlt den Holländern, den Deutschen oder den Amerikanern der nötige Grips, um sowas zu bauen?


Ich denke das liegt daran, dass in Europa hauptsächlich "Buchhalter" sitzen. Die Produktion haben die meisten Unternehmen längst nach Asien verlagert und dabei übersehen, dass dadurch mittelfristig auch sehr viel Know-How verloren geht. Über die Ursachen könnte man lange diskutieren, weil hier viele Faktoren rein spielen (Steuern, Lohnkosten, Preisvorstellungen der Kunden, ...). Was am Ende bleibt ist die Tatsache, dass in Europa nur noch sehr wenig Entwicklungsarbeit geleistet und noch weniger produziert wird. Eine Ausnahme ist sicher die Autoindustrie, aber die produziert auch noch hier.

Was OLEDs betrifft, sieht es tatsächlich nicht besonders rosig aus. Daher bin ich richtig froh, dass ich mir letztes Jahr noch einen Plasma (P65VTW60) angeschafft habe, weil ich mit einem LCD (nach aktuellem Stand der Technik) wohl nicht glücklich werden würde.
Grammy919
Inventar
#2003 erstellt: 06. Mai 2014, 20:34
Laut neusten gerüchten wird aber Panasonic und auch Sony OLED Displays bei LG einkaufen.

LG scheint nach neusten berichten es zu schaffen OLED display relativ kostengünstig und effektiv zu bauen, mit einer sehr geringen Fehlerquate von nicht einmal mehr 10%...
Davon war Samsung sehr weit entfernt, auch weil sie eine andere OLED Technik nutzten.

Da die Preise von letzten jahr zu diesen jahr extrem gesunken sind ( Der 55EA9709 ist schon für etwas 4000 Euro zu bekommen, letztes jahr war noch der erste OLED um die 7000- 8000 Euro zu bekommen ) denke ich nicht das es noch 5 oder mehr jahre dauern wird bis OLED bezahlbar ist.

Denke in 2 Jahren werden 55" OLED bei etwa 2500 Euro liegen, dann aber nicht nur von LG, denke Hisense und auch der eine odere andere Hersteller wird noch mitspielen von den man das jetzt noch garnicht erwartet. (denke Sony, Panasonic und auch Philips wird vertreten sein).

Und warum kein "DEUTSCHER" hersteller an OLED arbeitet ist recht einfach, weil es keinen mehr gibt
Andy_Slater
Inventar
#2004 erstellt: 06. Mai 2014, 20:40
Ich sehe gerade Ultra HD TVs für 800 Euro in 50 Zoll von Hisense bei Amazon - wusste nicht das die schon so günstig sind. Natürlich nur LCD.
El_Greco
Inventar
#2005 erstellt: 06. Mai 2014, 21:04

Andy_Slater (Beitrag #2000) schrieb:

Warum sind es eigentlich immer die Chinesen und Japaner, die sowas entwickeln? Wieso nicht mal wieder Philips oder warum kann man in Deutschland kein OLED Werk öffnen? Loewe, Technisat, Nordmende, Grundig - wieso kommt von denen nichts eigenes? Warum kommt sowas immer aus Asien? Fehlt den Holländern, den Deutschen oder den Amerikanern der nötige Grips, um sowas zu bauen?
Warum machen die Asiaten kein Bier, warum können die Kenianer so gut Marathon laufen, warum bin der einzige Grieche, der nicht schwimmen kann ...

Denke, dass es gut ist, dass wir nicht gleich ausgelegt sind und somit so unterschiedlich
hagge
Inventar
#2006 erstellt: 06. Mai 2014, 22:17

Andy_Slater (Beitrag #2000) schrieb:
Warum sind es eigentlich immer die Chinesen und Japaner, die sowas entwickeln? Wieso nicht mal wieder Philips oder warum kann man in Deutschland kein OLED Werk öffnen? Loewe, Technisat, Nordmende, Grundig - wieso kommt von denen nichts eigenes?

Ähm, Philips = Chinese (TPV Technology). Loewe = Chinese (Hisense), früher Panels von Sharp. Grundig = Türke (bis 2008 Beko Elektronik, jetzt Arcelik). Nordmende, gibts die überhaupt noch? OK, Wikipedia sagt, die Marke gehört zur Zeit einer indischen Firma (Videocon). Metz hast Du noch vergessen: Metz kauft ausschließlich LG-Panels.

Wo ist da noch was deutsches oder wenigstens europäisches?


Warum kommt sowas immer aus Asien? Fehlt den Holländern, den Deutschen oder den Amerikanern der nötige Grips, um sowas zu bauen?

Nein, aber es fehlt das Geld, um so was in Holland, Deutschland oder Amerika zu bauen, bei den Arbeitslöhnen, die hier herrschen, bei den Umweltauflagen, die hier gelten, bei den Auflagen für Arbeitszeit und Arbeitsplatz, die hier gelten, bei den Energiekosten hier, bei den wenigen Rohstoffen, die es hier für diese Techniken gibt, usw. usf. (jeweils im Vergleich zu China).

Und zum Teil ist uns hier wirklich Wissen abhanden gekommen. Ich glaube z.B. nicht, dass die Amis heute noch einen bemannten Flug zum Mond hinkriegen würden. Da müssten sie sich erst wieder jahrelang Know How und Fertigungstechnik aneignen. Und vermutlich würde es so manchen Fehlschlag auf dem Weg dahin geben. Den Chinesen traue ich das aber zu, aus dem Stand bemannt zum Mond zu fliegen.

Gruß,

Hagge


[Beitrag von hagge am 06. Mai 2014, 22:18 bearbeitet]
Nudgiator
Inventar
#2007 erstellt: 06. Mai 2014, 23:25

hagge (Beitrag #2006) schrieb:
Den Chinesen traue ich das aber zu, aus dem Stand bemannt zum Mond zu fliegen.


Die sind schon froh, wenn die Rakete zündet
hagge
Inventar
#2008 erstellt: 07. Mai 2014, 05:46
Dir ist aber bekannt, dass die Chinesen vor ca. einem halben Jahr auf dem Mond waren? Zwar unbemannt, aber immerhin.

Hagge
Nudgiator
Inventar
#2009 erstellt: 07. Mai 2014, 08:36
Damit ist Deine Aussage ...


Den Chinesen traue ich das aber zu, aus dem Stand bemannt zum Mond zu fliegen.


... von Dir soeben selbst widerlegt worden
hagge
Inventar
#2010 erstellt: 08. Sep 2014, 23:53
Ich war am Wochenende auf der IFA. Da habe ich auch bei Panasonic vorbeigeschaut. Und ja, es wurden auch noch Plasmas augestellt. Für eine Gruppe Fernseher war extra ein sehr dunkler Raum eingerichtet.Da waren drei Bildschirme zu sehen. Der erste, den ich sah, fiel mir sofort auf, weil das Bild flimmerte. Aha, Plasma. Sofort erkannt. Also habe ich auf das Schild geschaut wo draufstand, welches Modell es war. Ein ZT60. Soweit ich weiß ist das doch der Plasma, der den besten Schwarzwert hat, oder? Also schaute ich sofort zurück aufs Bild, wo gerade eine Schwarzblende war. Und was sehe ich? Einen Bildinhalt, der sich deutlich vom schwarzen Rahmen absetzt, weil er eben lange nicht so dunkel ist. In der Folge kamen einige Szenen mit dunklem Hintergrund, aber das war nicht perfekt schwarz. Wie kann das sein? Der Plasma mit dem aktuell besten Schwarzwert und dann so etwas?

Nur als Anmerkung: mein LCD-Bild ist in den dunklen Szenen deutlich dunkler als das, was ich dort gesehen habe.

Daneben gab es auch noch zwei LCDs von Panasonic. Die waren zwar in den dunklen Bildteilen tatsächlich leicht heller als der Plasma, aber wie gesagt war ich vom Schwarzwert des Plasmas enttäuscht. Hier hätte ich erwartet, dass man ein schwarzes Bild nicht mehr vom Rahmen unterscheiden kann. Aber das sah aus wie das Plasma-Grundleuchten von früher.

Sicher gibt es eine Erklärung dafür, aber welche?

Gruß,

Hagge
Nui
Inventar
#2011 erstellt: 09. Sep 2014, 00:27
Sehr dunkle Szenen sind nicht die Stärke des Schwarzwertes eines Plasmas, sondern die Stabilität, dass dort alles im Bild hinzukommen kann, ohne dass Schwarz sich ändert, sprich auch ohne Dynamiken. Dementsprechend auch Kontrast mit Spitzenlichtern. ANSI Kontrast gewinnen Plasma, On/Off Kontrast gewinnen LCDs. Ich vermisse bei meinem 50VTW60 auch einen guten Schwarzwert für dunkle Szenen. Mein Röhrenmonitor war da auch besser.

Auch kann es natürlich sein, dass der ZT schlecht eingestellt war. Warum die LCDs and die Wand spielen, welche sie noch verkaufen wollen?


[Beitrag von Nui am 09. Sep 2014, 00:28 bearbeitet]
Zaianagl
Inventar
#2012 erstellt: 09. Sep 2014, 03:36

Warum die LCDs and die Wand spielen, welche sie noch verkaufen wollen?
norbert.s
Hat sich gelöscht
#2013 erstellt: 09. Sep 2014, 03:49

hagge (Beitrag #2010) schrieb:
Hier hätte ich erwartet, dass man ein schwarzes Bild nicht mehr vom Rahmen unterscheiden kann. ...
Sicher gibt es eine Erklärung dafür, aber welche?

Dass Du schlecht informiert bist?
Auch einen Schwarzwert von 0,002 cd/m² kann man im dunklen Raum immer noch vom schwarzen Rahmen unterscheiden. Nicht nur bei einem Schwarzbild, sondern auch bei niedrigen Helligkeiten durch Bildinhalten.

Daher ist das auch unabhängig von einer eventuell nicht optimalen Einstellung des ZT60 zu sehen.

Kennst Du das "Black Hole" Video von Pioneer? Das schaut auf einem 65VTW60/60ZT60 besser denn je aus, aber eben nicht perfekt. Dazu braucht man einen OLED oder ein sehr hochwertiges LCD mit sehr vielen Local Dimming Zonen (mehr als bei Edge Backlight Dimming). Oder einen getunten Pionieer Kuro KRP-500A.

LCDs mit Local Dimming können auf großen Flächen (innerhalb einer Dimming Zone) einen tieferen Schwarzwert erzeugen.

Servus


[Beitrag von norbert.s am 09. Sep 2014, 05:43 bearbeitet]
Andy_Slater
Inventar
#2014 erstellt: 09. Sep 2014, 06:15
Vielleicht war bei dem ZT60 ja sogar der Schwarzpunkt (Helligkeit) nicht richtig eingestellt. Bei helleren Szenen kann man die Cinemascope Balken wirklich so gut wie gar nicht mehr vom schwarzen Bildschirmrahmen trennen. Bei dunkleren Szenen hingegen schon.

Das Black Hole Video schaue ich mir immer wieder gerne im stockdunklen Raum auf meinem Samsung Galaxy S4 mit Super AMOLED Display an.
norbert.s
Hat sich gelöscht
#2015 erstellt: 09. Sep 2014, 08:02
Das Black Hole Video beeindruckt mich schon auf einem 65VTW60/60ZT60 im dunklen Raum. Ich weiß aber eben auch genau, was ich wo zu erwarten habe. Beim 65VT30 zwei Jahre zuvor war es noch enttäuschend. Ist aber auch kein Wunder bei 0,016 versus 0,002 cd/m².

Servus


[Beitrag von norbert.s am 09. Sep 2014, 08:02 bearbeitet]
service
Inventar
#2016 erstellt: 09. Sep 2014, 08:55
Ein Plasma kann die Zellenzündung auch nicht komplett abschalten,deshalb ist auch immer eine gewisse Rest-Helligkeit vorhanden.Plasmas waren meiner Meinung nach unter anderem durch die PWM und deren negativen visuellen Aspekte einer der größten Fehlentwicklung im Bereich der Display-Technologie.Panasonic hat sich daran auch ziemlich ruiniert.
norbert.s
Hat sich gelöscht
#2017 erstellt: 09. Sep 2014, 09:01
Auch an LCDs verdienen weltweit nur noch wenige Hersteller überhaupt Geld. Im Prinzip sind alle Japaner raus aus dem Geschäft und vor allem raus aus der Produktion eigener Panels.

Servus


[Beitrag von norbert.s am 09. Sep 2014, 09:02 bearbeitet]
hagge
Inventar
#2018 erstellt: 09. Sep 2014, 09:33

norbert.s (Beitrag #2013) schrieb:

hagge (Beitrag #2010) schrieb:
Hier hätte ich erwartet, dass man ein schwarzes Bild nicht mehr vom Rahmen unterscheiden kann. ...
Sicher gibt es eine Erklärung dafür, aber welche?

Dass Du schlecht informiert bist?
Auch einen Schwarzwert von 0,002 cd/m² kann man im dunklen Raum immer noch vom schwarzen Rahmen unterscheiden. Nicht nur bei einem Schwarzbild, sondern auch bei niedrigen Helligkeiten durch Bildinhalten.

Aber haben wir hier im Thread nicht schon seitenweise darüber diskutiert, dass man bei den aktuellen Plasmas die Grundhelligkeit nicht mehr wahrnehmen kann? Und dass der Plasma angeblich dunkler ist als jeder LCD? Und dass Local Dimming da auch nicht hilft? Sorry, aber wenn das so ist, wie ich es gesehen habe, da kann mein LCD mehr an Schwarzwert bieten.


Kennst Du das "Black Hole" Video von Pioneer?

Jepp. Ich muss es mir mal wieder auf meinem LCD anschauen. Weil da ist schwarz wirklich schwarz.

Gruß,

Hagge
Nui
Inventar
#2019 erstellt: 09. Sep 2014, 09:43

hagge (Beitrag #2018) schrieb:
Aber haben wir hier im Thread nicht schon seitenweise darüber diskutiert, dass man bei den aktuellen Plasmas die Grundhelligkeit nicht mehr wahrnehmen kann?

Ich habe immer das obige geschrieben.


hagge (Beitrag #2018) schrieb:
da kann mein LCD mehr an Schwarzwert bieten.

Er kann es eben nur nicht halten. DAS ist der Vorteil des Plasma.
service
Inventar
#2020 erstellt: 09. Sep 2014, 09:46

norbert.s (Beitrag #2017) schrieb:
Auch an LCDs verdienen weltweit nur noch wenige Hersteller überhaupt Geld. Im Prinzip sind alle Japaner raus aus dem Geschäft und vor allem raus aus der Produktion eigener Panels.
Servus

Ja stimmt , wenn man das Haupt-Bauteil Panel teuer einkaufen muß, ist man langfristig nicht mehr konkurenzfähig.
Nudgiator
Inventar
#2021 erstellt: 09. Sep 2014, 09:47
Jetzt bitte nicht wieder die gleiche Sinnlosdiskussion hier starten. Wir wissen doch alle, wozu das führt
El_Greco
Inventar
#2022 erstellt: 09. Sep 2014, 10:01

service (Beitrag #2016) schrieb:
Plasmas waren meiner Meinung nach ... einer der größten Fehlentwicklung im Bereich der Display-Technologie.Panasonic hat sich daran auch ziemlich ruiniert.

No comment...
Suche:
Gehe zu Seite: |vorherige| Erste . 10 . 20 . 30 . 36 37 38 39 40 41 Letzte |nächste|
Das könnte Dich auch interessieren:
LCD besser als Plasma?
Icebox20 am 03.01.2008  –  Letzte Antwort am 23.01.2008  –  28 Beiträge
LCD mittlerweile besser als Plasma ?
Jerikko am 22.08.2007  –  Letzte Antwort am 05.09.2007  –  6 Beiträge
Reaktionszeit Plasma - LCD ?
VW_Baujahr71 am 16.02.2006  –  Letzte Antwort am 16.02.2006  –  6 Beiträge
Ist Plasma doch besser?
syntax_error am 26.05.2008  –  Letzte Antwort am 27.05.2008  –  15 Beiträge
Plasma für mich besser als LCD?
Philipp139 am 27.05.2009  –  Letzte Antwort am 01.06.2009  –  11 Beiträge
Plasma interessanter als LCD ?
bernd41844 am 10.08.2009  –  Letzte Antwort am 18.08.2009  –  7 Beiträge
Plasma, LCD und ihre Zuverlässigkeit
heco_fan am 01.02.2007  –  Letzte Antwort am 04.02.2007  –  5 Beiträge
LCD,Plasma Preisfall !
NeXatron am 09.05.2008  –  Letzte Antwort am 13.05.2008  –  3 Beiträge
Wo Reaktionszeit theoretisch besser: Plasma oder LCD?
DeathDuck am 19.10.2007  –  Letzte Antwort am 20.10.2008  –  9 Beiträge
Neuanschaffung - Plasma/LCD - Luxusproblem
Mark_XX am 25.03.2008  –  Letzte Antwort am 25.03.2008  –  2 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder927.564 ( Heute: 2 )
  • Neuestes MitgliedTlttDeame
  • Gesamtzahl an Themen1.555.929
  • Gesamtzahl an Beiträgen21.648.669