Gehe zu Seite: |vorherige| Erste . 5 6 7 8 9 10 11 12 13 14 . 20 . 30 . 40 . 50 . Letzte |nächste|

720p bei ARD und ZDF, warum eigentlich?

+A -A
Autor
Beitrag
ruedi01
Gesperrt
#401 erstellt: 05. Feb 2009, 12:00
@trancemeister:


Soll das ein Witz sein? Das sind ~11Mio Farben


8 Bit sind m.Wissens ein paar hundert Farben. Wenn Du jetzt noch irgendwelche Helligkeitswerte ('abgl. Helligkeit') mit hinzu nimmst...was machst Du da für eine komische Rechnung auf?!?

Das ist zumindest missverständlich ausgedrückt..

@Mitglied1

Du glaubst doch nicht, dass ich auf so ein Sammelsurium von Allgemeinplätzen, unterschwelligen Beleidigungen und aus dem Zusammenhang gerissener Behauptungen eingehen werde?!?

Gruß

RD
trancemeister
Inventar
#402 erstellt: 05. Feb 2009, 12:15

ruedi01 schrieb:
@trancemeister:
8 Bit sind m.Wissens....

Genau darum bitte ich doch seit geraumer Zeit: Klopf bitte Dein Wissen ab!
Bei diversen Punkten bist Du ja nun tüchtig zurück gerudert - weiter so!
Am Ende ist das für uns alle einfach nur gut - auch für dich!
Das Forum kann von jeder ausgeräumten Fehlinformation nur profitieren!

Du brauchst mir auch alles nicht blind glauben: Überprüfe es doch einfach!
Das meiste ist elemantares Grundwissen!

Und nur um mal einen weiteren kleinen Irrtum auszugleichen:

ruedi01 schrieb:

Das unterscheidet einen Plasma von allen anderen gängigen bildgebenden Technologien, wo die einzlnen Grundfarben immer als dedizierte Subpixel zu erkennen sind. Ist das jetzt klar?!?

Wie ist denn das zum Beispiel beim ganz normalen DLP
Oder ist das plötzlich keine gängige bildgebenden Technologie mehr?

Deine Reaktion auf Mitglied1 finde ich übrigens äusserst ungeschickt....


[Beitrag von trancemeister am 05. Feb 2009, 12:17 bearbeitet]
ruedi01
Gesperrt
#403 erstellt: 05. Feb 2009, 12:32
@trancemeister

8 Bit Farbtiefe wären 2 hoch 8 Farben, also 256 darstellbare Farben...

Wenn Du aber über 8 Bit RGB sprichst sind es unbedeutend mehr, nämlich fast 17 Mio...

Du musst also schon präzise Angaben machen, damit Dich ein anderer verstehen kann.

Und meinst Du ich habe diese Zahlen im Kopf? Ich kenne die Verhältnisse, nicht aber die genauen Werte, wozu auch...?!?


Bei diversen Punkten bist Du ja nun tüchtig zurück gerudert - weiter so!


Wo habe ich zurückgerudert? Ich habe lediglich das von mir verbreitete Missverständnis aus der Welt geräumt, der Plasma würde gänzlich ohne Additive Farbmischung arbeiten. Da habe ich mich tatsächlich unrichtig ausgedrückt.

Leider ist es doch wohl eher so, Dass Du Dich meinen Einwänden gegenüber fortgesetzt ignorant gegenüber zeigst.

Deshalb nochmal meine Frage, warum wohl besitzen hochwertige Bildquellgeräte mit digitalem Ausgang die Möglichkeit den Farbraum an das jeweilige bildgebende Gerät anzupassen?!?


Wie ist denn das zum Beispiel beim ganz normalen DLP


...OK, DLP und ILA habe ich auch vergessen, mea culpa...

und was den anderen Kollengen betrifft, wenn da was substanzielle kommt, ich glaube ja nicht mehr dran, wann werde ich mich sicherlich 'geschickter' anstellen. So aber wäre das ein Muster ohne Wert.

Gruß

RD


[Beitrag von ruedi01 am 05. Feb 2009, 12:33 bearbeitet]
Passat
Inventar
#404 erstellt: 05. Feb 2009, 12:37
8 bit pro Grundfarbe!

Das sind 256 Helligkeitsabstufungen pro Farbe.
Da wir 3 Grundfarben haben, sind 256 x 256 x 256 = 16.777.216 Farben darstellbar.

Grüsse
Roman
davidcl0nel
Inventar
#405 erstellt: 05. Feb 2009, 12:37
Video wird geteilt in Luminanz und 2 Chrominanz, bei beiden sind die Bereiche in der Regel beschnitten auf 16-235, macht 220 Abstufungen pro Wert. 220^3 macht was?
Passat
Inventar
#406 erstellt: 05. Feb 2009, 12:39
OK, nehmen wir 220, dann landen wir bei 10.648.000 Farben.

Im Übrigen:
Was haben diese Diskussionen mit ARD und ZDF zu tun?

Grüsse
Roman
ruedi01
Gesperrt
#407 erstellt: 05. Feb 2009, 12:43
...warum macht ihr es euch so kompliziert, steht doch alles hier:

http://de.wikipedia.org/wiki/Farbtiefe_(Computergrafik)

Und da lese ich was von: 8 Bit gleich 256 Farben. So kenne ich das seit einiger Zeit....

Wenn man was anderes angibt, dann muss man den jeweiligen Farbraum (z.B. RGB mit angeben).

OK, mein Fachgebiet ist das nicht. Damit gleich schon mal alle Diskussionen von vorne herein verstummen...

Immerhin weiß ich so viel...

Gruß

RD
trancemeister
Inventar
#408 erstellt: 05. Feb 2009, 12:45
Hallo nochmal

ruedi01 schrieb:
@trancemeister
8 Bit Farbtiefe wären 2 hoch 8 Farben, also 256 darstellbare Farben...

Wenn Du aber über 8 Bit RGB sprichst sind es unbedeutend mehr, nämlich fast 17 Mio..

Laß mich doch nochmal Revue passieren lassen was ich schrieb:

Bisherige Quellen haben gerade mal etwa 220 Stufen pro Grundfarbe (8Bit abzgl Helligkeit).

"abzgl" bedeutet übrigens abzüglich! "Pro Grundfarbe" bedeutet 220x220x220=~11Mio!

Ich zitiere aus http://www.bluray-disc.de/lexikon/farbtiefe :
Auf der DVD und Blu-ray wird das Farbmodell YCbCr zur Farbcodierung verwendet, wo von diesen 256 Zuständen je Grundfarbe jeweils 32 für digitale Anpassungen reserviert wurden. Jedes Display benötigt einen solchen Headroom z.B. für die Skalierung des Bildes auf die physische Auflösung. Daraus ergeben sich theoretisch mit 224 hoch 3 immer noch über 11 Millionen darstellbare "Farben". Allerdings wird bei dieser Angabe gerne vergessen, dass in diesen "Farben" jeweils auch die Gesamthelligkeit eines Bildes versteckt ist, was tatsächlich nur 224 echten Graustufen (einmal Farbtiefe) entspricht.

Das war für dich unmöglich zu erfahren, nachdem ich das so genau vorgegeben habe?
Steck doch mal die Energie in LESEN statt weiterhin sowas zu schreiben


ruedi01 schrieb:
Wenn man was anderes angibt, dann muss man den jeweiligen Farbraum (z.B. RGB mit angeben)

Bereits beim Beitrag http://www.hifi-forum.de/index.php?action=browseT&forum_id=124&thread=3318&postID=385#385
verwies ich dich dringend auf das Thema Farbmodell YCbCr - der Herr war sich aber zu fein zum lesen!
Das ist übrigens nichts "anderes" sondern das einzig richtige!

Plagt dich wirklich nicht der geringste Zweifel bei deinen Aussagen?
Das ist doch inzwischen ausserordentlich peinlich für Dich!
Leider werde ich dadurch wirklich künstlich zum Oberlehrer gemacht

Und auf Deine Frage

ruedi01 schrieb:

Und meinst Du ich habe diese Zahlen im Kopf? Ich kenne die Verhältnisse, nicht aber die genauen Werte, wozu auch...?!?

kann ich nur Antworten: Ja, Man sollte schon wissen wovon man redet.
Ich tue es jedenfalls!

Viele Milliarden Grüße


[Beitrag von trancemeister am 05. Feb 2009, 13:00 bearbeitet]
ruedi01
Gesperrt
#409 erstellt: 05. Feb 2009, 12:58
@trancemeister

...aha, jetzt kommst Du also tatsächlich mit dem heraus, was Du meinst?


Auf der DVD und Blu-ray wird das Farbmodell YCbCr zur Farbcodierung verwendet


...ach, sach an. ..Was meinst Du wohl warum ich ständig darauf verweise, dass das Quellgerät eine entsprechende Einstellung im Grundmenü für die Ausgabeeigenschaften haben muss?!?

Und dass man natürlich hier die entsprechende Einstellung vornehmen muss...sonst braucht man sich über Solarisation und ähnliche unschöne Effekte nicht zu wundern....


Plagt dich wirklich nicht der geringste Zweifel bei deinen Aussagen?


Der einzige Zweifel, der mich seit geraumer Zeit plagt ist der, dass Du hier vollkommen an meinen Argumenten vorbei läufst...

Gruß

RD
trancemeister
Inventar
#410 erstellt: 05. Feb 2009, 13:02
Nochmals:
Bereits beim Beitrag http://www.hifi-foru...=3318&postID=385#385
verwies ich dich dringend auf das Thema Farbmodell YCbCr - der Herr war sich aber zu fein zum lesen!
Das ist übrigens nichts "anderes" sondern das einzig richtige!
Andere haben es aber ja verstanden bzw. selbst errechnet.


[Beitrag von trancemeister am 05. Feb 2009, 13:06 bearbeitet]
ruedi01
Gesperrt
#411 erstellt: 05. Feb 2009, 13:12
...nochmal, auf diese Dinge habe ich hingewiesen:

Ein Plasma (oder sonst ein bildgebendes Gerät!) kann kein anständiges Bild - genauer gesagt 'richtige' Farben - machen, wenn das Quellgerät kein entsprechendes Signal liefert...

Darum geht es mir.

Solarisation oder sonstige Farbfehler sind heutzutage kein Zeichen eines mangelhaften Bildgerätes. Sondern einer mangelhaften (oder falsch eingestellen) Quelle.

An mehrern praktischen Beispiel kann ich das zumindest sehr klar erkennen.

Humax PR-HD1000 macht Solarisations und liefert in dunklen Bereichen wenig Durchzeichnung. Gleichermaßen auf Samsung LCD und Pioneer Plasma.

Humax iCord kennt diese Probleme nicht. Wobei man bei beiden Geräten den Farbraum nicht einstellen kann. Offenbar ist beim iCord dieser Wert von vorne herein korrekt eingestellt, bei dem anderen nicht.

bei der Sony PS3 und beim Marantz DV7600 lässt sich das alles korrekt einstellen, entsprechend gibt es keine Probleme.

Ich verlasse mich halt nicht bloß auf nacktes theoretisches Wissen....

Gruß

RD


[Beitrag von ruedi01 am 05. Feb 2009, 13:14 bearbeitet]
lumi1
Hat sich gelöscht
#412 erstellt: 05. Feb 2009, 13:20
Ihr zwei........

Eigentlich hatte ich ein anderes Post "verfasst", aber macht erstmal ruhig weiter.
Sonst vertragt ihr euch, ruedi und trancemeister, und ich bekomm von euch vereint die Knüppel.


Ich "verrat´" nur soviel........
Farbfehler macht JEDES "moderne" Verfahren, ob Plasma,LCD,DLP,Lcos,Dila,......

Und goldig wie ihr "objektiv" vergleicht, obwohl das schon auf Grund unterschiedlichstem Equipment, was MEILENWEIT von Neutralität entfernt ist, unmöglich ist.
So, ich bin erstmal weiterhin still und geniesse....


MfG.
trancemeister
Inventar
#413 erstellt: 05. Feb 2009, 13:22
Mach ruhig lumi!
Nachdem sich nun komplett aus dem Thema gewunden wurde kannst Du gerne übernehmen
ruedi01
Gesperrt
#414 erstellt: 05. Feb 2009, 13:28
@lumi

...schön, dass Du Dich mal meldest!


Und goldig wie ihr "objektiv" vergleicht, obwohl das schon auf Grund unterschiedlichstem Equipment, was MEILENWEIT von Neutralität entfernt ist, unmöglich ist.


BTW, mein Plasma ist kalibriert.

Aber es stimmt schon, absolute Neutralität ist nur ein Näherungswert. Aber das gilt ja nicht nur für Bildverfahren und -geräte....

Gruß

RD
waldixx
Inventar
#415 erstellt: 05. Feb 2009, 14:36
ruedi und trancemeister: Müsst ihr garnicht arbeiten...?
ruedi01
Gesperrt
#416 erstellt: 05. Feb 2009, 14:48
....schon mal was von Multitasking gehört?

Gruß

RD
Arndt111
Inventar
#417 erstellt: 05. Feb 2009, 15:07

ruedi01 schrieb:

Was zählt, ist das Ergebnis. Und da ist es nun mal so, dass lediglich die aufwendigsten und teuersten LCDs mit einem guten Plasma einigermaßen mithalten können. Mehr aber auch nicht.

In Sachen Kontrast, Farbtreue und Reaktionsgeschwindigkeit ist nach wie vor die Plasmatechnik jeder anderen verfügbaren Technik überlegen. Wer Augen hat zum Sehen, der sehe! :



...diese Art von Pauschalisierung ist nicht nur bedenklich, sondern entspricht auch schlicht nicht der Wahrheit!

Es ist zwar nachvollziehbar und entspricht auch durchaus der menschlichen Natur, die grauen Zellen durch Schubladendenken vor zuviel "Arbeit" zu schützen, nur hat das selten etwas mit der Realität zu tun.
Selbst wenn ein Plasma tatsächlich in der Lage wäre, unter allen Umständen das bessere Bild zu machen, was hätte man davon, wenn sich am Ende ständig irgendwelche Dinge im Display spiegeln würden oder von eingebrannten Effekten früherer Nutzungssünden überlagert werden?

Grundsätzlich hat diese Diskussion auch kaum etwas mit dem Titelthema zu tun.

Aber um das Thema vielleicht für eine Weile beenden zu können folgendes "Friedensangebot" an alle Lager:
Egal ob Plasma, LCD, Röhre, Beamer - alle haben mehr oder weniger Ihre Daseinsberechtigung, welche Bildschirmtechnik idealerweise zur Anwendung kommen sollte, bestimmen immer die vorhandenen Rahmenbedingungen, wie z.B.
(nicht nach Priorität geordnet)

-Beleuchtungsverhältnisse?
-Verwendungszweck?
-Designvorstellungen?
-Platzverhältnisse?
-Mobilität?
-Sitzabstand?
-Wieviele Personen schauen gleichzeitig?
-tägliche Nutzungsdauer?
-PC Nutzung?
-finanzieller Spielraum
-Betriebskosten?

Aber, selbst innerhalb von ein und derselben Technologie sind die Unterschiede zwischen den Geräten mitunter gewaltig.
Am Ende muss jeder für sich selbst den besten Kompromiss finden! Da es jedoch noch nicht die absolut perfekt Technologie gibt, wird dieser immer mehr oder weniger groß ausfallen.


Grüße
Arndt111


[Beitrag von Arndt111 am 05. Feb 2009, 15:49 bearbeitet]
snowman4
Hat sich gelöscht
#418 erstellt: 05. Feb 2009, 15:12
Ich glaube ob Plasma oder LCD das Richtig ist, muss jeder selber entscheiden.

Pro und Contra gibt es bei beiden Systemen.
ruedi01
Gesperrt
#419 erstellt: 05. Feb 2009, 15:33
Arndt schrieb:


...diese Art von Pauschalisierung ist nicht nur bedenklich, sondern entspricht auch schlicht nicht der Wahrheit!


Dann zeige mir mal einen einzigen LCD, der in Sachen Bildqualität mit einem Kuro mithalten kann....ich habe noch keinen gesehen, und ich habe schon einige gesehen...


Aber, selbst innerhalb von ein und derselben Technologie sind die Unterschiede zwischen den Geräten mitunter gewaltig.


Das ist allerdings richtig. Und es gibt mittlerweile auch richtig ordentliche LCDs. Die sind aber nicht für deutlich unter 1000 € zu bekommen. Die großen Bravias sind schon richtig gut...

Pioneer bietet jetzt auch LCD-TVs an. Die stehen im Laden von meinem Bekannten direkt neben den Plasmas (direkter Vergleich möglich!). Auch diese LCDs sind den meisten billigen Toshis und Samsungs deutlich überlegen, könnten aber den Plasmas aus gleichem Hause das Wasser doch nicht ganz reichen...

Man sieht es letztlich immer nur im direkten Vergleich, das selbe Material, vom selben Zuspieler und beide Bildschirme nebeneinander. Wer meint, es gäbe einen einzigen LCD, der schwarz darstellen könnte, der hat noch keinen Kuro Plasma gesehen....und selbst der macht es noch nicht perfekt, nur besser, als jeder LCD...

Gruß

RD


[Beitrag von ruedi01 am 05. Feb 2009, 15:38 bearbeitet]
Arndt111
Inventar
#420 erstellt: 05. Feb 2009, 15:55
...vielleicht solltest Du meinen letzten Beitrag einfach noch einmal lesen, dann nachdenken und dann schreiben!

...was nützt das perfekte Schwarz eines Kuro, wenn ich überwiegend tagsüber in einem gut ausgeleuchteten Raum sehen will?? Unter diesen Umständen sieht das Bild (weil besser erkennbar) auf jedem vernünftigen LCD mit mattem Display besser aus, als auf so einem Wohnzimmerspiegel - der Schwarz-Vorteil ist so irrelevant!


[Beitrag von Arndt111 am 05. Feb 2009, 16:00 bearbeitet]
ruedi01
Gesperrt
#421 erstellt: 05. Feb 2009, 16:05
Arndt schrieb:


...was nützt das perfekte Schwarz eines Kuro, wenn ich überwiegend tagsüber in einem gut ausgeleuchteten Raum sehen will?? Unter diesen Umständen sieht das Bild auf jedem vernünftigen LCD besser aus, als auf so einem Wohnzimmerspiegel und der Schwarz-Vorteil wird irrelevant!


Wie ich sehe, hast Du Dir die Kuros noch nicht näher angesehen.

Die Pioneer Plasmas (nicht erst seit der Kuro Serie) besitzen die beste Entspiegelung, die man bekommen kann. Dagegen ist das Glare-Type Panel meises Notebooks der reinste Schminkspiegel.

Mein Fernseher läuft auch nicht in einem abgedunkelten Raum, sondern in einem ganz normalen Wohnzimmer. Da spiegelt trotz Hochglanz praktisch nichts.

Einen Haken hat die ganze Sache allerdings. Während ich meinen Samsung LCD mit irgend einem x-beliebigen Putzfeudel feucht wischen kann, muss ich den Pio mit 'Samthandschuhen' reinigen, sonst hinterlässt das sofort üble Streifen, wenn man Pech hat sogar irreparable Kratzer auf dem Display. Ein spezielles Putztuch und ein entsprechend fetter Warnhinweis liegt dem Gerät bei....

Gruß

RD


[Beitrag von ruedi01 am 05. Feb 2009, 16:05 bearbeitet]
Mitglied1
Stammgast
#422 erstellt: 05. Feb 2009, 16:10

ruedi01 schrieb:
Du glaubst doch nicht, dass ich auf so ein Sammelsurium von Allgemeinplätzen, unterschwelligen Beleidigungen und aus dem Zusammenhang gerissener Behauptungen eingehen werde?!?
Warum soll ich es erwarten?
Ich habe lediglich Deine Behauptungen kommentiert. Die Zusammensetzung ist ganz offensichtlich und bedarf keines Kommentars von Dir.
Bis auf das letzte Zitat, das ein Beispiel für eine von Dir in Raum gestellte Behauptung ist, die auf Halbwissen deutet, sind es aus einem Beitrag zitierte Sätze.

ruedi01 schrieb:
... wenn da was substanzielle kommt...
Ich werde mein Diplom nicht einscannen, um ihn im Forum zu veröffentlichen.
Ich werde auch nicht die von mir geschriebene Firmware meines Fernsehers veröffentlichen, damit Du sehen kannst, dass ein HD-ready LCD-TV 1:1 Pixel Mapping auf seiner 1280×720 Pixelfläche in sog. Computermodus realisieren kann.

Wenn ich "Bildaufbau-Algorithmen" schreibe, dann versuche ich damit einen Anreiz zum Lesen zu schaffen (z.B. über Farbmodelle), um später überflüssige Diskussionen, die Du anzettelst, zu vermeiden.

Viele Grüße
Mitglied
ruedi01
Gesperrt
#423 erstellt: 05. Feb 2009, 16:23
Mitglied schrieb:


Ich werde auch nicht die von mir geschriebene Firmware meines Fernsehers veröffentlichen, damit Du sehen kannst, dass ein HD-ready LCD-TV 1:1 Pixel Mapping auf seiner 1280×720 Pixelfläche in sog. Computermodus realisieren kann.


Junge Junge, da hast Du ja wieder etwas gründlich missverstanden...

Meine Frage zielte darauf ab, warum HD-ready Fernseher nicht über ein Panel mit einer nativen Auflösung von 1280 x 720 Pixeln verfügen (also genau gem. dem 720p Format) sondern idR. über das mit keiner Norm kompatible Format 1366 x 768...

BTW. mein popeliger Samsung LCD macht, per VGA an den Rechner angeschlossen genau das, pixelgenaue Ausgabe aller Bildformate, die kleiner sind, als seine native Auflösung... man braucht dazu keine spezielle selbst geschriebene Software, man muss nur wissen, welcher Fernseher das kann und sich dann für den richtigen entscheiden, im Zweifel einfach beim Kauf das Notebook mitnehmen und anschließen.

Und das mir jetzt bitte keiner mit der Behauptung kommt, 'mein Samsung macht das aber nicht'... Leider gilt das nicht für alle Samsungs. Genausowenig wie es umgekehrt für alle Toshis gilt, das nicht zu können, die meisten Toshis kommen tatsächlich nicht gut mit PC-Bildsignalen klar, aber in einer der letzten c't Ausgaben wurde ein Toshi diesbezüglich sehr gut bewertet.....

Gruß

RD
Mitglied1
Stammgast
#424 erstellt: 05. Feb 2009, 19:30

ruedi01 schrieb:
Junge Junge, da hast Du ja wieder etwas gründlich missverstanden...
Nein, Du hast wieder etwas missverstanden.
Die meisten bzw. fast alle oder ggf. alle Fernseher skalieren. Ob wirklich alle Fernseher skalieren, weiß ich nicht und es interessiert mich eigentlich (noch, solange ich keinen kaufen will) nicht. Meinen habe ich allerdings selbst gebaut und programmiert und kann 1:1 Pixel Mapping beim Fernsehen ein- und ausschalten bzw. Overscan aus- und einschalten. Es nennt sich bei mir "Computermodus".
Die abweichenden Auflösungen (meistens 1366×768) sind deshalb unbedeutend, weil es andere Faktoren gibt, die wesentlich wichtiger für die Bildqualität sind:
1. Kontrastverhältnis;
2. Farbsättigung;
3. Farbtreue.
Auch wenn man die Massenfertigungsabläufe nicht nachvollziehen kann, verbinden die meisten (geistig gesunden) Anbieter HDTV mit 1080i. Die HD-ready Geräte müssen demzufolge sowieso das Bild komprimieren und die Hersteller können gleichzeitig behaupten, dass mehr Pixel dafür besser sind.

ruedi01 schrieb:
... mein popeliger Samsung LCD macht, per VGA an den Rechner angeschlossen genau das, pixelgenaue Ausgabe aller Bildformate, die kleiner sind, als seine native Auflösung...
Es hat mit dem Fernseher nichts zu tun, es ist lediglich die Unzulänglichkeit der EDID-Verbindung und betrifft die Kommunikation Monitor-Grafikkarte. Wenn man die native Auflösung kennt, kann man EDID unterbinden und den richtigen Wert selbst einstellen. Dazu könnte unter Umständen eine spezielle Software (nicht zu verwechseln mit der Firmware des Fernsehers/Monitors) notwendig sein.

Viele Grüße
Mitglied
ruedi01
Gesperrt
#425 erstellt: 05. Feb 2009, 19:53
...es geht doch mit einer vernünftigen Info...

Was das Overscan angeht, da verstehe ich die Hersteller nicht, was das im digitalen Zeitalter bei einem LCD oder Plasma noch für einen Zweck haben sollte. Leider macht das aber das Gros der Hersteller immer noch so.


Die abweichenden Auflösungen (meistens 1366×768) sind deshalb unbedeutend, weil es andere Faktoren gibt, die wesentlich wichtiger für die Bildqualität sind:


Als gänzlich unbedeutend würde ich das nicht bezeichnen. Füttere ich meinen Samsung via DVI oder VGA mit mit einem 1280 X 720 Pixel vom PC (DVD mit PowerDVD abgespielt) bleibt zwar rechts und links, sowie oben und unten ein schmaler Streifen, weil auf dem 1366 x 768 Pixeln Display eben nur 1280 x 720 Pixel tatsächlich genutzt werden aber die Bildqualität ist aller erste Sahne. Der Videoprozessor muss nicht arbeiten, weil der Fernseher einfach 1:1 das Bild ausgibt. Es entstehen null Artefakte, da es keine Skalierung gibt.

Warum dann also nicht gleich ein Display mit 1280 x 720 Pixeln?!?


Es hat mit dem Fernseher nichts zu tun, es ist lediglich die Unzulänglichkeit der EDID-Verbindung und betrifft die Kommunikation Monitor-Grafikkarte. Wenn man die native Auflösung kennt, kann man EDID unterbinden und den richtigen Wert selbst einstellen. Dazu könnte unter Umständen eine spezielle Software (nicht zu verwechseln mit der Firmware des Fernsehers/Monitors) notwendig sein.


...Du meinst PowerStrip?!?

Gruß

RD
Mitglied1
Stammgast
#426 erstellt: 05. Feb 2009, 20:15

ruedi01 schrieb:
... Samsung via DVI oder VGA mit mit einem ... PC...
Macht Dein Samsung keine Unterschiede zwischen DVI und D-Sub?

ruedi01 schrieb:
Du meinst PowerStrip?
Nicht unbedingt! CCC von ATI sollte es auch können.
flat_D
Inventar
#427 erstellt: 06. Feb 2009, 02:47

ruedi01 schrieb:
...es geht doch mit einer vernünftigen Info...

Was das Overscan angeht, da verstehe ich die Hersteller nicht, was das im digitalen Zeitalter bei einem LCD oder Plasma noch für einen Zweck haben sollte. Leider macht das aber das Gros der Hersteller immer noch so.


Die abweichenden Auflösungen (meistens 1366×768) sind deshalb unbedeutend, weil es andere Faktoren gibt, die wesentlich wichtiger für die Bildqualität sind:


Als gänzlich unbedeutend würde ich das nicht bezeichnen. Füttere ich meinen Samsung via DVI oder VGA mit mit einem 1280 X 720 Pixel vom PC (DVD mit PowerDVD abgespielt) bleibt zwar rechts und links, sowie oben und unten ein schmaler Streifen, weil auf dem 1366 x 768 Pixeln Display eben nur 1280 x 720 Pixel tatsächlich genutzt werden aber die Bildqualität ist aller erste Sahne. Der Videoprozessor muss nicht arbeiten, weil der Fernseher einfach 1:1 das Bild ausgibt. Es entstehen null Artefakte, da es keine Skalierung gibt.

Warum dann also nicht gleich ein Display mit 1280 x 720 Pixeln?!?


Es hat mit dem Fernseher nichts zu tun, es ist lediglich die Unzulänglichkeit der EDID-Verbindung und betrifft die Kommunikation Monitor-Grafikkarte. Wenn man die native Auflösung kennt, kann man EDID unterbinden und den richtigen Wert selbst einstellen. Dazu könnte unter Umständen eine spezielle Software (nicht zu verwechseln mit der Firmware des Fernsehers/Monitors) notwendig sein.


...Du meinst PowerStrip?!?

Gruß

RD


Hallo ruedi,

früher hatte ich auch solche Überlegungen angestellt, wie Du. Warum 768er Panels? Warum Overscan? usw. Leider habe ich in letzter Zeit massive Zweifel an diesen ganzen Theorien bekommen. Gerade die aktuellen FullHDs der Mittelklasse (46" für 1800,-€, 52" für 2200,-€) und alle darunter sowieso haben unglaubliche Schwierigkeiten mit der korrekten Darstellung von HDTV. Auch und besonders von 1080i und sogar, man glaubt es kaum, von zuvor mundgerecht aufbereitetem 1080p60. Das Bild ist meist überzogen von Kompressionsartefakten und Macroblocking, sowohl bei Premiere HD und Discovery HD, als auch bei Astra HD+. All das sieht auf meinem betagten HDready mit nur 768er Panel auch ohne den externen Scaler wesentlich besser, fehlerfreier und sogar schärfer aus, trotz interner Skalierung. Warum das so ist, kann ich nur mutmaßen. Ich tippe auf schlechte (billige) Videoelektronik in den neuen TVs, die beim Decodieren diese Artefakte verursacht. Offenbar sind die kleinen (billigen) Decoderchips mit der Datenmenge von 50 Hz mal 2 Megapixeln mal 3 Grundfarben = 300 Megapixel/sek. hoffnungslos überfordert und deshalb wird vermutlich intern im TV eine Art Kompression angewandt, um die Datenmenge zu reduzieren, die dann diese Artefakte hervorruft. Ich habe wirklich intensiv getestet und sogar meinen SAT-Receiver mit eigenen HD-Aufnahmen auf externer Festplatte und auch meinen Scaler mit in den Laden gebracht und dort verschiedene neue FullHDs getestet (excuisite HD-Aufnahmen in 1080i50 mit dem Scaler auf 1080p60 konvertiert). Alle Geräte (fünf verschiedene von vier Herstellern) hatten mehr oder weniger die gleichen Artefakt-Probleme. Ergo sind Overscan und 1:1 Pixelmapping ziemlich zweitrangig, solange nicht erstklassige Videoelektronik verbaut ist. Und das Hoch- oder Herunterskalieren bringt nur relativ wenig Schärfeverlust mit sich, viel weniger, als erwartet. Bei SDTV (PAL) sieht es noch schlimmer aus, da hat ein 768er Panel recht große Vorteile ggü. FullHDs. So gesehen war die FullHD-Welle in Verbindung mit dem drastischen Preisverfall ein herber Rückschlag für die Bildqualität. Daher habe ich mich entschieden, daß mein nächster LCD mindestens aus der X-Serie von SONY (evtl. auch 52Z4500) oder vergleichbar von einem anderen Hersteller sein muß, in die die Hersteller auf Grund des relativ hohen Preises eine teure Videosektion einbauen. Da kämen also noch die Pioneer Plasma der 9. Generation (509) oder ein Loewe LCD in Frage, die beide auch sehr gute Bilder zustandebringen. Vom eigentlich favorisierten 52W4500 habe ich aus diesem Grund Abstand genommen.


[Beitrag von flat_D am 06. Feb 2009, 03:01 bearbeitet]
allwonder
Inventar
#428 erstellt: 06. Feb 2009, 06:35
@flat D

Sehr interessanter Bericht!

Das bestätigt meine eigenen Erfahrungen und untermauert
die Vermutung, die ich schon lange habe.

Gruß
allwonder


[Beitrag von allwonder am 06. Feb 2009, 06:39 bearbeitet]
ruedi01
Gesperrt
#429 erstellt: 06. Feb 2009, 08:36
@flat D

Vielen Dank für den Erfahrungsbericht.

Richtig gut kenne ich auch nur die aktuellen Full-HD Plasmas von Pioneer und bin wirklich beeindruckt von deren Bild, besonders von der Full-HD Leistung. Aber auch SD bringen sie mehr als brauchbar rüber.

Deine Vermutung, dass der Videoprozessor der 'billigen' Full-HD LCDs mit der Datenflut überfordert zu sein scheint teile ich. Wenngleich ich hier immer nur einen kleinen Momenteindruck als Erfahrungswert habe.

Das würde dann bedeuten, die Technik ist, zumindest im bezahlbaren Bereich noch vollkommen unausgereift...

Gruß

RD
davidcl0nel
Inventar
#430 erstellt: 06. Feb 2009, 08:45

flat_D schrieb:
Das Bild ist meist überzogen von Kompressionsartefakten und Macroblocking, sowohl bei Premiere HD und Discovery HD, als auch bei Astra HD+. All das sieht auf meinem betagten HDready mit nur 768er Panel auch ohne den externen Scaler wesentlich besser, fehlerfreier und sogar schärfer aus, trotz interner Skalierung. Warum das so ist, kann ich nur mutmaßen. Ich tippe auf schlechte (billige) Videoelektronik in den neuen TVs, die beim Decodieren diese Artefakte verursacht. Offenbar sind die kleinen (billigen) Decoderchips ...


Neeee, die Makroblöcke (die eigentlich schon per Definition durch Deblocking Filter und 4x4 Makroblöcken kleiner bzw unscheibar sein sollten bei H.264) sind aufgrund der zu geringen Datenrate. Hier versuchen die Sender wieder durch "bessere Codectechnologien" zu sparen, in dem sie die Datenrate einfach unter das Minimum senken.
Durch die "Qualitätsoffensive" der ÖR wurde dort die Datenrate ziemlich stark erhöht und seitdem sieht man wirklich selten Artefakte (und wenn dann sind die MPEG2 bedingt bei schnell wechselnden Flächen wie Wasserwellen, wo einfach zuviel geschieht und man viel mehr I-Frames senden müßte) - und das bei einem SD-Bild. Vergleiche mal ARD gegenüber einem Sat1 oder Pro7 im Digital-Paket auf einem großen TV 42+ (noch besser: Die Privaten bei Kabel Deutschland, da werden die Privaten noch mal zusätzlich transcodiert, damit NOCH mehr in den Kabeltransponder passt)
, da sieht man den Unterschied extrem.

Warum es nun besser aussieht, wenn man runterskaliert? Ganz einfach, weil dann aus mehreren Pixeln ein Pixel berechnet wird, und gefiltert wird. Ergebnis ist Schärfeverlust und Informationsverlust, so daß natürlich auch die Artefakt-Kanten nicht mehr so auffallen.

Aber DAS nun als Vorteil darzustellen ist Humbug. Sonst könnte man ja auch Ultra-HD mit 8k x 4k "senden", aber so weit herunterkomprimieren, daß pro Makroblock keine höheren Frequenzanteile außer den Gleichanteil mehr enthalten ist, sprich ein 4x4 Block mit nur einer Farbe. Wenn man das nun auf HD oder HDready oder PAL herunterskaliert, kann man den Informationsgehalt von mehreren Makroblöcken zusammenrechnen und erhält wieder ein "tolles" Bild. Aber hat man was davon, insbesondere von der extrem hohen Auflösung? Nix, außer daß man werben könnte.

Wenn die ÖR eine Datenrate von 6-8 MBit für SD verbrauchen, dann kann es nicht sein, daß einem HD-Inhalt (ja trotz besserem Codec mit H.264 gegenüber MPEG2) plötzlich weniger Datenrate spendiert wird. Das ist kein HD, das ist Murks.
snowman4
Hat sich gelöscht
#431 erstellt: 06. Feb 2009, 09:42
[quote="ruedi01"]...es geht doch mit einer vernünftigen Info...

Was das Overscan angeht, da verstehe ich die Hersteller nicht, was das im digitalen Zeitalter bei einem LCD oder Plasma noch für einen Zweck haben sollte. Leider macht das aber das Gros der Hersteller immer noch so.

[quote]

Ohne Overscan gibt es immer noch Sender bei denen du dann oben eine gestrichelte Linie hast, was nicht sehr schön ist.
trancemeister
Inventar
#432 erstellt: 06. Feb 2009, 09:54
...oder auch seitliche Ränder.
Es gibt auch Filme mit Störungen (Shrek 2 rechter Rand) und Filmformate,
bei denen unerfahrene Benutzer jammern, wenn "trotz 16:9" noch ein leichter Rand ist.
Ein abschaltbarer Overscanbereich ist IMO durchaus sinnvoll!
ruedi01
Gesperrt
#433 erstellt: 06. Feb 2009, 09:57
snowman4 schrieb:


Ohne Overscan gibt es immer noch Sender bei denen du dann oben eine gestrichelte Linie hast, was nicht sehr schön ist.


Bist Du sicher, dass das bei digitalem Empfang immer noch so ist?!?

OK, wenn dieses Relikt aus analoger Vorzeit denn immer noch seine Berechtigung hat. Warum dann nicht bei Bedarf abschaltbar? Bei DVD und Blu-Ray ist Overscan auf jeden Fall hinderlich.

Genauso die Frage, warum kann man nicht einfach jeden LCD Fernseher optimal als PC-Monitor nutzen. Das könnte man auch einfach mit einer kleinen Aktivierung des 'PC-Modus' machen.

Ich denke, das dürfte alles keine Kostenfrage sein.

Gruß

RD
Passat
Inventar
#434 erstellt: 06. Feb 2009, 10:36
Bei welchem Full-HD TV lässt sich denn der Overscan nicht abstellen?

Der entsprechende Menüpunkt heißt zwar je nach Hersteller unterschiedlich, aber ist doch immer da.
Bei Sharp heißt er z.B. "Punkt für Punkt", bei Toshiba heißt er "Exact Scan", etc. etc.

Grüsse
Roman
Mitglied1
Stammgast
#435 erstellt: 06. Feb 2009, 12:27
Das Problem der Verbraucher ist, dass es ihnen ziemlich schwer fällt, daran zu glauben, dass optische Täuschungen viel mehr Gewicht besitzen als die greifbaren Zahlen der technischen Merkmale.
Aus dem gleichen Grund wird z.B. das 1080i Format verachtet.

Man darf auch nicht vergessen, dass die HDTV-Standards auf Methoden basieren, die über 30 Jahre alt sind und die Hersteller eine Reihe von Kompromissen bei der Bildrekonstruktion eingehen müssen. Ein neu formiertes Joint Task Force der SMPTE und EBU hat erst die Suche nach Vorschlägen in "Request for Technology" gestartet.
Bis dahin sollte ein "vernünftiger" Käufer auf das "Erprobte" zurückgreifen.

Zuletzt sollte das GIGO-Prinzip auch nicht vernachlässigt/vergessen werden, insbesondere bei der Darstellung auf größeren Pixelflächen.

Viele Grüße
Mitglied

_________
Ein Sieg für Obama: die Abschaltung des analogen Fernsehens wurde von 17. Februar auf den 12. Juni 2009 verschoben.
snowman4
Hat sich gelöscht
#436 erstellt: 06. Feb 2009, 13:05

ruedi01 schrieb:
snowman4 schrieb:


Ohne Overscan gibt es immer noch Sender bei denen du dann oben eine gestrichelte Linie hast, was nicht sehr schön ist.


Bist Du sicher, dass das bei digitalem Empfang immer noch so ist?!?

OK, wenn dieses Relikt aus analoger Vorzeit denn immer noch seine Berechtigung hat. Warum dann nicht bei Bedarf abschaltbar? Bei DVD und Blu-Ray ist Overscan auf jeden Fall hinderlich.

Genauso die Frage, warum kann man nicht einfach jeden LCD Fernseher optimal als PC-Monitor nutzen. Das könnte man auch einfach mit einer kleinen Aktivierung des 'PC-Modus' machen.

Ich denke, das dürfte alles keine Kostenfrage sein.

PC ist kein Problem, der hat beim TV einen eigenen Eingang.

Gruß

RD


Ja, ist so - sehe ich bei meinem LCD wenn er auf Vollpixel eingestellt ist.


[Beitrag von snowman4 am 06. Feb 2009, 13:06 bearbeitet]
flat_D
Inventar
#437 erstellt: 06. Feb 2009, 15:42

davidcl0nel schrieb:
Neeee, die Makroblöcke (die eigentlich schon per Definition durch Deblocking Filter und 4x4 Makroblöcken kleiner bzw unscheibar sein sollten bei H.264) sind aufgrund der zu geringen Datenrate. Hier versuchen die Sender wieder durch "bessere Codectechnologien" zu sparen, in dem sie die Datenrate einfach unter das Minimum senken.
Durch die "Qualitätsoffensive" der ÖR wurde dort die Datenrate ziemlich stark erhöht und seitdem sieht man wirklich selten Artefakte (und wenn dann sind die MPEG2 bedingt bei schnell wechselnden Flächen wie Wasserwellen, wo einfach zuviel geschieht und man viel mehr I-Frames senden müßte) - und das bei einem SD-Bild. Vergleiche mal ARD gegenüber einem Sat1 oder Pro7 im Digital-Paket auf einem großen TV 42+ (noch besser: Die Privaten bei Kabel Deutschland, da werden die Privaten noch mal zusätzlich transcodiert, damit NOCH mehr in den Kabeltransponder passt)
, da sieht man den Unterschied extrem.

Warum es nun besser aussieht, wenn man runterskaliert? Ganz einfach, weil dann aus mehreren Pixeln ein Pixel berechnet wird, und gefiltert wird. Ergebnis ist Schärfeverlust und Informationsverlust, so daß natürlich auch die Artefakt-Kanten nicht mehr so auffallen.

Aber DAS nun als Vorteil darzustellen ist Humbug. Sonst könnte man ja auch Ultra-HD mit 8k x 4k "senden", aber so weit herunterkomprimieren, daß pro Makroblock keine höheren Frequenzanteile außer den Gleichanteil mehr enthalten ist, sprich ein 4x4 Block mit nur einer Farbe. Wenn man das nun auf HD oder HDready oder PAL herunterskaliert, kann man den Informationsgehalt von mehreren Makroblöcken zusammenrechnen und erhält wieder ein "tolles" Bild. Aber hat man was davon, insbesondere von der extrem hohen Auflösung? Nix, außer daß man werben könnte.

Wenn die ÖR eine Datenrate von 6-8 MBit für SD verbrauchen, dann kann es nicht sein, daß einem HD-Inhalt (ja trotz besserem Codec mit H.264 gegenüber MPEG2) plötzlich weniger Datenrate spendiert wird. Das ist kein HD, das ist Murks.


Alles richtig aber:
Auch und besonders das HD-Bild sieht auf meinem nur HDready (1080i-Eingangssignal) definitiv besser, schärfer und fehlerfreier aus, als auf z.B. dem 40W4500. Das Logo von Discovery HD ist bei mir absolut fehlerfrei, scharf und detailliert, der sich drehende Globus mit jedem Kontinent deutlich zu erkennen. Beim 40W4500 ist es nicht so, da ist der Globus und die Schrift teils mit angefressenen Kanten und Fehlern versehen, der Globus eher matschig und unschärfer. Und das läßt sich eben mit Deinen ganzen Ausführungen nicht mehr erklären.

Hier ein Bild von meinem Fernseher:


Wer ein ähnlich scharfes und fehlerfreies Logo von seinem FullHD machen kann, möge es hier einstellen. Ich möchte gern vergleichen.


[Beitrag von flat_D am 06. Feb 2009, 16:15 bearbeitet]
Mary_1271
Inventar
#438 erstellt: 06. Feb 2009, 17:28

flat_D schrieb:

Wer ein ähnlich scharfes und fehlerfreies Logo von seinem FullHD machen kann, möge es hier einstellen. Ich möchte gern vergleichen.



Hallo

Na ja. Wer sich nicht auskennt, wäre jetzt bei Deinem Bild schockiert! So sieht halt ein Bild aus, wenn es aus der Nahdistanz abfotografiert wird. Für meine Augen ist die Darstellung sauber.

Die Erfahrung mit Full_HDs haben wir mit den Geräten von Bekannten auch schon gemacht. Und dabei muß es nichtmal unbedingt ein Billigheimer sein. Ein Arbeitskollege meines Mannes hatte sich einen Toshiba 46D355 für über 2000,-€ gekauft. Das SD-Bild aus der Nahdistanz war ein Skandal. Als hätte es Doppelkonturen. Erst ab etwa 3,5m Entfernung war es gut. Das sind wir bei unseren TV nicht gewohnt. Da sieht SD aus der Nähe dramatisch besser aus.

Und HD? Nun. Die Premiere_HD-Aufnahmen zeigten dort Fehler, die wir bei unserem Flachmann so noch nie gesehen haben! Merkwürdig.

Jetzt, nachdem das Panel vom TV des Arbeitskollegen "verreckt" ist (wahrscheinlich eine Macke des D355), hat der Kollege ein neues Gerät, einen 46D555 von Toshiba erhalten. Das SD-Bild ist zwar besser, aber die versprochene Revolution mit "Resolution+" ist es trotzdem nicht. (Resolution+ soll laut Toshiba SD-Material HD-ähnlich aussehen lassen)

Bei HD sieht man aber jetzt weniger Fehler bei Premiere_HD Aufnahmen. Vermutlich steckt dort eine verbesserte "Videosektion" drin. Keine Ahnung. Das Bild war jedenfalls knackscharf und ohne Solarisationseffekte wie beim D355.

Die Beobachtungen von "flat_D" sind also nachzuvollziehen. Die oftmals geringe Bitrate z.B. bei Premiere_HD spielt dabei natürlich auch eine Rolle, sollte aber auch nicht überbewertet und als Hauptverursacher eines bescheidenen HD-Bildes angesehen werden.

Liebe Grüße
Mary
Passat
Inventar
#439 erstellt: 06. Feb 2009, 17:32

flat_D schrieb:
Wer ein ähnlich scharfes und fehlerfreies Logo von seinem FullHD machen kann, möge es hier einstellen. Ich möchte gern vergleichen.


Würde ich ja gerne machen, wenn ich denn Premiere abboniert hätte.
Aber so kann ich leider kein Discovery HD sehen.

Grüsse
Roman
allwonder
Inventar
#440 erstellt: 06. Feb 2009, 20:48

Passat schrieb:

flat_D schrieb:
Wer ein ähnlich scharfes und fehlerfreies Logo von seinem FullHD machen kann, möge es hier einstellen. Ich möchte gern vergleichen.


Würde ich ja gerne machen, wenn ich denn Premiere abboniert hätte.
Aber so kann ich leider kein Discovery HD sehen.

Grüsse
Roman


Ist aber auch nicht einfach so ein Bild zu machen.

Habe einen Versuch mit meiner Digi Spielelreflex Camera gemacht und bin erst mal total gescheitert.

Werde es bei Gelegenheit noch mal versuchen.

Gruß
allwonder
allwonder
Inventar
#441 erstellt: 06. Feb 2009, 21:06
Jetzt ist es mir eingefallen, hatte die Camera nicht auf Macro eingestellt.

Deshalb der unscharfe Mischmasch.

Fotografie läuft bei mir nur so am Rande, aber man lernt nie aus.
flat_D
Inventar
#442 erstellt: 06. Feb 2009, 22:24
Das Foto ist eine Macroaufnahme des Senderlogos rechts oben in der Bildecke auf meinem HDready (40V2000), fotografiert mit einer Nikon D40x (10MPixel). Und es zeigt deutlich, daß Discovery HD bei mir ohne Macroblocking und ohne Artefakte um Schriften herum dargestellt wird. Ein so fehlerfreises Bild habe ich bei noch keinem LCD unterhalb der SONY X-Klasse gefunden. Wer einen FullHD findet, bei dem das Logo genau so gut dargestellt wird (oder besser), möge mir das bitte mitteilen, denn ich suche intensiv nach einem 50" FullHD. Vermutlich werde ich mir den Pioneer LX5090H mal genauer ansehen müssen. Der ist viel billiger, als der 55X4500 und offenbar genau so gut.
Mary_1271
Inventar
#443 erstellt: 06. Feb 2009, 23:31

flat_D schrieb:
Vermutlich werde ich mir den Pioneer LX5090H mal genauer ansehen müssen. Der ist viel billiger, als der 55X4500 und offenbar genau so gut.



Hallo

Ja, aber..... Es ist aber sicherlich auch ein 50 Zoll großer Wohnzimmerspiegel! Der LX5090 / 6090 ist bestimmt zurecht der beste Plasma der Welt. Da wir ebenfalls dieses Jahr einen neuen TV kaufen wollen (unser 40 Zoller ist uns zuklein geworden) haben wir auch den LX5090 begutachtet. Das Bild ist wirklich ein Traum, aber die Spiegelung dürfte trotzdem zum K.O.-Kriterium werden. Ich habe einfach keine Lust am Tag die Rolladen runterzuziehen. Der Sony KDL55X4500 kostet zwar im Moment noch min. 4000,-€, aber das dürfte auch das Nonplusultra im LCD-Sektor sein. Außerdem ist er auch noch 5 Zoll größer als der LX5090. Leider bietet er nicht wie der "H" einen eingebauten DVB-S(2) Tuner. Der 5090 eignet sich aber vielleicht eher für das künftige "Spar-HD" der ÖRs.

Liebe Grüße
Mary
ruedi01
Gesperrt
#444 erstellt: 07. Feb 2009, 07:15
...Die Pioneers sind extrem gut entspiegelt, kein Vergleich zu einem Glare-Type Notebook Display...

Aber die Oberfläche ist sehr empfindlich. Da muss man beim Putzen extrem aufpassen, sonst hat man Kratzer im Display...

Gruß

RD
flat_D
Inventar
#445 erstellt: 07. Feb 2009, 23:56
Leider sind die Plasmas der 8. und 9. Generation sehr schwach in der Helligkeit. Besonders helle Flächen werden bestenfalls halb so hell dargestellt, wie auf den LCDs. Das stört mich doch gewaltig. Sehr schade.
SwissSniper
Stammgast
#446 erstellt: 08. Feb 2009, 00:06
Nach dieser Meldung stellt Pioneer die Produktion von Fernsehegeräten ein, von daher würde ich von einem Kauf eines Pioneers abraten.

mfg
flat_D
Inventar
#447 erstellt: 08. Feb 2009, 00:12

SwissSniper schrieb:
Nach dieser Meldung stellt Pioneer die Produktion von Fernsehegeräten ein, von daher würde ich von einem Kauf eines Pioneers abraten.

mfg


Warum? So lange man noch einen bekommt, ist's doch OK. Der Support ist doch trotzdem gewährleistet, schließlich ist Pioneer deswegen ja nicht pleite.
SwissSniper
Stammgast
#448 erstellt: 08. Feb 2009, 00:24

flat_D schrieb:

SwissSniper schrieb:
Nach dieser Meldung stellt Pioneer die Produktion von Fernsehegeräten ein, von daher würde ich von einem Kauf eines Pioneers abraten.

mfg


Warum? So lange man noch einen bekommt, ist's doch OK. Der Support ist doch trotzdem gewährleistet, schließlich ist Pioneer deswegen ja nicht pleite.


Der Support bei Fernseher sieht nach 2 Jahr in etwa so aus:

"kaufen sie sich einen Neuen es lohnt sich nicht dieses Teil zu ersetzten, der Aufwand ist es einfach nicht wert!"

Glaub mir ich weiss wovon ich spreche, mein Bruder arbeitet in dieser Branche!

mfg


[Beitrag von SwissSniper am 08. Feb 2009, 00:27 bearbeitet]
ruedi01
Gesperrt
#449 erstellt: 08. Feb 2009, 08:12
@Swiss

Die Meldung ist leider nicht ganz richtig.

Richtig ist, dass Pioneer und Panasonic zukünftig Plasma-Fernseher gemeinsam entwickeln und produzieren werden.

Plasma-Fernseher der Marke Pioneer wird es also auch zukünftig geben.

flat D schrieb:


Leider sind die Plasmas der 8. und 9. Generation sehr schwach in der Helligkeit. Besonders helle Flächen werden bestenfalls halb so hell dargestellt, wie auf den LCDs. Das stört mich doch gewaltig. Sehr schade.


Dem ist entgegenzuhalten, dass die meisten LCDs werkseitig viel zu hell eingestellt sind. Der ohnehin schon nicht gute Kontrast geht mit dieser Einstellung erst recht den Bach runter und die Farben sind auch durchweg zu kräftig.

Bei meinem Samsung musste ich auch erst mal die Helligkeit und die Farben extrem zurückfahren, damit das Bild erträglich wurde.

Offensichtlich ein 'Knick' in der Optik bei den Koreanern. Habe mir gestern einen Samsung Laser-Farb-Multi-Funktioner gekauft. Bei dem ist das gleiche Phänomen zu beobachten, viel zu kräftige Farben. Aber das kann man ja regeln. Und mein Samsung SyncMaster 245b, das gleiche, erst mal Helligkeit und Farben reduzieren, dann passt's.

Gruß

RD
lumi1
Hat sich gelöscht
#450 erstellt: 08. Feb 2009, 10:09
Moin!


Leider sind die Plasmas der 8. und 9. Generation sehr schwach in der Helligkeit. Besonders helle Flächen werden bestenfalls halb so hell dargestellt, wie auf den LCDs. Das stört mich doch gewaltig. Sehr schade.

Sorry, daß ist klumpaquatsch.
Selbst mein drei Jahre alter LG-Plasma stellt (normal) helle/weiße Flächen im NORMALEN TV/Filmbetrieb dreart hell/kontrastreich dar, daß man bei normaler TV-Umgebungsbeleuchtung fast blind wird, wenn man über 70 in den Parametern geht.
Und ganzflächiges Spitzenweiß ist im erwähnten TV-Alltag so unsinnig und irrelevant, wie ein Lamborghini bei Stop and Go in Milano.

MfG.
snowman4
Hat sich gelöscht
#451 erstellt: 08. Feb 2009, 11:22

ruedi01 schrieb:
@Swiss

Die Meldung ist leider nicht ganz richtig.

Richtig ist, dass Pioneer und Panasonic zukünftig Plasma-Fernseher gemeinsam entwickeln und produzieren werden.

Plasma-Fernseher der Marke Pioneer wird es also auch zukünftig geben.



RD


Ich wäre mir da nicht so sicher - Es steht schon, dass sich Pioneer aus dem TV-Geschäft ausklicken will.
Suche:
Gehe zu Seite: |vorherige| Erste . 5 6 7 8 9 10 11 12 13 14 . 20 . 30 . 40 . 50 . Letzte |nächste|
Das könnte Dich auch interessieren:
Warum sendet ARD und ZDF kein HDTV
jug am 28.09.2007  –  Letzte Antwort am 01.10.2007  –  6 Beiträge
HD-Test ARD ZDF sendet abwechselnd 1080i und 720p!
grooveminister am 07.06.2009  –  Letzte Antwort am 14.06.2009  –  56 Beiträge
Pixelfehler bei ARD (& ZDF?) HD?
blazl am 25.06.2012  –  Letzte Antwort am 29.06.2012  –  17 Beiträge
HDTV Petition, ARD und ZDF
michi79 am 27.09.2007  –  Letzte Antwort am 25.06.2008  –  294 Beiträge
ARD/ZDF zeigen Vierschanzentournee erstmals in HDTV !
joachim06 am 27.12.2010  –  Letzte Antwort am 03.02.2011  –  48 Beiträge
HDTV ARD und ZDF jetzt
Brutzelkarte am 20.01.2008  –  Letzte Antwort am 24.02.2008  –  13 Beiträge
HDTV-Showcases bei ARD und ZDF
moshquito am 24.04.2008  –  Letzte Antwort am 28.04.2008  –  27 Beiträge
HD-Empfang bei ARD und ZDF
Laie-100 am 02.06.2010  –  Letzte Antwort am 03.06.2010  –  35 Beiträge
Voting: Einleitung ARD+ZDF Petition
grooveminister am 20.02.2010  –  Letzte Antwort am 21.02.2010  –  11 Beiträge
Kopierschutz bei ARD/ZDF HD kommt.
joachim06 am 02.01.2011  –  Letzte Antwort am 07.01.2011  –  49 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder927.430 ( Heute: 5 )
  • Neuestes Mitgliedmike85#
  • Gesamtzahl an Themen1.555.634
  • Gesamtzahl an Beiträgen21.642.315