HIFI-FORUM » Fernseher & Beamer » HDTV » Loht das Warten auf 1080 ? | |
|
Loht das Warten auf 1080 ?+A -A |
||||||
Autor |
| |||||
recoursive
Ist häufiger hier |
#1 erstellt: 22. Apr 2006, 18:23 | |||||
Hallo ! Es steht der Kauf eines LCD oder Plasmagerätes an. Dazu hätte ich folgende Frage: Falls irgendwann man in HDTV gesendet wird, wird das dann direkt mit 1080 Zeilen der Fall sein, oder erstmal nur mit 720 ? Es gibt ja nur sehr wenige teure Geräte mit 1080 Zeilen und ich frage mich, ob sich ein Warten lohnt. Mich beschäftigt noch eine weitere Frage: Mittlerweile gibt es Plasmageräte mit dem HD-Ready Logo. Einige wenige bieten eine Auflösung von 1366x768, genau wie die LCD Geräte. Allerdings gibt es auch Plasmas mit einer Auflösung von 1024x768, die natürlich auch das HD-Ready Logo besitzen. Aber es handelt sich nicht mehr um das Seitenverhältnis 16:9, obwohl es meistens dabeisteht. Kann mir das einer erklären ? Vielen Dank ! |
||||||
r2d3
Stammgast |
#2 erstellt: 22. Apr 2006, 18:42 | |||||
Viele Übertragungen werden schon jetzt in der 1080i Norm gesendet. Diese Norm besagt u.A. , dass das Bild sich aus 1080x1920 Pixel zusammensetzt (wie beim 1080p) Hier wird das Bild aber im Gegensatz zur p Variante aus 2 Halbbildern (mit je 540 Zeilen) zusammengesetzt. Das Ergebnis am Bildschirm ist aber gleich 1080x1920 Wäre schon schön, wenn ein Display diese 1080x1920 Pixel auch tatsächlich darstellen könnte. Warten lohnt sich ganz bestimmt, weil sich was die Auflösung betrifft gerade was tut. Vegiss das HDready Logo!!! Das Wesentliche was Dir dieses Logo bietet ist die Sicherheit, dass der Bildschirm mit HDCP geschützten Inhalten fertig wird. Alle anderen technischen Details liegen besser in Deiner Verantwortung. (z.B. für HDready reichen 720 Zeilen ;)) Tipp: Wenn er eine HDMI-Schnittstelle hat hat er auch HDCP Wie Du beschrieben hast gibt es auch Plasmas, die mit einer nativen Auflösung von 768x1024 Auflösung ein 16:9 Bild darstellen. So ein Gerät würde ich Dir nicht empfehlen. Selbst bei der "kleinen" HDTV Auflösung (720p) handelt es sich um ein Bild mit 720x1280Pixel. Da ein solcher Bildschirm aber nur die 4:3 Auflösung von 768x1024 beherscht werden Pixel gelöscht! Es werden also keine 1280 sondern nur 1024 Pixel dargestellt. Diesen Vorgang nennt man auch "runterscalieren" Wenn man jetzt einen 4:3 Bildschirm hätte wäre das Bild seitlich gestaucht. Um das wieder aufzuheben, hat man bei solchen Plasmas einfach die Pixel verbreitert und so das Bild wieder entzerrt. (so kann man auch Qualität vernichten!) Dass so ein Gerät sich HDready nennen darf zeigt was dieses Logo wirklich wert ist. Versuche Dir einen Bildschirm zu kaufen, der die 1080er Auflösung auch tatsächlich darstellen kann. Vergiss aber dabei nicht noch die anderen technischen Details, die auch wichtig sind. Aber gehört das nicht eigentlich woanders hin? Gruß r2d3 PS Ich spekuliere mal, dass sich in ein paar Jahren herausstellt, dass HDCP ein (technischer) Flop war! Warscheinlich geht dann das Spiel wieder mit einem neuen noch besseren Kopierschutz (diesmal aber wirklich sicher) wieder von vorne los. Alle die dann einen Bildschirm mit HDCP gekauft haben können auch weiter damit HDTV sehen nur die haben heute viel, viel Geld dafür bezahlt! Nebenbei bemerkt: DVI ist doch sowieso besser als HDMI [Beitrag von r2d3 am 22. Apr 2006, 20:02 bearbeitet] |
||||||
|
||||||
recoursive
Ist häufiger hier |
#3 erstellt: 22. Apr 2006, 22:51 | |||||
Danke für die ausführliche Antwort! Ein Warten auf Geräte, die 1080 Zeilen darstellen können dauert aber noch recht lange, oder ? Können diese Geräte dann zwangsläufig auch 1080p darstellen, oder muß man dann auch beim Gerät zwischen 1080i und 1080p unterscheiden ? |
||||||
TedStriker
Stammgast |
#4 erstellt: 22. Apr 2006, 23:42 | |||||
Ja muss man. Nicht jedes Gerät, das 1080 Zeilen darstellen kann, ist 1080p fähig. 1080p können derzeit nur wenige erhältliche und meist auch teurere Plasmas bzw. LCDs wiedergeben. |
||||||
r2d3
Stammgast |
#5 erstellt: 23. Apr 2006, 10:33 | |||||
Umgekehrt Eigentlich muss man sagen, dass nicht alle "i" könnten. ("p" ist technisch einfacher, so paradox es klingt) Für "i" muss das Gerät nämlich zusätzlich einen Deinterlacer haben. Die werden aber nicht so blöd sein einen Full HD ohne "i" rauszubringen. Alleine schon deswegen, damit man auch 1080i Material sehen kann. Sonst müsste man auch noch darauf achten, wenns sowas mal geben sollte! Erst als die Flachbildschirme auch für den Fernsehbereich interessant wurden, hat man den "interlaced" Modus für die Dinger entdeckt. http://www.heimkino.net/info/fernseher.html#proginter http://de.wikipedia.org/wiki/De-Interlacing schau auch mal hier: http://www.hifi-foru...um_id=124&thread=634 [Beitrag von r2d3 am 23. Apr 2006, 14:50 bearbeitet] |
||||||
madshi
Inventar |
#6 erstellt: 24. Apr 2006, 11:16 | |||||
Nein, es ist andersrum als andersrum. HD Ready heißt, daß ein Gerät 1080i mit 50Hz und 60Hz annehmen können muß. HD Ready beinhaltet nicht, daß 1080p in irgendeiner Frequenz angenommen werden muß. Das hat zur Folge, daß alle HDTV-tauglichen Geräte problemlos 1080i annehmen und anzeigen können. Jedes Gerät hat einen Deinterlacer für diesen Zweck eingebaut. Natürlich gibt es qualitativ große Unterschiede. Leider gibt es derzeit nur ganz ganz wenige Displays, die auch 1080p überhaupt als Signal akzeptieren und darstellen können. Ich persönlich würde mir ein Display mit echter 1080p-Auflösung nur dann kaufen, wenn es auch 1080p-Signale annehmen kann. Ansonsten ist das ganze etwas paradox. Leider gibt's da im Moment kaum Geräte, die das können (wie gesagt). |
||||||
diba
Inventar |
#7 erstellt: 24. Apr 2006, 11:48 | |||||
@Themenersteller: Mit 3 Sekunden Zeitaufwand für eine Suche hättest du auch das http://www.hifi-foru...ead=479&postID=43#43 gefunden ... |
||||||
r2d3
Stammgast |
#8 erstellt: 24. Apr 2006, 12:49 | |||||
Wer redet denn hier noch von HDready Wir waren mittlerweile bei Geräten die native Full HD Auflösung haben. Da wurde gefragt, ob man darauf achten muss ob die i bzw p haben. Für manche bedeutet p weil es die höchste Qualität und den höchsten Rechenaufwand mit sich zieht gleichzeitig, das es auch um den höchsten technischen Aufwand handelt. Das ist falsch! Im Computerbereich gibt es schon lange Zeit Monitore, die besser sind als TV´s, haben aber keinen Deinterlacer. Die sind aber teurer als TV´s. Technisch gesehen sind die Tv´s sind einfach nur billigere Monitore mit Deinterlacer,den üblichen Schittstellen und Lautsprechern. Erst dadurch, dass die Geräte fit gemacht werden sollten um die im TV-Bereich üblichen i Formate wiederzugeben hat man auch denen dann einen Deinterlacer spendiert! Um auf die Frage von recoursive zurückzukommen. Ich glaube nicht, dass man in Zukunft darauf achten muss. Ich wüsste nämlich nicht warum die "nativen Full HD´s" nur P können sollten, weil die ja als TV angeboten werden und da ist i ja gang und gebe. Und wenn es in dieser Klasse irgendwann ein Gerät geben sollte was aus irgendwelchen Gründen das eine oder das Andere nicht kann (was ich aber bezweifle), würde ich es einfach nicht kaufen. Oder gibts denn etwa "native Full HD´s" die zwar "i" beherschen sich aber bei "p" weigern? Bei denen hätte man die "p" Variante (eingangsseitig) ja bewußt deaktiviert! Bei den heutigen Marketingstrategien mancher Unternehmen würde mich das allerdings auch nicht mehr wundern Ich lasse mich gerne eines Besseren belehren. Dann müsste man natürlich auch darauf achten [Beitrag von r2d3 am 24. Apr 2006, 13:29 bearbeitet] |
||||||
madshi
Inventar |
#9 erstellt: 24. Apr 2006, 13:34 | |||||
Na ich! Es geht mir darum, daß heutzutage praktisch alle halbwegs modernen TV-Geräte HD-Ready sind - und damit 1080i können *müssen*. (Du hattest ja die Fähigkeit, 1080i verarbeiten zu können, infrage gestellt.)
Ja und nein. Ein Display muß nicht mehr viel rechnen, wenn es eine physikalische Auflösung von 1080p hat und ein Signal von 1080p bekommt, soweit ist das richtig. Aber wenn der HDMI-Eingang 1080p akzeptieren können soll, muß die ganze Videoelektronik mit entsprechend hoher Bandbreite klarkommen. Viele in herkömmlichen TVs verwendete HDMI-Receiver-Chips sind dafür aber nicht ausgelegt. 1080i benötigt nur die halbe Bandbreite. Die Erbsenzähler bei den TV-Herstellern haben sich da leider sehr oft durchgesetzt.
Puh, das ist eine ganz schön pauschale Aussage! Wenn Du das auf LCD alleine beziehst, mag das zutreffen. Ansonsten ist das so nicht richtig. Das fängt schon alleine damit an, daß Computer-Monitore in der Regel viel zu klein sind für ordentliches Heimkino-Feeling. Es ist auf jeden Fall Fakt, daß der Großteil der heute erhältlichen TVs mit echter physikalischer 1080p Auflösung *NICHT* in der Lage sind, 1080p über HDMI zu verarbeiten. Das betrifft sowohl LCD-TVs als auch Rückprojektions-TVs usw. Es gibt nur eine Handvoll TVs, die 1080p-Signale verarbeiten können. 95% der heutigen Rückprojektions-TVs und LCD-TVs mit 1080p Auflösung nehmen über HDMI kein 1080p-Signal an! Das denke ich mir nicht aus, das ist so. [Beitrag von madshi am 24. Apr 2006, 13:34 bearbeitet] |
||||||
r2d3
Stammgast |
#10 erstellt: 24. Apr 2006, 14:04 | |||||
Natürlich hast Du recht, das "HDready" Geräte 1080i verarbeiten können. So wie ich aber Dein Fachwissen einschätze würdes Du aber auch nicht auf die Idee kommen, Dich auf dieses Logo zu verlassen und alles selbst checken. Wenn man dann noch checkt ob der 1080i annimmt ist das ja nicht mehr die Welt. ...aber anderes Thema im Gegenteil ich habe die i-Variante nicht angezweifelt, sondern ich habe nur klargestellt, dass Geräte, die diese Variante beherschen technisch aufwändiger sind. Ich habe gleichzeitig gesagt, dass wohl keiner ein Gerät ohne i-Variante anbieten würde "Videoelektronik" hört sich gut an. Im Computerbereich (übrigens meinte ich natürlich die Flachbildschirme) sind weit höhere Auflösung üblich und die haben bessere Reaktionszeiten der Unterschied ist nur das Display, die Elektronik in den TVs ist Steinzeit! Wenn ich dann HDMI höre... Warum ist man nur von der guten DVI-Technik abgerückt? Dass die jetzt auch noch Probleme bei HDMI mit der Bandbreite haben wusste ich noch garnicht. Über diesen Mist kann man natürlich gezielt die P variante ignorieren (Was für ein Schwachsinn) Glaubst Du denn das es die HDMI-Schnittstelle ist, dass manche "nativen Full HD´s" kein progressive unterstützen? |
||||||
madshi
Inventar |
#11 erstellt: 24. Apr 2006, 14:19 | |||||
Jau jau - bevor ich mir ein Display/TV kaufe, lese ich erstmal sämtliche Foren (vor allem UK und USA) rauf und runter, damit ich auch sicher bin, daß ich garantiert das richtige nehme!
Ja, das stimmt. Ich hab mich schon lange gewundert, warum die LCD-TVs nicht alle 1080p sind. In Sachen Reaktionszeit usw holen die TVs aber langsam auf. Die LCD-TVs der nächsten Generation werden schon ganz brauchbar werden.
Ich weiß nicht genau, ob es nur der HDMI-Receiver-Chip ist. Mein Plasma z.B. akzeptiert auch analog glaube ich keine 1080p. Na gut, macht auch nicht soooo viel Sinn, da mein Plasma ja nur 1366x768 Auflösung hat. Ich vermute aber, daß die ganze Videoelektronik-Strecke bis zum Deinterlacer/Scaler hin einfach der Billigkeit halber auf maximal 1080i ausgelegt ist. Glücklicherweise wendet sich das Blatt so langsam. Weil BluRay jetzt groß mit 1080p wirbt, sind plötzlich alle TV-Hersteller am aufrüsten und werden sicher die nächste Generation mit 1080p-Input-Fähigkeiten ausrüsten. HDMI ist ein großer Haufen Sch***rott. Von der Idee her ist es eigentlich gut. Aber die vielen Kompatibilitätsprobleme vor allem mit HDCP usw sind echt eine Plage. Von der Theorie her kann HDMI genauso 1080p übertragen wie DVI das kann. Aber die TV-Hersteller haben halt an allen Ecken und Kanten gespart... |
||||||
r2d3
Stammgast |
#12 erstellt: 24. Apr 2006, 14:35 | |||||
Ich kann zwar nachvollziehen, dass man für den TV-Bereich einen einheitlichen Standart einführen wollte. Wenn man dann aber das Rad gleich nochmal erfindet und es kommt dabei was dreieckiges raus, fehlen mir die Worte. Ich werde einfach die Vermutung nicht los, dass man hier einen Standart einführen will, wo HDCP integriert ist. Alle Nachteile (und an den Hinweis mit der Bandbreite von Dir knabbere ich noch) haben wir dann im wahrsten Sinne des Wortes in Kauf zu nehmen. |
||||||
madshi
Inventar |
#13 erstellt: 24. Apr 2006, 14:45 | |||||
Naja, die ursprüngliche Idee war es, wie bei Scart auch gleich den Sound noch mit zu integrieren. Soweit eigentlich eine gute Idee! Und ohne HDCP wäre es auch praktisch ganz ok geworden.
Kann sein. So ganz sicher bin ich mir nicht, weil DVI ja auch mit HDCP geht, und HDMI geht theoretisch auch ohne HDCP. Aber vielleicht ist an Deiner Vermutung trotzdem was dran.
Jau, so sieht es aus. Naja, das mit der Bandbreite ist nicht die Schuld von HDMI an sich. Da sind hauptsächlich die TV-Hersteller schuld. Es ist ja durchaus möglich, mit HDMI 1080p zu unterstützen. Die TV-Hersteller wollten nur Geld sparen. Ich weiß nicht, ob es anders ausgesehen hätte, wenn sich DVI auch im TV-Bereich durchgesetzt hätte. Möglicherweise hätten die TV-Hersteller da genauso geschlampt! Traue ich denen zumindest durchaus zu... |
||||||
r2d3
Stammgast |
#14 erstellt: 24. Apr 2006, 14:49 | |||||
Eigentlich braucht man doch eh 2 Kabel 1 für das Bild und eins für den Sound. Oder hörst Du etwa über die eingebauten Lautsprecher? [Beitrag von r2d3 am 24. Apr 2006, 21:02 bearbeitet] |
||||||
madshi
Inventar |
#15 erstellt: 24. Apr 2006, 14:58 | |||||
Naja, wenn man ein bißchen in die Zukunft denkt, dann würde ich erwarten, daß es zumindest einen HDTV-Receiver mit HDMI-Ausgang und einen HD-DVD/BluRay-Player mit HDMI-Ausgang geben wird. Womöglich dazu noch einen DVD-Recorder oder so. Dann hätte man schon 3 HDMI-Anschlüsse. Ich glaube nicht, daß irgendein TV so viele HDMI-Eingänge hat. Also muß irgendwo ein HDMI-Umschalter her. Idealerweise könnte das der Heimkino-Verstärker übernehmen. Der könnte sich dann auch gleich aus dem HDMI das Audio rausholen und abspielen. Da könnte man so einiges an Kabeln sparen. Naja, soweit die rosarote Zukunftsphantasie. Leider sieht die Praxis im Moment doch so aus, daß man oft neben dem HDMI-Kabel noch ein weiteres Audio-Kabel verlegt. Tja... |
||||||
Adon0604
Stammgast |
#16 erstellt: 24. Apr 2006, 15:17 | |||||
Mir geht das ganze Gerede mit den verschiedenen Auflösungen langsam auf den Sa..!!! Full-HD macht im Projektbereich oder bei Plasmas ab 47" Zoll Diagonale durchaus Sinn. Aber wenn einer von euch ( vor allem r2d2 ist hier gemeint (bitte nicht persönlich angegriffen fühlen)) bei einer Bildschirmdiagonalen von 42"Zoll und dem dabei üblichen Sitzabstand von 3 bis 4 Meter einen Unterschied zwischen 720p und Full-HD sieht.... Sorry, dann ist das entweder Einbildung und totale Schönrederei oder man hat übermenschlich gute Augen. Denn diesen Unterschied kann das menschliche Auge einfach nicht mehr wahrnehmen. BASTA!!!! Und außerdem bieten gerade jene Plasmas, welche das Bild ja sooo böse auf 1024 x 720 runterscalieren (z.B.: Die Flagschiffe von Pioneer, Panasonic, usw.) und damit ja so viel "Qualität vernichten" das mit Abstand beste Bild (vom Sitzabstand aus gesehen!!!!!!!!!!!) im gesamten Flachbildsektor. Also lieber recoursive... Laß dich nicht verrückt machen. Wenn du nicht gerade die Naße an das Panel drückst und Diagonalen weit über 47"Zoll bevorzugst, dann schau bitte nicht auf die Auflösung sondern auf die Qualität und Technik die drinsteckt. Gruß, Adon0604 |
||||||
madshi
Inventar |
#17 erstellt: 24. Apr 2006, 15:41 | |||||
Also, ich sitze 2,5m von meinem 50" Plasma entfernt. Und mein nächstes Display soll größer werden, weil 50" ist auf die Entfernung einfach zu klein... Von daher ist 1080p für mich schon ein ernsthaftes Thema. |
||||||
paul71
Inventar |
#18 erstellt: 24. Apr 2006, 16:23 | |||||
Jungs ihr muesst in der Diskussion spezifizieren, welches 1080p gemeint ist.. Dieses Format gibt mit 25, 50, 60 fps. Bei 25 fps ist das obige Argument mit der "hochwertigen Videostrecke" obsolet, da nicht mehr Daten uebertragen werden als bei 1080i@50 fps. Sonst ist das Argument auch relativ zweifelhaft, da die existierenden HDMI/DVI transmitter/receiver eigentlich spielend mit 1080p@60 zurechkommen sollten - nehmt die DVI transmitter in einer midrange Graphikkarte, dort ist es doch ueberhaupt kein Thema... Weiterhin ist es zwar fuer ein 1920x1080-Display eigentlich kein Thema ein 1080p Signal darzustellen (zumindest bei nativer refresh-Frequenz), es ist fuer die Elektronik allerdings eine Hoechstleistung alle anderen Signale auf diese Aufloesung umzurechnen. Kurioserweise ist es schon so, dass meines Wissens die wenigsten der verfuegbaren 1080-er screens irgendeins der 1080p-Formate dokumentiert entgegennehmen koennen.. Z.B. bei den Sharps Aquos geht es nur bei direktem Anschluss (Umgehung der Systembox) ans Panel.. Ciao [Beitrag von paul71 am 24. Apr 2006, 16:29 bearbeitet] |
||||||
madshi
Inventar |
#19 erstellt: 24. Apr 2006, 16:44 | |||||
Paul, da hast Du schon recht. Gerade wie Du sagst, die meisten Displays nehmen *keins* der 1080p-Formate an. Deshalb hab ich da jetzt auch nicht groß unterschieden. Bei 1080p24/25 kann es natürlich nicht an der Bandbreite liegen. Ich denke einfach, daß es daran liegt, daß es bisher überhaupt keine Geräte gibt, die 1080p24/25 ausgeben! Nur externe Videoprozessoren tun das (auf Wunsch). Deshalb hat sich wohl bisher kaum ein TV-Hersteller die Mühe gemacht, Unterstützung für 1080p24/25 einzubauen. Könnte sich allerdings ganz schnell mit BluRay ändern. Ich weiß selbst noch nicht genau, ob BluRay denn nun 1080p24 oder 1080p60 ausgeben wird. Lassen wir uns überraschen. P.S: Es gibt übrigens je zwei Verfahren für 1080p mit 24Hz und 25Hz. Es gibt 1080p24, 1080p24sf, 1080p25 und 1080p25sf. Bei den Varianten ohne "sf" werden die Daten wirklich progressiv übertragen. Bei den Varianten mit "sf" werden die Daten interlaced übertragen, aber so, daß jeder genau weiß, welche Halbbilder zusammengehören. |
||||||
paul71
Inventar |
#20 erstellt: 24. Apr 2006, 16:56 | |||||
Yup, aber ich wuerde mir von den 1080p@24/25 fps keine Wunder versprechen... Und ob es "natives" 1080p@50 geben wird hmmmm... Ehrlich gesagt sehe ich den Unterschied bei dem besagten 45-er Sharp nur bei der Anzeige des PC-Desktops oder kuenstlich generierter Animationen. Das ist wirklich viel besser (@60Hz). Und bei nativer refresh Frequenz einfach perfekt. Bei Zuspielung von Film/Video sehe ich beim Abspielen 1080p@25 WMVs kraeftiges Ruckeln (inkompatible frame rates), die 720p@60 WMVs sehen an W-XGA Panels besser aus als an dem Sharp.. Ciao |
||||||
Predator_GER
Stammgast |
#21 erstellt: 24. Apr 2006, 17:37 | |||||
Wegen 1080i/p: Klar gibt es "viele" 1080i Geräte und kaum welche mit 1080p. Aber rein technisch ist es für ein Display einfacher 1080p/25 wiederzugeben als 1080i/50, weil kein Deinterlacer notwendig ist. Nur bei 1080p/50 wirds kritisch, da da unglaubliche Datenmengen fließen |
||||||
r2d3
Stammgast |
#22 erstellt: 24. Apr 2006, 21:19 | |||||
Muss ich doch persönlich nehmen, wenn Du mich benennst. Ich fühle mich aber trotzdem nicht angegriffen Ich seh das nämlich so, und das ist hier wie in anderen Bereichen auch. Die einen Begnügen sich mit einem Auto was 150 Euro kostet und fahren damit 2 Jahre, die anderen stecken Tausende in ihr Auto polieren und verchromen die Ansaugkanäle und meinen das Auto würde besser fahren. Die einen kaufen sich eine Stereoanlage drücken auf den Knopf und hören was, die anderen verlegen Zentimeter dickes Kabe und meinen sie hören besser. Die einen Kaufen sich einen Fernseher für 199 Euro die anderen einen Plasma für 15000 Euro. Die meinen auch sie sehen alles besser. Ich gebe gerne zu, wenn meine Augen in 3 Meter Entfernung nichts mehr sehen gehe ich auch mal bis auf 1,50 Meter ran. So ist halt jeder anders. Und das ist auch gut so!!!! Gruß r2d3 |
||||||
allwonder
Inventar |
#23 erstellt: 24. Apr 2006, 21:48 | |||||
So sehe ich das auch. Der Mehrpreis für einen Full-HD LCD oder Plasma ist bestimmt rausgeschmissenes Geld. Bei einem Full-HD Beamer würde das wohl Sinn machen, steht aber in keinem Verhältnis zum Preis. Also nicht verrückt machen lassen und HD schon jetzt auf einem guten Flachmann genießen. |
||||||
r2d3
Stammgast |
#24 erstellt: 24. Apr 2006, 22:17 | |||||
Stimmt! Die Frage war ja lohnt sich das Warten auf 1080 Ich hab das vielleicht zu sehr auf den technischen Aspekt und meine persönlichen Sehgewohnheiten bezogen. Eigentlich muss vor Allem ersteinmal jeder für sich selbst klären, was für Ansprüche und individuelle Sehgewohnheiten man selbst hat und was die einem dann wert sind. Wenn ich meine Mutter vor einer 10Jahre alten 4:3 Röhre oder einem Full HD 16:9 Plasma setzen würde, würde sie mir warscheinlich nur sagen, das das eine Bild größer und breiter ist, weil sie einfach anders fern sieht. Ich bin da wohl leider etwas teurer mit meinen Anspüchen. Da hat wohl jeder seinen eigenen Preis. [Beitrag von r2d3 am 24. Apr 2006, 22:21 bearbeitet] |
||||||
Centurio81
Inventar |
#25 erstellt: 24. Apr 2006, 22:40 | |||||
Ich vertrete die selbe Meinung von Adon..! Außerdem muss man ja erst mal ein Gerät finden, dass auch die Pixel auf dem Full HD Display perfekt umsetzt.. HD Displays geben ja nicht alle HD gleich wieder..! Die Elektronik ist entscheident und nicht ein paar Pixel mehr oder weniger..! Und wenn man das schon mal in die Gewichtung nimmt, wie will man da sagen dass ein Full HD Display auf jeden Fall ein besseres Bild machen würde als ein "normal" HD DIsplay..?! In der Theorie wohl schon, aber das wird nie perfekt umgesetzt, daher kann man das vergessen.. Und wir wollen doch mal die Kirche im Dorf lassen und unsere Augen nicht überschätzen.. Das Auge kann ab 3-4m gar keinen Unterschied mehr ausmachen zwischen 720p und 1080i. Wo ja noch das Interlaced dazukommT.. -.- Und ich steh jeden Tag vor den Geräten und hab schon unterschiedlichste Geräte gesehen da verkauft, also schon einige Jahre Seherfahrung. Und wer dann meint er sähe da Unterschiede, der sieht höchstens Gespenster. Full HD würde sinn machen, wenn ich den PC dranklemme..Oder bei wesentlich gröéren Bildern..oder echt nah davor sitz..! Sonst NICHT! Geht doch mal in den Laden und schaut mal wie unterschiedlich alleine die verschiedenen Geräte das selbe HD signal wiedergeben..! Egal ob LCD oder Plasma.. So viele Unterschiede zu erkennen was Schärfe angeht. Wer ist denn da so naiv und behauptet: "Ja, 1080i und Full HD Display MUSS auf jeden Fall besser sein..! Ich SEH das!" Wer das glaubt ist verloren, denn er glaubt anderen und den Zeitschriften mehr la seinen Augen, denn nur die zählen..! DAs sind die Kandidaten die sich den neusten 4 GHz PC kaufen fürs gelegentliche Internetsurfen..die 8 Megapixel Kamera für das Weihnachtsfoto und sich gar nicht erst Gedanken machen ob sies überhaupt brauchen.. Und von der Sorte gibt es genug, die lassen sich auch nicht belehren und überzeugen, weil sie alles besser wissen und wir Verkäufer ja alle BÖÖÖÖÖÖSE sind.. Oh Oh.. Gute Nacht.. -.- |
||||||
r2d3
Stammgast |
#26 erstellt: 24. Apr 2006, 22:53 | |||||
Also ich weiss nicht wie es bei Euch aussieht. Ich hab einen PC dran. Und ich glaube auch, das die PC-Technik immer mehr mit diesem Bereich verschmelzen wird. Bei mir ist es zumindest jetzt schon der Fall. |
||||||
allwonder
Inventar |
#27 erstellt: 24. Apr 2006, 23:36 | |||||
Ich habe keinen PC dran, habe davon auch keine Ahnung. Centurio81 hat geschrieben,dass es bei HD Sendungen auf den verschiedenen Schirmen große Qualitäts-Unterschiede gibt. Ich habe einen Industrie-Pana, den es im freien Handel nie gegeben hat. Wahrscheinlich augesuchtes Panel von höchster Güte. Nur so kann ich mir die überragende Bildqualität, die dieses Teil liefert, erklären. Also eine super Auflösung, die auf dem Papier steht, macht noch lange keinen super Plasma. In diesem Sinne... Gute Nacht |
||||||
r2d3
Stammgast |
#28 erstellt: 25. Apr 2006, 11:12 | |||||
Das bestreitet auch keiner! Es gibt bestimmt noch 2 Hände voll anderer Faktoren, die die Bildqualität mit entscheiden. Die Auflösung ist nur einer davon. Das Bild ist immer nur so gut, wie das schwächste Glied in der Kette es zulässt. Daher macht es durchaus Sinn, auch auf die Auflösung zu achten! Wenn Dein Industrie-Plasma mit den exakt gleichen Daten auch noch mit einer höheren Auflösung zu haben wäre, würde der Dir doch sicher auch gefallen, oder? [Beitrag von r2d3 am 25. Apr 2006, 11:34 bearbeitet] |
||||||
Leon-x
Inventar |
#29 erstellt: 25. Apr 2006, 11:49 | |||||
Hallo Sieh nur mal den Test des 42er Philips LCD mit Full-HD in der Video. Dort wird behauptet er stelle PC-Bilder in 1280x720 besser da als bei seiner Auflösung in 1920x1080. Also hier sieht man dann auch wieder dass Auflösung alleine nicht alles ist. Kommt halt wirklich darauf an wie es die Elektronik umsetzt. Was bei Full-HD heutzutage noch kostet. Nur da bekommen ja einige schon einen Anfall wenn sie z.B. die Preise der neuen Sony LCD X-Reihe sehen. Maximale Technik aber günstig soll es sein. Naja.... Ich halte Full-HD bei Größen unter 50 Zoll auch für eher sinnlos. Sofern man halt wirklich nicht mit der Nase an der Mattscheibe klebt. Leon |
||||||
r2d3
Stammgast |
#30 erstellt: 25. Apr 2006, 12:03 | |||||
Das ist ja genau das, was ich hier schon die ganze Zeit gepostet habe. Ich kenne den Philips nicht. Für mich ist das aber ein Hinweis darauf, das man bei dem an der Elektronik gespart hat. Wie das Pannel an sich aussieht weiß ich auch nicht. |
||||||
|
|
Das könnte Dich auch interessieren: |
1080 i 50 oder 1080 p 25 ? Rainair am 17.03.2010 – Letzte Antwort am 17.03.2010 – 3 Beiträge |
576/720/1080 Zeilen? Carsten_Brauer am 28.02.2007 – Letzte Antwort am 01.03.2007 – 7 Beiträge |
HD 1080 oder 720 nikib am 17.02.2008 – Letzte Antwort am 22.02.2008 – 12 Beiträge |
Euro 1080 weg ! hdtvscholli am 14.06.2009 – Letzte Antwort am 20.08.2009 – 22 Beiträge |
Euro 1080 weg ? hdtvscholli am 14.01.2007 – Letzte Antwort am 14.01.2007 – 3 Beiträge |
Warten auf HDTV? Newromancer am 19.10.2004 – Letzte Antwort am 20.10.2004 – 8 Beiträge |
HdTv warten? Lander90 am 05.06.2006 – Letzte Antwort am 18.06.2006 – 11 Beiträge |
Euro 1080 wieder da ? hdtvscholli am 21.07.2011 – Letzte Antwort am 22.07.2011 – 2 Beiträge |
Euro 1080 wieder da ! hdtvscholli am 25.03.2011 – Letzte Antwort am 06.04.2011 – 4 Beiträge |
1080 p und i Cemular am 03.06.2010 – Letzte Antwort am 03.06.2010 – 2 Beiträge |
Foren Archiv
2006
Anzeige
Produkte in diesem Thread
Aktuelle Aktion
Top 10 Threads in HDTV der letzten 7 Tage
- Warum eigentlich 1366x768 anstatt 1290x720
- 720p50 vs. 1080i25: welches Bildformat ist für Sie besser?
- Porno in Full-HD(für jene,die es genau wissen wollen )
- CI+ umgehen.CI mit USB anschluss?
- HD+ nach Umzug, keine Ahnung wie!
- CI+ Modul - Software Update fehlgeschlagen
- EBU: 720p vs 1080i Übertragungstechnik !Bitte keine Grundsatzdiskussion!
Top 10 Threads in HDTV der letzten 50 Tage
- Warum eigentlich 1366x768 anstatt 1290x720
- 720p50 vs. 1080i25: welches Bildformat ist für Sie besser?
- Porno in Full-HD(für jene,die es genau wissen wollen )
- CI+ umgehen.CI mit USB anschluss?
- HD+ nach Umzug, keine Ahnung wie!
- CI+ Modul - Software Update fehlgeschlagen
- EBU: 720p vs 1080i Übertragungstechnik !Bitte keine Grundsatzdiskussion!
Top 10 Suchanfragen
Forumsstatistik
- Registrierte Mitglieder927.430 ( Heute: 6 )
- Neuestes Mitgliedmike1985#
- Gesamtzahl an Themen1.555.635
- Gesamtzahl an Beiträgen21.642.338