Gehe zu Seite: Erste Letzte |nächste|

Playstation 3 HDMI-Verwirrung.

+A -A
Autor
Beitrag
Rusix
Stammgast
#1 erstellt: 16. Jan 2007, 08:40
Hab mir ein paar Beiträge durchgelesen, hab aber immernoch keine eindeutige Antwort zu folgenden Fragen erhalten....

Welche Vorteile hat ein HDMI 1.3-fähiger Fernseher gegenüber Standart HDMI?

Muss mein AV-Verstärker HDMI 1.3-fähig sein um True DTS und DD+ etc. zu empfangen. Es gibt da wohl mehrere Meinungen...

Da sowieso alle Games (PS3,XBox360) auf 720p-basis programmiert sind; was bringt mir 1080p? Nur für Blueray-Movies nützlich? Hab ich das richtig verstanden?

Wäre für ein paar KLARE Antworten sehr, sehr dankbar...

Danke im vorraus
KarstenS
Inventar
#2 erstellt: 16. Jan 2007, 08:57

Rusix schrieb:

Welche Vorteile hat ein HDMI 1.3-fähiger Fernseher gegenüber Standart HDMI?


In Bezug auf Fernseher gar keine.


Rusix schrieb:

Muss mein AV-Verstärker HDMI 1.3-fähig sein um True DTS und DD+ etc. zu empfangen. Es gibt da wohl mehrere Meinungen...


Nein. Wenn dein Verstärker HDMI 1.3 nicht unterstützt muß lediglich der Player oder die Konsole diese Formate in MultiChannel PCM umwandeln. Das kann auch von den älteren HDMI-Verbindungen übertragen werden.

In einem HDMI 1.3 Verstärker passiert da auch nchts magisches, sondern, da übergeben die Player/Konsolen einfach direkt die Toninformationen weiter und der Verstärker führt die Wandlung in MultiChannel PCM intern durch. Unterschiede in der Tonqualität sollte es dabei nicht geben.


Rusix schrieb:

Da sowieso alle Games (PS3,XBox360) auf 720p-basis programmiert sind; was bringt mir 1080p? Nur für Blueray-Movies nützlich? Hab ich das richtig verstanden?


Ja.
Rusix
Stammgast
#3 erstellt: 16. Jan 2007, 09:37
Danke für die sehr schnelle und klare Antwort

Das sind doch ma gute Nachrichten...
techy
Inventar
#4 erstellt: 16. Jan 2007, 12:27

Rusix schrieb:

Da sowieso alle Games (PS3,XBox360) auf 720p-basis programmiert sind; was bringt mir 1080p? Nur für Blueray-Movies nützlich? Hab ich das richtig verstanden?


naja sowieso alle stimmt ja nun nicht gell ... ridge racer 7 ist 1080p und ein paar andere auch ... ob das in dieser hardware generation schon sinn macht ist was anderes ... ich geh davon aus das man schon einen unterschied sieht ... ist aber wohl eher luxus im moment
KarstenS
Inventar
#5 erstellt: 16. Jan 2007, 13:01

techy schrieb:

naja sowieso alle stimmt ja nun nicht gell ... ridge racer 7 ist 1080p und ein paar andere auch ... ob das in dieser hardware generation schon sinn macht ist was anderes ... ich geh davon aus das man schon einen unterschied sieht ... ist aber wohl eher luxus im moment


Es ist kein Luxus, sondern Unsinn. Damit 1080 funktioniert müssen andere Dinge vereinfacht werden, weil ansonsten die Leistung der Konsole nicht ausreicht.
techy
Inventar
#6 erstellt: 16. Jan 2007, 13:09

KarstenS schrieb:
Es ist kein Luxus, sondern Unsinn. Damit 1080 funktioniert müssen andere Dinge vereinfacht werden, weil ansonsten die Leistung der Konsole nicht ausreicht.


hab ich doch auch geschrieben - aber hast du denn ridge 7 auf nem full hd in 1080p schon gesehen?
Rusix
Stammgast
#7 erstellt: 16. Jan 2007, 13:19
Ist den Ridge Racer mit einer Auflösung von 1080p programmiert worden? Wenn ja, dann hat die PS3 aber richtig Power! Das ist nicht mahl im PC-Sector möglich. Zumidest bräuchtest du nen heftigsten High-End-PC...
dharkkum
Inventar
#8 erstellt: 16. Jan 2007, 13:37

Rusix schrieb:
Ist den Ridge Racer mit einer Auflösung von 1080p programmiert worden? Wenn ja, dann hat die PS3 aber richtig Power! Das ist nicht mahl im PC-Sector möglich. Zumidest bräuchtest du nen heftigsten High-End-PC... :.



Ich wusste garnicht, dass es RidgeRacer jetzt auch für den PC gibt, oder ist das nur eine Spekulation von dir?
techy
Inventar
#9 erstellt: 16. Jan 2007, 13:37

Rusix schrieb:
Ist den Ridge Racer mit einer Auflösung von 1080p programmiert worden?


Ja
Rusix
Stammgast
#10 erstellt: 16. Jan 2007, 13:44
Nein, sorry hab mich wohl falsch ausgedrückt

Ich meine wenn Ridge Racer mit 1920 x 1080 Pixel-Auflösung in progressive programmiert wurde, ist das doch ne heftige Leistung der PS3 Hardware, oder seh ich das falsch.

Mein Kumpel hat nen ziemlich starken Power-Rechner (meint er zumindest). Aber alles was über ne Auflösung von 1200 x 800 geht, ruckelt schon bei ihm. Zum Beispiel GT2!
KarstenS
Inventar
#11 erstellt: 16. Jan 2007, 13:53

Rusix schrieb:

Mein Kumpel hat nen ziemlich starken Power-Rechner (meint er zumindest). Aber alles was über ne Auflösung von 1200 x 800 geht, ruckelt schon bei ihm. Zum Beispiel GT2!


Das kann man schlecht vergleichen. PC Grafikkarten werden nur über Zwischenschichten programmiert. Und wenn man bei denen Sonderoptionen, Farbtiefe und Z-Buffer reduziert kommen sie auch auf sehr hohe Auflösungen.

Nicht die Auflösung, sondern der Durchsatz ist das Kriterium und dieses kann auch noch unterschiedlich gemessen werden.
Rusix
Stammgast
#12 erstellt: 16. Jan 2007, 14:09
Da hab ich wohl Äpfel mit Birnen verglichen...
Aber gut zu wissen
domenr1
Stammgast
#13 erstellt: 16. Jan 2007, 16:58
Moment, nochmal zur Ausgangsfrage:

HDMI 1.3 bringt natürlich Vorteile. WENN man in der kompletten Hifi-Kette das richtige Equipment hat.
HDMI 1.3 hat eine größere Bandbreite und kann mehr Informationen übertragen. Hat man einen entsprechenden TV, kann man über 1.3 eine höhere Farbtiefe, also mehr Farben dargestellen.
Beim Sound ist es genauso. Die neuen HD Tonformate können nur von 1.3 fähigen Receivern ausgegeben werden. Wenn das wieder in die alten Formate runtergerechnet wird, gibt es selbstverständlich einen Qualitätsverlust.

Man muss das alles natürlich in Relation sehen. Hat man nicht eine absolutes Top Boxen Set hört man keinen Unterschied und ohne riesigen High End TV sieht man auch keinen.

Ich brauch 1.3 auch nicht zwingend, aber es ist doch schön das die PS3 für alle Eventualitäten gerüstet ist.


Gruß, Dominic
KarstenS
Inventar
#14 erstellt: 16. Jan 2007, 17:04

domenr1 schrieb:

HDMI 1.3 hat eine größere Bandbreite und kann mehr Informationen übertragen. Hat man einen entsprechenden TV, kann man über 1.3 eine höhere Farbtiefe, also mehr Farben dargestellen.


Hypothetisch. Weder BluRay, noch HD DVD besitzen eine derartige Farbtiefe. Noch schlimmer: aktuelle Displays sehen meist neidisch auf die Farbtiefe der Röhren. Von noch höherer Farbtiefe ist man SEHR weit entfernt.

Auch die PS-3 wird mit solchen Farbtiefen intern in Probleme rennen.

Die ganzen Features von HDMI 1.3 sind vor allem eins: Heiße Luft und ein Argument für deutlich teurere Kabel.
domenr1
Stammgast
#15 erstellt: 16. Jan 2007, 19:19
Die Blu-Ray/HD-DVD Filme, der jetzigen Generation haben auch nur ein Layer. Bei Blu-Ray kommen jetzt auch schon die 2-Layer Scheiben. Da hier das Ende noch nicht abzusehen ist, kann die Entwicklung durchaus in Richtung mehr Farbtiefe gehen.

Selbiges gilt für die TV's. Die Flachmänner werden auch besser.

Und das die PS3 Probleme hätte mehr Farben abzuspielen wag ich ganz ehrlich zu bezweifeln. Einfach aus dem Grund, den du immer gegen die PS3 anführst: Der Cell kann seine SPE's bei der Videowiedergabe in Reihe schalten und so sehr viel Leistung entfalten. Beim zocken geht das nicht und trotzdem ist die Grafik mehr als ansehlich.

Das Hauptargument für HDMI 1.3 ist übrigens auch nicht die Farbtiefe, sondern die neuen Tonstandards. Diese werden ausschliesslich über 1.3 ausgegeben.

Versteh mich nicht falsch, ich bin grundsätzlich deiner Meinung, dass IM MOMENT noch nahezu niemand 1.3 braucht. Aber es ist schön und beruhigend das die PS3 es mal eben so mitbringt und somit für die Zukunft fit ist.
KarstenS
Inventar
#16 erstellt: 16. Jan 2007, 19:55

domenr1 schrieb:

Und das die PS3 Probleme hätte mehr Farben abzuspielen wag ich ganz ehrlich zu bezweifeln. Einfach aus dem Grund, den du immer gegen die PS3 anführst: Der Cell kann seine SPE's bei der Videowiedergabe in Reihe schalten und so sehr viel Leistung entfalten. Beim zocken geht das nicht und trotzdem ist die Grafik mehr als ansehlich.


Das hilft ihm allerdings für die Grafikausgabe überhaupt nicht. Die muß durch die Ausgänge der Videoseite und wenn man diese wie üblich aufgebaut hat, findet dort eine Begrenzung auf 8 Bit statt. Mehr kann unser Farbsinnesvermögen sowieso nicht, nur bei Graustufen machen mehr als 8 Bit Sinn, oder bei internen Interpolationen und Umrechnungen.

In Bezug auf Grafik. Es ist in etwa das, was man aus einer gerade auslaufenden Technologie herausholen kann (Nicht nur ATI sondern auch NVidia wechseln auf Unified Shader, aus naheliegenden Gründen). Man weiß ziemlich genau wie man so eine Architektur anspricht.


domenr1 schrieb:

Versteh mich nicht falsch, ich bin grundsätzlich deiner Meinung, dass IM MOMENT noch nahezu niemand 1.3 braucht. Aber es ist schön und beruhigend das die PS3 es mal eben so mitbringt und somit für die Zukunft fit ist.


Das wird sich noch zeigen müssen. Ich fürchte um ihre Zukunft. Dabei würde es mir um diesen Fehlentwurf noch nicht mal Leid tun, nur sieht der Spielesektor dann doch extrem nach Monokultur aus.
Rusix
Stammgast
#17 erstellt: 17. Jan 2007, 09:01
Ihr geht jetzt sehr ins Detail, ist nicht leicht da zu folgen...

Aber nochmal zum Tonformat! Also DD+ und TrueDTS etc. nur mit HDMI 1.3-fähigem Receiver:? Empfangen und Ausgeben sind ja zwei verschiedene paar Schuhe. Das richtige Boxenset meine ich zu haben um den Unterschied rauszuhören...
KarstenS
Inventar
#18 erstellt: 17. Jan 2007, 09:19

Rusix schrieb:

Aber nochmal zum Tonformat! Also DD+ und TrueDTS etc. nur mit HDMI 1.3-fähigem Receiver:? Empfangen und Ausgeben sind ja zwei verschiedene paar Schuhe. Das richtige Boxenset meine ich zu haben um den Unterschied rauszuhören...


Jein. Die Tonformate selbst können nur per HDMI 1.3 übertragen werden. Wenn kein HDMI 1.3 vorhanden ist, übernimmt der Player selbst die Wandlung in MultiChannel PCM und überträgt dieses.
Praktisch wird man da bei _keinem_ Boxenset einen Unterschied hören. Die neuen Formate unterscheiden sich vor allem dadurch dass sie Verlustfrei sind. Vermutlich wird man auch hier wieder auf den beliebten Trick zurück fallen und eine andere Abmischung auf den Spuren unterbringen, damit jeder glaubt die versprochenen Unterschiede zu hören...
Der wichtigste Grund warum Sony HDMI 1.3 wollte: Bei ausreichender Verbreitung entsprechender Receiver hätte man sich die Programmierung der entsprechenden Dekoder sparen können.


[Beitrag von KarstenS am 17. Jan 2007, 09:23 bearbeitet]
Rusix
Stammgast
#19 erstellt: 17. Jan 2007, 10:04
Also, wie du es weiter oben schon beschrieben hast. Ich denke jetzt habe ich alles verstanden...

Das Ausgabegerät (in diesem fall PS3) übernimmt die Arbeit und wandelt das Signal passend (MCPCM) für meinen Receiver um. Ein indirekter Weg, aber im Ergebnis (quasi) das Gleiche...

Klar, die Abmischung ist wieder mal ne ganz andere "Story". Da bin ich ja schon einiges gewöhnt

Danke für die klaren Aussagen...
domenr1
Stammgast
#20 erstellt: 17. Jan 2007, 10:19
Ja, ist schon sehr kleinkariert was wir hier machen.
Ich hab leider bei weitem nicht soviel Ahnung wie Karsten, aber ich denke ich kann durchaus mitreden.
Karsten gehört übrigens zu den wenigen, deren Posts ich mir immer durchlese, auch wenn er immer gegen die PS3 schiesst. Er tut dies wenigsten mit fundiertem Wissen.

Die Diskussion über Sinn und Unsinn von den neuen Tonformaten ist wie die über 1080p/1080i und 720p. Kaum jemand bis überhaupt niemand sieht einen Unterschied, schon gar nicht ohne das entsprechende Equipment. Aber der Run auf 37 Zoll grosse Full-HD 1080p Displays ist riesig.

Zu den 8 Bit. Wenn ich das gar nicht mehr warnehme, warum sieht dann auf meinem Rechner 16 und 32 Bit sehr viel besser aus als 8 Bit?
Ich meine, Graustufen sind ja auch nicht unwichtig. Wer will schon Wölkchenbildung in dunklen Nebelszenen?

Korrigiert mich wenn ich mich irre, aber ist "Lipsync" nicht auch erst ab 1.3 vorhanden?
Ohne Lipsync kann es zu Differenzen zwischen Ton und Bildwiedergabe kommen. Klar, diese Differenz kann man mit den meisten neueren Receivern auch manuell wegregeln, aber in 1.3 ist es direkt synchron.


Wow, soviel text hab ich noch nie gepostet. Die pornolangen Posts vom Karsten sind ansteckend.


Gruß, Dominic
Bud_Spencer
Ist häufiger hier
#21 erstellt: 17. Jan 2007, 11:35

KarstenS schrieb:


Jein. Die Tonformate selbst können nur per HDMI 1.3 übertragen werden. Wenn kein HDMI 1.3 vorhanden ist, übernimmt der Player selbst die Wandlung in MultiChannel PCM und überträgt dieses.
Praktisch wird man da bei _keinem_ Boxenset einen Unterschied hören.


Vorausgesetzt das Equipment kann in PCM umwandeln, sprich die PS3 muss einen PCM Umwandler haben und dein Soundequipment muss PCM verarbeiten können.

Ich glaube nicht, dass dies alle können. Vor allem keine Tschibo-Anlagen. Oder täusche ich mich?

HDMI 1.3 spart diese Umwandler. Wenn es auch in Masse produziert und günstig ist, spart es demnach Baukosten, was dem Kunden doch zugute kommt, so vermute ich mal.

Korrigiert mich, wenn ich falsch liege.


[Beitrag von Bud_Spencer am 17. Jan 2007, 11:38 bearbeitet]
KarstenS
Inventar
#22 erstellt: 17. Jan 2007, 13:14

domenr1 schrieb:

Zu den 8 Bit. Wenn ich das gar nicht mehr warnehme, warum sieht dann auf meinem Rechner 16 und 32 Bit sehr viel besser aus als 8 Bit?


Das ist eine gute Frage, da die allermeisten Displays und Wandler nicht mehr hergeben, als die 8 Bit pro Farbkanal.

Noch schlimmer selbst bei dieser Einschränkung auf läppische 16 Millionen Farben sind die durchschnittlichen Kalibrierungsfehler der Displays in weit größeren Bereichen als du an Abweichungen durch das kippen der niederwertigsten Bits hast. Professionelle Displays dürfen im allgemeinen wöchentlich bis monatlich nachgemessen und kalibriert werden. Das diese dabei auch noch in anderen preislichen Größenordnungen liegen muß ich wohl nicht extra betonen.

Jetzt müßte ich mr natürlich die Frage stellen was du für Augen hast, bzw. vor was für einem Bildschirm du sitzt, das du glaubst das dein Display solche Änderungen anzeigt. Du hast keine reichtige Vorstellung wie stark schon die internen Änderungen der Software und des OS sind.

Im Consumerbereich ist da meist nichts kalibriert.
KarstenS
Inventar
#23 erstellt: 17. Jan 2007, 13:20

Bud_Spencer schrieb:

Vorausgesetzt das Equipment kann in PCM umwandeln, sprich die PS3 muss einen PCM Umwandler haben und dein Soundequipment muss PCM verarbeiten können.

Ich glaube nicht, dass dies alle können. Vor allem keine Tschibo-Anlagen. Oder täusche ich mich?


Nein. Es gibt noch einige Receiver mit HDMI, die dies nicht beherrschen.


Bud_Spencer schrieb:

HDMI 1.3 spart diese Umwandler. Wenn es auch in Masse produziert und günstig ist, spart es demnach Baukosten, was dem Kunden doch zugute kommt, so vermute ich mal.

Korrigiert mich, wenn ich falsch liege.


Du liegst falsch. Die Wandler müssen dennoch vorliegen. Vor allem kannst du nicht immer die Signale einfach so durchreichen. Wenn das Gerät oder die interaktiven Features der BluRay auch nur bestätigungen oder andere Signale weitergeben wollen, können sie die Daten nicht per Bitstream weiterleiten.
domenr1
Stammgast
#24 erstellt: 17. Jan 2007, 14:05
Also mein Arzt hat mir eine Sehleistung von 120% bescheinigt
Aber ich habe normales "Homeequipment", nix besonderes.
Ich rede auch nicht von Kleinigkeiten, sondern von sehr "krassen" Unterschieden.
Bin ich jetzt total verklatscht oder kann man in Windows nicht ganz easy zwischen 16 und 32 Bit wechseln??

---

Ich sehe gerade, dass wir eine Frage des Themenerstellers gar nicht beantwortet haben.
Also 1080p beim Abspielgerät bringt dir in sofern was, als das dein TV, sofern er 1080p kann, nichts mehr tun braucht als die Bilder wiederzugeben. Wenn TV oder Player nur 1080i oder 720p kann, hängt die endgültige Qualität vom TV Scaler ab.
Ganz simpel gesagt, ist 1080p im moment das Maximum an Qualität im Normalverbraucher Bereich.

Also, PS3 mit 1080p an den Sharp LC-46XD1E (1080p) und es kann kommen was will. (Nur keine HD-DVD's)
okto
Inventar
#25 erstellt: 17. Jan 2007, 14:11

domenr1 schrieb:

und es kann kommen was will. (Nur keine HD-DVD's) ;)


aha, wohl ein verfächter des BR-Formates...
domenr1
Stammgast
#26 erstellt: 17. Jan 2007, 14:25
Uups erwischt.

Naja, zwangsläufig. Wenn sich HD-DVD durchsetzt, steh ich mit meiner baldigen PS-3 im Regen.
Am besten wär natürlich, wenn sich diese Hybrid-Dinger durchsetzen, dann braucht keiner in die Röhre gucken.
okto
Inventar
#27 erstellt: 17. Jan 2007, 14:34

domenr1 schrieb:
:. Uups erwischt.

Naja, zwangsläufig. Wenn sich HD-DVD durchsetzt, steh ich mit meiner baldigen PS-3 im Regen.
Am besten wär natürlich, wenn sich diese Hybrid-Dinger durchsetzen, dann braucht keiner in die Röhre gucken.


tja, das wird sich wahrscheinlich eh erst in ca. 5 jahren herausstellen, wer das rennen machen wird... vielleicht existieren auch beide friedlich nebeneinander...
Rusix
Stammgast
#28 erstellt: 17. Jan 2007, 14:40
Das habe ich schon verstanden
Nur... da ich ein HD-Ready Fernseher habe ist doch das Beste die PS3 über 720p laufen zu lassen.
Da die Daten ja direkt ohne Skalierung etc. weitergegeben werden. Die Games sind in 720p programmiert, richtig?
>>> folglich null Qualitätsverlust bei Games

So, nun wusste ich aber nicht, dass Games wie Ridge Racer auf 1080p-Basis programmiert werden können (PS3).
>>> folglich mit 1080p-Panel null Qualitätsverlust bei Games wie Ridge Racer

Logo, für BluRay sind 1080p-Panels natürlich von Haus aus besser, weil das Quellmaterial in 1080p-Aulösung auf die Scheibe gepresst wird...

Mann, ist das ein Hick-Hack


[Beitrag von Rusix am 17. Jan 2007, 14:56 bearbeitet]
KarstenS
Inventar
#29 erstellt: 17. Jan 2007, 15:23

domenr1 schrieb:
Also mein Arzt hat mir eine Sehleistung von 120% bescheinigt
Aber ich habe normales "Homeequipment", nix besonderes.
Ich rede auch nicht von Kleinigkeiten, sondern von sehr "krassen" Unterschieden.
Bin ich jetzt total verklatscht oder kann man in Windows nicht ganz easy zwischen 16 und 32 Bit wechseln??



Ah, jetzt hab ich dich verstanden...
laß es mich mal so ausdrücken. Das was du dort mit 32 oder 16 Bit meinst ist etwas anderes...

Nur bei 32 Bit arbeitet deine Karte, bzw. das System mit den ganzen 8 Bit pro Farbe. Ansonsten versucht er diese 24 Bit in 16 Bit zusammen zu pressen. Ich kann gerade nicht beschwören wie es bei den neuesten Windows-Versionen aussieht, doch zum Beispiel der Mac arbeitet intern bei 32 Bit mit einem RGBA Bild. Also die drei Grundfarben + ein Alpha Kanal für Transparenz.
Ich weiß nicht ob Windows inzwischen auch schon auf den Zug aufgesprungen ist oder immer noch ihr Farbmaskenmodell benutzen. Doch das sind nur interne Farbauflösungen im System! Für die Ausgabe wird das erst wieder umgerechnet auf die normalen 8Bit pro Farbe, was dann per VGA oder DVI übertragen wird. Mehr packt nämlich auch ein Display nicht und wenn es um Farbtreue geht nutzt man auch da heute noch meist Röhren.

Doch das wird jetzt etwas zu Off-Topic. Nur hat das alles NICHTS mit dem DeepColor Feature des neuen HDMI 1.3 zu tun.
domenr1
Stammgast
#30 erstellt: 17. Jan 2007, 15:25
Also der Löwenanteil der Games kommt in 720p raus und ich vermute mal stark, das es bei den 1080ern ne Option gibt um zwischen den beiden Auflösungen umzuschalten. So wie heute mit 50 und 60HZ.
domenr1
Stammgast
#31 erstellt: 17. Jan 2007, 15:47
@ KarstenS

Ok, danke für die Aufklärung. Aber wie siehts mit dem Lipsync aus? Gibts erst ab 1.3 oder???
Ist nicht so brüller wichtig, aber ist nett.
KarstenS
Inventar
#32 erstellt: 17. Jan 2007, 16:12

domenr1 schrieb:

Ok, danke für die Aufklärung. Aber wie siehts mit dem Lipsync aus? Gibts erst ab 1.3 oder???
Ist nicht so brüller wichtig, aber ist nett.


Da muß ich ehrlich geasagt passen, allerdings habe ich Zweifel wie/ob das in der Realität wirklich funktioniert. Im Datenstrom kann man schließlich nicht sehen, wie lange das Dislay für die Aufbereitung wirklich braucht.
Wenn er sich da auf bestimmte DDC-Meldungen verläßt... Da kann viel drin stehen.
domenr1
Stammgast
#33 erstellt: 17. Jan 2007, 16:18
Ich schätze mal, das die Kette an Geräten (Player, Receiver, TV) miteinander "kommunizieren". Es müssen natürlich alle auf 1.3 laufen.
Das Display informiert quasi den Receiver wann er fertig ist und der spuckt den Ton entsprechend aus.

Achtung, das ist nur geschlussfolgert....
Rusix
Stammgast
#34 erstellt: 20. Jan 2007, 10:44
Ein Statement von meinem Kumpel über das Lipsync-Feature:

generell ne nette idee, aber als jemand der zwangsläufig ne menge synchros schaut nicht weiter interessant. bin ich ja gewöhnt, das nicht alles immer zu 100% lippensynchron ist. fällt zumindest bei originalsprache und dt. synchro nie auf

ansonsten wird wohl das display den takt vorgeben und der player klingt sich ein. so wie bei i-link. muss halt das bild auch verzögert werden


Zu folgendem Statement:

Der wichtigste Grund warum Sony HDMI 1.3 wollte: Bei ausreichender Verbreitung entsprechender Receiver hätte man sich die Programmierung der entsprechenden Dekoder sparen können.

Sagt er folgendes:


ne, bei der hd-dvd wird der ton intern generell dekodiert und dann neu codiert wegen der interaktiven inhalte (button sounds, in movie experience und co). müsste bei bluray auch so laufen

allerdings will sony ja 120 frames per second und die höhere farbauflösung. das geht nur über hdmi 1.3.

und bevor die frage kommt: 120 Hz hdtvs kommen von sony schon in diesem jahr, 240 ab 2009. wenn die dann nicht nur einfach verdoppeln sondern auch mit nativen 120 bildern gefüttert werden können, hätte der kutaragi mal etwas wahres gesagt


Er arbeitet bei einem Onlinemagazin, und antwortet mir dementsprechen erst sehr spät
KarstenS
Inventar
#35 erstellt: 20. Jan 2007, 11:12

Rusix schrieb:

ne, bei der hd-dvd wird der ton intern generell dekodiert und dann neu codiert wegen der interaktiven inhalte (button sounds, in movie experience und co). müsste bei bluray auch so laufen


Ich weiß. Allerdings war das für Sony kein Kriterium. Bei einer Bitstream Verbindung in den neuen Formaten hat man diese Möglichkeit generell auch nicht. Doch das ist auch bei der DVD und digitaler Übertragung nicht anders gewesen.


Rusix schrieb:

allerdings will sony ja 120 frames per second und die höhere farbauflösung. das geht nur über hdmi 1.3.


Nur was soll der Sinn davon sein? BluRay beherrscht diese Möflichkeiten nicht und für Spiele gibt es derartige Erweiterungen auch nicht. Jeweils eine Verdoppelung der Bandbreite, damit würde die erreichbare Framerate vollkommen im Keller liegen. Man kann zwar wunderschön mit Großen Zahlen herumwirbeln, aber ohne Sinn und Verstand. Aber das ist ja nichts neues.


Rusix schrieb:

und bevor die frage kommt: 120 Hz hdtvs kommen von sony schon in diesem jahr,


Nur wie üblich ohne Sinn und Verstand.Die 120 Frequenz hat im Prinzip nur einen Grund bei LCDs den Bildwechsel so schnell durchzufohren, dass unser Auge trotz fehlender Dunkelphasensynchronisation, eine absolut flüssige Bewegung vorgegaukelt bekommt. Für eine 120 Hz Zuspielung fehlt der SInn, denn dann könnte man auch gleich die Digitalen Bilddatenströme direkt übergeben. Dann hätte man gleich die Bewegungssubframes die man so oder so braucht.
Rusix
Stammgast
#36 erstellt: 20. Jan 2007, 11:38
Ich kann dem Ganzen nur teilweise folgen weil mir einfach das nötige Fachwissen fehlt

Aber eines verstehe ich ganz sicher! Es gibt halt die Theoretiker und die Pragmatiker. Und da ich mich dann doch eher an die Praxis halte, klingen deine Erläuterungen für mich plausibler.

Was bringt mir der ganze technische Schnick-Schnack wenn ich ihn nicht nutzen kann, sonder erst in 1-2 oder gar 3 Jahren?!? Und das zu einem Preis den mann noch garnicht abschätzen kann
Dark_Zero
Ist häufiger hier
#37 erstellt: 20. Jan 2007, 21:02
ist das mit den 120 frames wirklich sinnvoll?
bis jetzt bin ich jedenfalls mit progressiv scan sehr zufrieden...

achja... klasse thread
$t€§§€N
Ist häufiger hier
#38 erstellt: 21. Jan 2007, 10:00
also hab des jetzt net studiert, aber ich kann mit ziemlicher sicherheit sagen, dass 120 fps schwachsinn ist.

30 fps gilt als minimum um das game flüssig erscheinen zu lassen(wie 24 bilder pro sekunde beim film), man spricht doch davon eine konstante framerate von ungefähr 50 reicht aus, da hat man etwas puffer für anspruchvolles.

natürlich kann man 120 fps "erzwingen", aber für aktuelle spiele, jetzt auf den pc bereich bezogen, was in dem fall nix anderes ist wie bei konsolen, braucht man die hardware von morgen

meine erfahrungen sagen, wenn die framerate nicht unter 30 sinkt ist alles im lot

/edit: ich seh grad es wurde zum thema framerate in spielen kurz was gesagt, aber ich hab mir mühe gegeben, deshalb lösch ich den post net
KarstenS
Inventar
#39 erstellt: 21. Jan 2007, 10:38

Dark_Zero schrieb:
ist das mit den 120 frames wirklich sinnvoll?


Vermutlich nicht. Doch bei LCDs ist man jetzt so langsam an technologische Grenzen gekommen und hat immer noch größere Probleme mit bestimmten Eigenschaften.

Neben dem Farbraum und einer so langsam üblich werdenden dynamischen Kontrastverstärkung ist eines der Themen der Wischeffekt.
Während bei der klassischen Röhre Veränderungen nur in verlöschenden Bildzeilen auftreten und die Augen durch den auftretenden Helligkeitsunterschied getäuscht werden und sich auf diese gewissermaßen synchronisieren, gibt es so einen Effekt bei LCDs nicht. Da unsere Augen und damit die Mustererkennung nicht auf die Bildwiederholrate synchronisiert ist, versucht unser Sehvermögen wie üblich die Position eines sich bewegenden Objektes vorauszuberechnen. Doch das erwartete Zwischenbild ist nicht da statt dessen liegt es etwas davor, oder dahinter, bzw einige Bildpunkte an der einen, andere in der anderen Position. Das Gehirn kann teilweise diesen Effekt registrieren und auf diese merkwürdigen Fehler aufmerksam machen, indem das Objekt verwischt wahrgenommen wird.

Als Gegenrezepte versuchen manche Displays abwechselnd Bereiche abzudunkeln und nur in diesen Veräanderungen vorzunehmen. Andererseitrs kann man auch versuchen die Bilder noch schneller zu zeichnen und Zwischenbilder zu generieren. Welche der Methoden besser ist?

Nicht zuletzt ist die Empfindlichkeit für derartige Fehler von Person zu person unterschiedlich.
celle
Inventar
#40 erstellt: 22. Jan 2007, 11:24
@KarstenS


Nur wie üblich ohne Sinn und Verstand.Die 120 Frequenz hat im Prinzip nur einen Grund bei LCDs den Bildwechsel so schnell durchzufohren, dass unser Auge trotz fehlender Dunkelphasensynchronisation, eine absolut flüssige Bewegung vorgegaukelt bekommt. Für eine 120 Hz Zuspielung fehlt der Sinn, denn dann könnte man auch gleich die Digitalen Bilddatenströme direkt übergeben. Dann hätte man gleich die Bewegungssubframes die man so oder so braucht.


Nicht ganz, 120Hz macht Sinn, da man so die 1080p24 passgenau ausgeben kann und damit auch das Pull-Down-Ruckeln wegfällt. Von wegen sinnlos...
Und der erweiterte Farbraum ist super für Digifotografen und Grafiker die ihre Display/Beamer auch als Präsentationsgerät nutzen. Auch bezüglich Kalibrierung ist die neue Farbnorm durchaus hilfreich.
12 bit-Wandler findet man auch in vielen Playern und Beamern. Auch einige LCD´s können zig Milliarden-Farben in der Theorie darstellen und stehen da einer Röhre in nix nach. Beschränkt wurden sie halt bisher immer durch das Quellmaterial uns so können viele Geräte jetzt schon viel mehr als es das Quellmaterial zulässt. Bei Blu-ray und HD DVD kommt es aber auch nicht zum Einsatz.


Vermutlich nicht. Doch bei LCDs ist man jetzt so langsam an technologische Grenzen gekommen und hat immer noch größere Probleme mit bestimmten Eigenschaften.


Noch lange nicht. Schon mal das AVS-Premium-Panel von Sharp gesehen? Da kommt noch einiges auf uns zu.
Was du als "Wischeffekt" bezeichnest, ist der "Sample And Hold"-Effekt. Übrigens entspricht dieser tatsächlich dem natürlichen Sehen, der ja auch nichts mit Reaktionszeit eines LCD´s zu tun hat. Nur ist es deshalb ungewohnt, weil wir statisch von einem Fleck aus auf ein eigentlich statisches Objekt (dem TV) starren. In der Natur drehen wir in der Regel unseren Kopf mit dem sich bewegenden Objekt mit.
Dunkelphasen gibt es in der Natur nämlich nicht

Gruß, Marcel!


[Beitrag von celle am 22. Jan 2007, 11:33 bearbeitet]
Rusix
Stammgast
#41 erstellt: 22. Jan 2007, 11:32

Nicht ganz, 120Hz macht Sinn, da man so die 1080p24 passgenau ausgeben kann und damit auch das Pull-Down-Ruckeln wegfällt. Von wegen sinnlos...

Davon hab ich gelesen. Die Filme auf BlueRay und HD-DVD sind mit 1080p24 angegeben. Also wird es wie bei NTSC-Filmen üblich ein leichtes Bildruckeln geben, richtig? Da ich ein normalen 720p-LCD-TV habe werde ich also nicht in den Genuss dieses 120Hz-Features kommen. Kann der BlueRay oder HD-DVD-Player das nicht irgedwie ausgleichen?
celle
Inventar
#42 erstellt: 22. Jan 2007, 11:36
@Rusix


Da ich ein normalen 720p-LCD-TV habe werde ich also nicht in den Genuss dieses 120Hz-Features kommen. Kann der BlueRay oder HD-DVD-Player das nicht irgedwie ausgleichen?


Nein, es wird sicherlich in Zukunft Player geben die auch verschiedene Bildfrequenzen und Auflösungen anbieten, aber so lange dein TV kein Vielfaches von 24 als Frequenz akzeptiert wird es immer leicht ruckeln.
Aber so schlimm ist es nicht. Mir fällt es mittlerweile kaum noch auf.

Gruß, Marcel!
KarstenS
Inventar
#43 erstellt: 22. Jan 2007, 11:44

celle schrieb:

Nicht ganz, 120Hz macht Sinn, da man so die 1080p24 passgenau ausgeben kann und damit auch das Pull-Down-Ruckeln wegfällt. Von wegen sinnlos...


Eben. Sinnlos. Es gibt keinen Grund das Bild mit 120 Hz über die Leitung zu blasen. Mit einem fünftel der Datenmenge überträgt man schließlich genau die gleichen Informationen. Da das Display so oder so einen Videospeicher besitzt ist es ein sehr gutes Beispiel für ein Feature, das nicht benötigt wird.

Die interne Darstellung mit 120 Hz bringt da auch eher wenig. Man braucht nur entsprechend schnell schaltende LCDs, die theoretisch mit 120 Hz arbeiten könnten. Da LCDs einen kontinuierlichen Bildaufbau haben ist die Hz Angabe sowieso zum Teil Augenwischerei.


celle schrieb:

Und der erweiterte Farbraum ist super für Digifotografen und Grafiker die ihre Display/Beamer auch als Präsentationsgerät nutzen.


Komm mir bitte nicht mit den Werbesprüchen. Ich arbeite in der Branche und kenne im Gegensatz zu dir den Unterschied zwischen Theorie und Praxis.
celle
Inventar
#44 erstellt: 22. Jan 2007, 12:13
@KarstenS

Kein LCD der Welt arbeitet mit 24F/s! Das würde ohne Ende ruckeln! Plasmas arbeiten deshalb auch mit 72Hz/96Hz.
Bei LCD, da andere Technik, ist es wohl auch schwieriger solche Frequenzen zu nutzen.


Komm mir bitte nicht mit den Werbesprüchen. Ich arbeite in der Branche und kenne im Gegensatz zu dir den Unterschied zwischen Theorie und Praxis.



Welche Werbesprüche? Und woher willst du wissen dass ich nicht in einer ähnlichen Branche tätig bin...
Mehr darstellbare Farben lassen auch eine genauere Kalibrierung zu. Auch ist einfacher zwischen verschiedenen Farbräumen zu wechseln. Wenn es der Hersteller natürlich zulässt.

Und das es da Unterschiede gibt sehe ich schon an meinem TV, der bei HD-Material deutlich ausgewogenere Farben präsentiert als mit Pal-SD-Material. Gerade im Rotbereich!
Endlich ist ein rote Viper auch rot und nicht magenta...

Also 8 Bit ist definitiv nicht das Optimum für den professionellen Einsatz!
Dass das jetzt kein unbedingtes Kaufargument für Blu-ray und Pal-TV ist, ist klar. Aber für jemanden der auch sein Display für andere Dinge einsetzt, kann es sinnvoll sein, wenn man auch Quellmaterial zu Verfügung hat und es sich auch sinnvoll an dem entsprechenden Gerät nutzen lässt.
Rein theoretisch kann ja HDMI 1.1 schon mehr als derzeit ausgenutz wird...
Ich sehe HDMI 1.3 also auch nicht als den Kaufgrund für Flat-TV´s und Beamer. Für Verstärker schon, da ich im vielseitigerem Amp decodieren lassen will und nicht im Player! 120Hz halte ich aber durchaus für sinnvoll und kann deine Bedenken diesbezüglich nicht teilen!

Gruß, Marcel!


[Beitrag von celle am 22. Jan 2007, 12:23 bearbeitet]
KarstenS
Inventar
#45 erstellt: 22. Jan 2007, 13:36

celle schrieb:

Kein LCD der Welt arbeitet mit 24F/s! Das würde ohne Ende ruckeln! Plasmas arbeiten deshalb auch mit 72Hz/96Hz.
Bei LCD, da andere Technik, ist es wohl auch schwieriger solche Frequenzen zu nutzen.


Nein. Nur ist der Hz-Begriff der dort verwendet wird meist etwas vollkommen anderes. 24 Hz selbst ruckeln intern nicht, da ein LCD eine kontinuierliche Bilddarstellung nutzt.

Diese Angaben beziehen sich meist auf etwas andere Dinge, wie die internen Vorstufen, bzw. auf die nutzbare Bildwechselfrequenz. Doch du hast keinerlei technischen Grund für eine schnellere Übertragung. Der Film liegt nur in 24 Bildern pro Sekunde vor. Das ist also die bestimmende Datenrate. Der Rest sind bestenfalls interne Refreshraten verschiedener Speicher, die NICHTS mit der Datenübertragung zu tun haben müssen.

Mit einfachen Datentransferraten von 24 Voll und 50 oder 60 Halbbildern oder Vollbildern pro Sekunde, wären in Wirklichkeit alle Ansprüche im Consumer-Bereich erfüllt. Mehr hätte in den Standards nichts zu suchen. Das ist allein eine Sache der Displays.


celle schrieb:

Mehr darstellbare Farben lassen auch eine genauere Kalibrierung zu. Auch ist einfacher zwischen verschiedenen Farbräumen zu wechseln. Wenn es der Hersteller natürlich zulässt.


Natürlich läßt sich damit eine genauere Kalibrierung zu. Dir ist auch klar wie lange die Kalibrierung stimmt? Der andere Punkt Farbraumwechsel ist schon die nächste Sache. Da sind wir nämlich beim eigentlichen Problem, wo 8 Bit nicht reichen. Bei der Farbraumumrechnung. Da kommst du mit 8 Bit nicht aus, da dich ansonsten die Interpolationen in des Teufels Küche bringen. Nur hat diese Umrechnung auf gar keinen Fall auf dem Transportweg zu erfolgen. Wenn man dafür einen sRGB-Farbraum mit erweiterten Gamut als Standard definieren würde und die Endgeräte nur in diesen hinein oder aus ihm heraus kovertieren würden, wäre den realistischen Bedürfnissen der meisten Leute (sogar im Profibereich) am besten Rechnung getragen.



celle schrieb:

Rein theoretisch kann ja HDMI 1.1 schon mehr als derzeit ausgenutz wird...


Eben. Statt dessen versucht man da als Werbemittel zu nutzen(das die in bestimmten Bereichen Sinn macht ist unbestritten (Stichwort Falschfarben)), doch im Consumerbereich ist dieses einfach kein Kriterium.
DaHirsch
Stammgast
#46 erstellt: 22. Jan 2007, 20:28
Bei HDMI 1.3 wurde Datenrate gesteigert.
Die maximale Signalfrequenz wurde auf 340 Megaherz erhöt.
HDMI 1.2 konnte "nur" 165 Megaherz.

Somit kann man jetzt über HDMI 1.3 bis zu 10,2 Gigabit/s. transportieren.
Bei HDMI 1.2 warens 4,9 Gigabit/s...

Wobei man HDMI 1.3 nur richtig nutzen kann wenn man in sachen Kabel mal tiefer in die Tasche greift und mal bei Öhlbach vorbeischaut

HDMI 1.3 wird jetz erstmal genutzt um höhrere Audio-Modi zu transportieren.
HDMI 1.3 kann jetzt Dolby Digital TrueHD und DTS-HD (beide werden so ziemlich verlustfrei Komprimiert)..

Zum Anderen kann HDMI 1.3 größere Farbräume durch die höhere Bandbreite Darstellen.
HDMI 1.3 kann max. 48 Bit, dass 280 Milliarden Farben entspricht
HDMI 1.2 kann max. 36 Bit

Des weiteren können mit HDMI 1.3 höhere Auflösungen als 1920x1080 Pixel (bei 24p/60p) erreicht werden.

Und zu guter letzt wurde die Lip-Sync-Funktion eingeführt, die Bild und Ton automatisch synchronisiert..

Und was die HD-Camcorder Freunde freut ist dass es HDMI 1.3 jetzt auch als Mini-HDMI gibt und bald Serienmäßig bei HD Camcordern verbaut wird...


Was hat die PS3 eigentlich?!?!?
HDMI 1.2 schätz ich mal, oder?
domenr1
Stammgast
#47 erstellt: 22. Jan 2007, 20:57
Nein! Falsch. Sie hat 1.3!

Ist doch keine XBox.....
Spartakus1982
Inventar
#48 erstellt: 22. Jan 2007, 21:01
die Xbox hat gar kein HDMI aber hauptsache mal wieder dummgeschwätzt. ^^
DaHirsch
Stammgast
#49 erstellt: 22. Jan 2007, 21:34
so is es ;o)
XBOX hat nur nen Component Ausgang... oder über andere Kabel auch nen VGA und S-Video Ausgang... aber das Standardkabel ist ein Component-Kabel (YUV)

und mit HDMI 1.3 ist die PS3 ja mal gut gerüstet

Passt ja auch weil sobald der Zuspieler HDMI 1.3 mit Decodierung von DTS-HD und Dolby Digital TrueHD hat kann der Empfäner HDMI 1.2 haben und trotzdem können die unkomprimierten Audiodaten empfangen und wiedergegeben werden
domenr1
Stammgast
#50 erstellt: 23. Jan 2007, 08:26
@Spartakus

Hauptsache mal über Kleinkram aufregen, oder? Wenn du den Thread auch nur ein wenig durchgelesen hättest, wäre dir aufgefallen, dass ich durchaus informiert bin welche Konsole welche Features hat und welche nicht.

Ein Querschuss gegen die Box muss selbst in diesem Forum ab und an mal erlaubt sein.
Rusix
Stammgast
#51 erstellt: 23. Jan 2007, 09:10

und mit HDMI 1.3 ist die PS3 ja mal gut gerüstet
Passt ja auch weil sobald der Zuspieler HDMI 1.3 mit Decodierung von DTS-HD und Dolby Digital TrueHD hat kann der Empfäner HDMI 1.2 haben und trotzdem können die unkomprimierten Audiodaten empfangen und wiedergegeben werden

Fand ich auch erst, aber lies dir mal die Beiträge von "KarstenS" durch. Ich glaube er erklärt ziemlich gut, dass HDMI 1.3 momentan absolut keinen Sinn macht. Zumindest für die Normaluser.

@Da-Hirsch
Hast du schon neue Anschaffungen geplant um HDMI 1.3 zu nutzen?
Suche:
Gehe zu Seite: Erste Letzte |nächste|
Das könnte Dich auch interessieren:
HDMI 1.2 oder 1.3 für 1080p?
bucho77 am 29.09.2008  –  Letzte Antwort am 01.10.2008  –  22 Beiträge
PS3 - SACD-Support nur über HDMI 1.3?
Lex318 am 15.06.2007  –  Letzte Antwort am 27.12.2010  –  20 Beiträge
Einige Fragen zu PS3 HDMI !
Chakotay168 am 14.01.2009  –  Letzte Antwort am 14.01.2009  –  5 Beiträge
Welches HDMI Kabel für PS3
BlackFlower am 25.01.2007  –  Letzte Antwort am 16.07.2007  –  88 Beiträge
PS3 3D + True HD FRAGEN !
Bengsch am 29.09.2011  –  Letzte Antwort am 01.10.2011  –  17 Beiträge
Welches HDMI-Kabel für PS3?
Auswechselspieler am 30.08.2008  –  Letzte Antwort am 31.08.2008  –  7 Beiträge
PS3 und ein LCD TV, aber HDMI 1.3?
theshifter am 10.08.2006  –  Letzte Antwort am 17.08.2006  –  14 Beiträge
HDMI Version Playstation 3 - HDMI upgrade? usw.
mini83 am 05.09.2006  –  Letzte Antwort am 06.09.2006  –  10 Beiträge
Geeignetes HDMI - HDMI Kabel für Ps3 1080p
Taj am 23.09.2007  –  Letzte Antwort am 25.09.2007  –  9 Beiträge
HDMI-Kabel 1.1 auf PS3 HDMI-Ausgang 1.3
Andreas4712 am 06.05.2008  –  Letzte Antwort am 07.05.2008  –  4 Beiträge
Foren Archiv
2007

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder927.991 ( Heute: 15 )
  • Neuestes MitgliedDori-/
  • Gesamtzahl an Themen1.557.097
  • Gesamtzahl an Beiträgen21.672.449

Hersteller in diesem Thread Widget schließen