Upsampling/Resampling verlustlos oder nicht?

+A -A
Autor
Beitrag
Cpt._Baseballbatboy
Inventar
#1 erstellt: 07. Jun 2004, 08:51
Moin,

ich hab mich da in einen kleinen Streit verwickelt, aus dem ich allein nicht mehr so einfach herauskomme (ist ein harter Widerpart).

Es geht darum, ob das Upsampling/Resampling (z. B. von 44,kHz auf 48kHz) fehlerlos ist oder nicht; ich vertrete ersteren Standpunkt.

Meine Begründung ist folgende:
ein abgetastetes, bandbegrenztes Signal kann nach Shannon wieder vollständig rekonstruiert werden (halbe Abtast- als obere Grenzfrequenz, Rekonstruktionstiefpass, etc.).
Das Signal ist also vollständig digital enthalten, da müsste es doch möglich sein, dieses neu abzutasten und genau so wieder rekonstruieren zu können.

Sein "Gegenbeweis" lautet so:
wird das Signal mit der doppelten (oder einem weiteren ganzzahligen Vielfachen) Frequenz neu abgetastet, dann ist ja jeder zweite (oder dritte, vierte,...) wieder ein Abtastwert des Originals, auf jeden Fall kommt jeder Originalwert wieder vor.
Bei ungeradzahligen Vielfachen (also z.B. 44,1kHz auf 48kHz) ist das jedoch nicht so, die originalen Abtastwerte werden übersprungen und nur jeder *wasweißichwievielte* ist wieder original.

Um ehrlich zu sein, klingt das für mich eher laienhaft, aber er verteidigt seinen Standpunkt mit solcher Inbrunst, dass ich so langsam unsicher werde.

Und da frage ich doch lieber jemanden, der sich mit so etwas besser auskennt als ich. Ich denke mal, da wird hier einer finden lasse.

Über Empfehlungen zu weiterführender Literatur würde ich mich auch freuen.

Danke schonmal.

Gruß
Cpt.
jakob
Hat sich gelöscht
#2 erstellt: 07. Jun 2004, 13:51
Hi,

Deine Überlegung ist schon richtig, theoretisch sollte jede Form von Resampling (Upsampling oder Oversampling) verlustfrei möglich sein.

Praktisch können die Verluste bei Upsampling tatsächlich größer sein, wenn, wie z.B. in CD-Spielern, in Echtzeit gerechnet werden muß.
Wir haben das schon öfter diskutiert, die Suchfunktion müßte Dir weiterhelfen können.

Eine sehr lesenswerte Seite (wie auch die übrigen von J.O Smith angebotenen) ist:

http://ccrma-www.stanford.edu/~jos/resample/

Gruss
Cpt._Baseballbatboy
Inventar
#3 erstellt: 07. Jun 2004, 14:21
Vielen Dank, dann bin ich also doch auf dem richtigen Wege.

Die Suchfunktion hatte ich im übrigen schon bemüht, ich war dann wohl nicht gründlich genug.

Aber die Seiten da werde ich mir mal genauer betrachten.

Gruß
Cpt.
jakob
Hat sich gelöscht
#4 erstellt: 07. Jun 2004, 19:58
Vielleicht noch eine Ergänzung; es geht bei Amplitudenquantisierung immer um die Beherrschbarkeit des Fehlers, soll heißen, solange beim Resampling der Fehler kleiner als 1/2 LSB ist, nimmt man an, das man auch nichts schlimmer gemacht hat, da der ursprüngliche Fehler auch in diesem Bereich angenommen wurde.

Ist eigentlich logisch, kann aber im Einzelfall trotzdem die Situation gegenüber dem Ausgangssignal verschlechtern (oder auch verbessern, sprich verändern).

Insofern ist in der Praxis die Frage nicht ganz einfach zu beantworten, nur, aufgrund des höheren Schwierigkeitsgrades ist Upsampling (sprich ungeradzahliges Resampling) schwerer in Echtzeit zu beherrschen als Oversampling.

Gruss
Cpt._Baseballbatboy
Inventar
#5 erstellt: 07. Jun 2004, 21:24
Die Amplitudenquantisierung wollte ich mal außen vor lassen, am Ende muss ich mich noch mit angeblichen Treppchen rumärgern. Auch wenn sie sicherlich eine Rolle spielt.

Allerdings frage ich mich, warum dann so oft auf 96 oder 192kHz gesamplet wird. Das sind schließlich ungeradzahlige Vielfache von 44,1kHz. Also bekommen die das entweder perfekt hin oder der (in der Praxis auftretende) Fehler ist so gering, dass er völlig unerheblich ist.

Bei der heutigen Rechenleistung von DSPs sollte auch die Echtzeitverarbeitung kein Problem mehr sein.

Gruß
Cpt.
jakob
Hat sich gelöscht
#6 erstellt: 08. Jun 2004, 12:10
Ist eine sehr gute Frage.

Ich vermute einerseits Marketingerwägungen, da man auf diese Weise eine Anmutung der neuen Formate von DVD bekommt und natürlich eine Abgrenzung zu dem bislang verwendeten "schnöden" Oversampling möglich wird. Sonst hätte man diese Neuigkeit sicher nicht so gut vermarkten können.

Da es dabei aber immer um Klangbeeinflussung durch Digitalfilterung geht, gibt es die verschiedensten Theorien. Eine Möglichkeit sind immer Klangveränderungen, die eigentlich Verfälschungen sind, aber trotzdem als besser empfunden werden.
Interessant sind hier sicher die Berichte z.B. von DCS, die zumindest die Möglichkeit hatten, verschiedene Varianten miteinander zu vergleichen. Da dcs allerdings sehr spärlich mit technischen Informationen, Kurven etc. zu den implementierten Filtern umgeht, kann ich nicht beurteilen, ob hier Randbedingungen eine Rolle spielten oder nicht.

Zumindest in Konsumergeräten wird die Rechenaufgabe meist nicht von DSPs übernommen, sondern von festverdrahteter Technik.

Die Amplitudenquantisierung kann man leider bei der Betrachtung nicht ganz aussen vor lassen.

Wenn man die Wahl hat zwischen der Einstellung des Digitalfilters auf 176,4 kHz und 192 kHz, dann würde ich immer die normale Variante wählen, denn der geringfügige Abstand bringt für das analoge Rekonstruktionsfilter keinen wirklichen Vorteil, aber das Verfälschungsrisiko steigt wegen der komplizierteren Filterauslegung. Wobei der Ansatz von Smith sehr elegant ist, allerdings bin ich mir nicht sicher, ob er irgendwo in IC-Form verwirklicht wurde.

Gruss

P.S. http://www.dcsltd.co.uk/Papers.htm

eine schöne Darstellung findest Du hier:

http://www.mlssa.com/pdf/Upsampling-theory-rev-2.pdf
tjobbe
Inventar
#7 erstellt: 08. Jun 2004, 12:45
meines wissen war bei der Einführung der Samplingraten bei CD und DAT genau das Quantisierungsrauschen der Grund warum diese nicht identisch gewählt wurden. Durch die Quantisierungsfehler zwischen 44.1Khz und 48 ist die Aussage die gewesen, daß die Qualität der Digitalen Kopie von CD nach DAT hörbar schlechter sein sollte. (warum auch sonst hätte man das damals so wählen sollen.... )

Keine Quantisierungsfehler treten beim Upsamplen auf ganzzahlige Vielfache auf....

Cheers, Tjobbe
jakob
Hat sich gelöscht
#8 erstellt: 08. Jun 2004, 18:41
Diese Argumentation für 48 kHz kannte ich noch nicht.

Zumindest in der Anfangszeit wäre ein verlustfreies Upsamplen auch ohne Echtzeitbedingung noch schwierig gewesen.

Allerdings ist ein größerer Quantisierungsfehler nicht zwingende Folge des Upsamplings.

Gruss
Suche:
Das könnte Dich auch interessieren:
Feinadriges LS-Kabel oder nicht ?
BlaBlaBla am 27.03.2006  –  Letzte Antwort am 28.03.2006  –  5 Beiträge
[nicht stimmbändermäßig] kratzender Dylan: Quelle oder Wiedergabekette?
Voodoo-Puppe am 16.11.2015  –  Letzte Antwort am 28.11.2015  –  5 Beiträge
Interferenz- Grundsatzfrage oder Verständnisproblem?
Earl_Grey am 15.10.2006  –  Letzte Antwort am 18.10.2006  –  12 Beiträge
Lautsprecher: Richtig oder falsch?
richi44 am 26.06.2006  –  Letzte Antwort am 13.07.2006  –  78 Beiträge
Symetrisch oder Unsymetrisch
ron87 am 10.03.2012  –  Letzte Antwort am 14.04.2012  –  3 Beiträge
Alles Quatsch oder doch nicht? Emphasis-codierte CDs.
eltom am 23.01.2006  –  Letzte Antwort am 10.07.2009  –  8 Beiträge
Mediaplayer mit Harddisk oder Digital Audio Musik Server oder, oder ?
KlausvonB am 09.02.2024  –  Letzte Antwort am 10.02.2024  –  5 Beiträge
Wer ist oder was H. H. Klinger
Chrisay am 01.07.2011  –  Letzte Antwort am 01.07.2011  –  3 Beiträge
"SANDWICH - METHODE" = Ankoppeln ? Entkoppeln ? Oder Beides !?
Dualese am 16.03.2006  –  Letzte Antwort am 23.08.2015  –  25 Beiträge
Surround oder Stereo für klassische Musik?
Klassikal am 31.08.2008  –  Letzte Antwort am 03.09.2008  –  2 Beiträge
Foren Archiv
2004

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder927.099 ( Heute: )
  • Neuestes MitgliedHänge-Reh
  • Gesamtzahl an Themen1.554.771
  • Gesamtzahl an Beiträgen21.621.404