Audiowellen als Vektoren, Kurven und Tangenten?

Hallo,

ich habe gerade den Wikipedia-Artikel zum „Dithering“ gelesen, Dabei geht es, wenn ich es recht verstanden habe, um eine Methode zur Vermeidung der Stufigkeit des digitalen („quantisierten“ ) Audiosignals und damit einhergehender Verbesserung des klanglichen Resultats.

In letzter Zeit frage ich mich, ob nicht schon mal jemand auf die Idee gekommen ist, Audiowellen weniger als Pixel- als vielmehr als Vektorgrafiken aufzufassen um auf diese Weise die „Pixeligkeit“ zu verringern. Die Welle würde dann durch Tangenten und evtl. Vektoren beschrieben werden können, evtl. auch durch Standard-Kurvenformen. Und das Prinzip kennt man ja schon aus dem Grafikbereich, wo Vektorgrafiken heutzutage Standard sind (was ja nicht immer der Fall war).

Vielleicht ist aber auch der dabei anfallende Datenwust noch größer als der bei der normalen „quantisierten“ („verpixelten“) Musik. Weiß hier jemand was darüber? Gibt es die meinerseits hier vorgestellte Idee möglicherweise bereits und wie heißt sie?

Gruß
Uwe

Hi,

ja, das gibt es und nennt sich Tiefpassfilter. Die Betrachtung von Signalen als Punkte in einem Funktionenvektorraum ist üblich in der Signalverarbeitung.

Stufigkeit ergibt sich ja eh nur, wenn die Samplingrate erhöht wird bzw. beim Übergang von diskret zu kontinuierlich. Normalerweise muss man sich keine Gedanken darüber machen, da am Ende der Lautsprecher durch die Trägheit der mechanischen Teile als Tiefpassfilter wirkt.

Es gibt aber auch Systeme, die das Signal digital über das Lautsprecherkabel übertragen. Damit dann im Lautsprecher nach der Digital-Analog-Wandlung gar nichts mehr transformiert werden muss, wird vor der Übertragung das Signal von 41kHz auf 192kHz hochgesampelt. Dabei wird mit Bezier oder einem ähnlich wirkenden digitalen Filter interpoliert.

Gruß, Lutz

Hallo Lutz,

hab vielen Dank für Deine Antwort, deren Inhalt mich allerdings erstaunt. Ein Tiefpaßfilter ist, wenn ich recht informiert bin, doch eigentlich dafür konzipiert, nur tiefe Frequenzen durchzulassen. Meine Frage zielte aber eigentlich darauf ab, das Audiosignal als Ganzes als Ergebnis einer Beschreibung von Vektoren, Kurven und Tangenten zu formen - im Gegensatz zu der bisher üblichen „pixeligen Auflösung“ und Unterteilung in bit-Faktoren (16 - 96 bit sind ja beim Recording in der DAW üblich).

Ich kenne leider die mathematisch-physikalischen Fachtermini für die mathematische Umsetzung analoger Wellenformen in digitale Information nicht, ich bitte mir das zu verzeihen.

Wenn Du mir sagst, das erledige ein Tiefpaßfilter, insinuiert das für mich, daß das nur mit den tiefen Frequenzen auch wirklich gut funktioniert, evtl. fallen bei der „vektorisierten Darstellung der Welle“ bei höheren Frequenzen im Mischmasch der Überlagerungen der verschiedensten Töne bis zum Rauschen also doch noch wesentlich mehr oder etwa gleichviele Daten an für die Beschreibung der dabei entstehenden Wellenformen als bei der üblichen „pixeligen“ „Step-by-Step“-Beschreibung, oder warum schreibst Du von Tiepaßfilter?

Also zusammengefaßt meine Frage an Dich: wieso schreibst Du „Tiefpaßfilter“, wo es (mir) doch um die ganze Musik und nicht nur um die Bässe geht?

Beste Grüße
Uwe

ja, das gibt es und nennt sich Tiefpassfilter. Die Betrachtung
von Signalen als Punkte in einem Funktionenvektorraum ist
üblich in der Signalverarbeitung.

Stufigkeit ergibt sich ja eh nur, wenn die Samplingrate erhöht
wird bzw. beim Übergang von diskret zu kontinuierlich.
Normalerweise muss man sich keine Gedanken darüber machen, da
am Ende der Lautsprecher durch die Trägheit der mechanischen
Teile als Tiefpassfilter wirkt.

Es gibt aber auch Systeme, die das Signal digital über das
Lautsprecherkabel übertragen. Damit dann im Lautsprecher nach
der Digital-Analog-Wandlung gar nichts mehr transformiert
werden muss, wird vor der Übertragung das Signal von 41kHz auf
192kHz hochgesampelt. Dabei wird mit Bezier oder einem ähnlich
wirkenden digitalen Filter interpoliert.

Gruß, Lutz

Hallo,

Ein Tiefpaßfilter ist, wenn ich recht
informiert bin, doch eigentlich dafür konzipiert, nur tiefe
Frequenzen durchzulassen.

Richtig. Und wenn man sich eine Fourieranalyse eines Rechtecksignals anschaut und dann überlegt, was ein Tiefpass dabei macht, kommt man auf:

Törö: die Stufen werden abgeflacht, runder gemacht, begradigt.

)

Gruß
loderunner

Zu viele Daten bei ‚‚vektorisierter Kodierung‘‘?
Hallo,

bedeutet dies, daß die von mir vorgeschlagene „vektorisierte Kodierung“ der Audiowelle bei höheren Frequenzen zu viele Daten erzeugen würde, mehr als eine treppenstufige („pixelige“) Codierung der Welle?

Oder warum wird das nur bei tiefen Frequenzen gemacht?

Gruß
Uwe

Hallo,

bedeutet dies, daß die von mir vorgeschlagene „vektorisierte
Kodierung“ der Audiowelle bei höheren Frequenzen zu viele
Daten erzeugen würde, mehr als eine treppenstufige
(„pixelige“) Codierung der Welle?

Nö. Es ist schlicht egal, ob Du einfach den jeweiligen Wert direkt oder stattdessen die Differenz zum Vorgängerwert angibst. Der Wertebereich wäre genau der gleiche, die zeitliche und spannungsmäßige Auflösung ebenfalls. Außerdem muss man bei der Differenzenform vor der Wandlung erst noch umwandeln, ohne dafür irgendeinen Vorteil zu bekommen. Also: wozu?

Oder warum wird das nur bei tiefen Frequenzen gemacht?

Warum sollte das irgendwer überhaupt machen? Ist mir völlig neu, dass das irgendwo passiert. Und das ganze nur für tiefe Frequenzen ist komplett unsinnig.
Gruß
loderunner

Nun bin ich, mit Verlaub…
…doch ein wenig irritiert. Vielleicht mag mal jemand, der sich kompetent genug wähnt, sich meiner Frage erbarmen und Licht ins Dunkel bringen?

Die bisherigen Antworten auf meine Frage könnten kaum widersprüchlicher sein als sie sind. :-/

Gruß
Uwe

Hi,

ich glaube, Du stolperst über das „tief“ in Tiefpass. Ein Tiefpassfilter ist ein Filter, das ein bestimmtes Basisband durchläßt und alles außerhalb dämpft. Das Basisband kann von 0 bis 100Hz gehen, aber auch von 0 bis 20kHz oder von 0 bis 192kHz. Das Gegenteil ist ein Hochpassfilter, und dazwischen mit beliebigen Anfangs- und Endfrequenzen die Bandpassfilter.

Wenn ich es richtig verstanden habe, schwebt Dir sowas wie eine Spline-Interpolation vor. Das kann man machen, ergibt aber für Audio-Signale eine unnötige Genauigkeit. In der Theorie interpoliert man als bandbeschränkte Funktion, d.h. mit der sinc-Funktion als Interpolationskern, d.h., mit der Shannon-Nyquist-Interpolationsformel, die so heißt, obwohl sie von Whittaker ein paar Jährchen früher eingeführt wurde.

Da diese aber einen unendlichen Filter erfordern würde, mit unendlicher Signalverzögerung, benutzt man in der Praxis Tiefpassfilter. Diese werden auf das Rechtecksignal, oder wenn es professioneller wirken soll, auf eine stückweise lineare Interpolation (lineare Splines) angewandt.

Das ist dann keine punktgenaue, sondern eine approximative Interpolation. Aber wie gesagt, für Audiosignale ist das bedeutungslos. Die Korrekturen in Richtung des erwarteten Tons im Ohr beim Hören dürften einen größeren Einfluß haben.

Ciao Lutz

1 Like