Direkt zum Inhalt

Lexikon der Mathematik: Gibbs-Phänomen

Oszillationen eines unstetigen Signals, die nach dem Herausfiltern der höchsten Frequenzen auftreten.

Ist ein Signal f unstetig, so fällt \(|\hat{f}(w)|\) typischerweise wie \(\frac{1}{w}\) für hohe Frequenzen w. Gibbs-Oszillationen treten auf, wenn die höchsten Frequenzen von f mit Hilfe eines Tiefpaßfilters entfernt werden.

Sei fv = f * hv das gefilterte Signal nach Faltung mit einem Tiefpaßfilter hv mit \({\hat{h}}_{v}\space =\space {\chi }_{[-v,v]}\) (charakteristische Funktion). Dann gilt \begin{eqnarray}{\hat{f}}_{v}(w)=\hat{f}(w)\cdot {\chi }_{[-v,v]}(w)=0\end{eqnarray} für |w| > v. Mit Hilfe der Plancherelformel sieht man \begin{eqnarray}\mathop{\mathrm{lim}}\limits_{v\to \infty }{\Vert f-{f}_{v}\Vert }_{{L}_{2}}=0.\end{eqnarray}

Jedoch impliziert diese L2-Konvergenz nicht die punktweise Konvergenz auf der gesamten Abszisse. Gibbs stellte 1899 fest, daß die maximale Amplitude des Fehlers |f(t) − fv(t)| für unstetiges f konstant bleibt.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.