Filter der kleinsten mittleren Quadrate - Least mean squares filter

Algorithmen der kleinsten mittleren Quadrate ( LMS ) sind eine Klasse von adaptiven Filtern, die verwendet werden, um ein gewünschtes Filter nachzuahmen, indem die Filterkoeffizienten gefunden werden, die sich auf die Erzeugung des kleinsten mittleren Quadrats des Fehlersignals (Differenz zwischen dem gewünschten und dem tatsächlichen Signal) beziehen. Es ist ein stochastisches Gradientenabstiegsverfahren , bei dem der Filter nur basierend auf dem Fehler zum aktuellen Zeitpunkt angepasst wird. Es wurde 1960 von Professor Bernard Widrow von der Stanford University und seinem ersten Ph.D. Schüler, Ted Hoff .

Problem Formulierung

LMS-Filter

Beziehung zum Wiener-Filter

Die Realisierung des kausalen Wiener-Filters ähnelt stark der Lösung der Kleinste-Quadrate-Schätzung, außer im Bereich der Signalverarbeitung. Die Kleinste - Quadrate - Lösung, für die Eingangsmatrix und den Ausgangsvektor ist

Das FIR-Filter der kleinsten mittleren Quadrate bezieht sich auf das Wiener-Filter, aber das Minimieren des Fehlerkriteriums des ersteren beruht nicht auf Kreuzkorrelationen oder Autokorrelationen. Seine Lösung konvergiert gegen die Wiener Filterlösung. Die meisten linearen adaptiven Filterprobleme können unter Verwendung des obigen Blockdiagramms formuliert werden. Das heißt, ein unbekanntes System soll identifiziert werden, und das adaptive Filter versucht, das Filter so anzupassen , dass es so nahe wie möglich an , wobei nur beobachtbare Signale verwendet werden , und ; aber , und sind nicht direkt beobachtbar. Seine Lösung ist eng mit dem Wiener-Filter verwandt .

Definition von Symbolen

ist die Nummer des aktuellen Eingangs-Samples
ist die Anzahl der Filterabgriffe
( Hermitesche Transponierung oder konjugierte Transponierung )
geschätzter Filter; interpretieren als Schätzung der Filterkoeffizienten nach n Samples

Idee

Die Grundidee hinter dem LMS-Filter besteht darin, sich den optimalen Filtergewichten anzunähern , indem die Filtergewichte so aktualisiert werden, dass sie zum optimalen Filtergewicht konvergieren. Dies basiert auf dem Gradientenabstiegsalgorithmus. Der Algorithmus beginnt mit der Annahme kleiner Gewichte (in den meisten Fällen null) und bei jedem Schritt werden die Gewichte aktualisiert, indem der Gradient des mittleren quadratischen Fehlers ermittelt wird. Das heißt, wenn der MSE-Gradient positiv ist, bedeutet dies, dass der Fehler weiterhin positiv ansteigt, wenn das gleiche Gewicht für weitere Iterationen verwendet wird, was bedeutet, dass wir die Gewichte reduzieren müssen. Auf die gleiche Weise müssen wir die Gewichtungen erhöhen, wenn der Gradient negativ ist. Die Gewichtsaktualisierungsgleichung lautet

,

wobei stellt den mittleren quadratischen Fehler dar und ist ein Konvergenzkoeffizient.

Das negative Vorzeichen zeigt, dass wir die Steigung des Fehlers nach unten gehen, um die Filtergewichte zu finden , die den Fehler minimieren.

Der mittlere quadratische Fehler als Funktion der Filtergewichte ist eine quadratische Funktion, was bedeutet, dass er nur ein Extremum hat, das den mittleren quadratischen Fehler minimiert, was das optimale Gewicht ist. Das LMS nähert sich somit diesen optimalen Gewichtungen durch Aufsteigen/Absteigen der Kurve des mittleren quadratischen Fehlers gegenüber der Filtergewichtung.

Ableitung

Die Idee hinter LMS-Filtern besteht darin, den steilsten Abstieg zu verwenden, um Filtergewichte zu finden, die eine Kostenfunktion minimieren . Wir beginnen mit der Definition der Kostenfunktion als

wo ist der Fehler beim aktuellen Sample n und bezeichnet den erwarteten Wert .

Diese Kostenfunktion ( ) ist der mittlere quadratische Fehler und wird durch das LMS minimiert. Daher hat das LMS seinen Namen. Das Anwenden des steilsten Abstiegs bedeutet, die partiellen Ableitungen in Bezug auf die einzelnen Einträge des Filterkoeffizienten-(Gewichts-)Vektors zu bilden

wo der Gradient Operator

Nun ist ein Vektor, der auf den steilsten Anstieg der Kostenfunktion zeigt. Um das Minimum der Kostenfunktion zu finden, müssen wir einen Schritt in die entgegengesetzte Richtung von tun . Um das mathematisch auszudrücken

wo ist die Schrittweite (Anpassungskonstante). Das heißt, wir haben einen sequentiellen Aktualisierungsalgorithmus gefunden, der die Kostenfunktion minimiert. Leider ist dieser Algorithmus nicht realisierbar, bis wir es wissen .

Im Allgemeinen wird die obige Erwartung nicht berechnet. Stattdessen verwenden wir zum Ausführen des LMS in einer Online-Umgebung (Aktualisierung nach Erhalt jedes neuen Samples) eine sofortige Schätzung dieser Erwartung. Siehe unten.

Vereinfachungen

Für die meisten Systeme muss die Erwartungsfunktion approximiert werden. Dies kann mit dem folgenden unverzerrten Schätzer erfolgen

wobei die Anzahl der Stichproben angibt, die wir für diese Schätzung verwenden. Der einfachste Fall ist

Für diesen einfachen Fall folgt der Aktualisierungsalgorithmus als

Tatsächlich bildet dies den Aktualisierungsalgorithmus für den LMS-Filter.

Zusammenfassung des LMS-Algorithmus

Der LMS-Algorithmus für Filter a- ter Ordnung kann wie folgt zusammengefasst werden:

Parameter: Filterreihenfolge
Schrittlänge
Initialisierung:
Berechnung: Zum

Konvergenz und Stabilität im Mittel

Da der LMS-Algorithmus nicht die exakten Werte der Erwartungen verwendet, würden die Gewichte im absoluten Sinne nie die optimalen Gewichte erreichen, aber im Mittel ist eine Konvergenz möglich. Das heißt, obwohl sich die Gewichte um kleine Beträge ändern können, ändert es sich um die optimalen Gewichte. Wenn jedoch die Varianz, mit der sich die Gewichte ändern, groß ist, wäre eine Konvergenz des Mittelwerts irreführend. Dieses Problem kann auftreten, wenn der Wert der Schrittweite nicht richtig gewählt ist.

Wenn groß gewählt wird, hängt der Betrag, mit dem sich die Gewichte ändern, stark von der Gradientenschätzung ab, so dass sich die Gewichte um einen großen Wert ändern können, so dass der Gradient, der im ersten Moment negativ war, nun positiv werden kann. Und im zweiten Moment kann sich das Gewicht aufgrund des negativen Gradienten um einen großen Betrag in die entgegengesetzte Richtung ändern und würde somit mit einer großen Varianz um die optimalen Gewichte weiter schwingen. Wenn andererseits zu klein gewählt wird, wird die Zeit zum Konvergieren zu den optimalen Gewichten zu groß.

Daher wird eine obere Schranke benötigt, die gegeben ist als

wobei der größte Eigenwert der Autokorrelationsmatrix ist . Ist diese Bedingung nicht erfüllt, wird der Algorithmus instabil und divergiert.

Die maximale Konvergenzgeschwindigkeit wird erreicht, wenn

wo ist der kleinste Eigenwert von . Unter der Annahme, dass dies kleiner oder gleich diesem Optimum ist, wird die Konvergenzgeschwindigkeit durch bestimmt , wobei ein größerer Wert eine schnellere Konvergenz ergibt. Dies bedeutet, dass eine schnellere Konvergenz erreicht werden kann, wenn nahe bei , dh die maximal erreichbare Konvergenzgeschwindigkeit hängt von der Eigenwertspreizung von ab .

Ein weißes Rauschsignal hat eine Autokorrelationsmatrix, wobei die Varianz des Signals ist. In diesem Fall sind alle Eigenwerte gleich und die Eigenwertspreizung ist das Minimum über alle möglichen Matrizen. Die gängige Interpretation dieses Ergebnisses ist daher, dass das LMS bei weißen Eingangssignalen schnell konvergiert und bei farbigen Eingangssignalen langsam, wie beispielsweise bei Prozessen mit Tiefpass- oder Hochpasscharakteristik.

Es ist wichtig zu beachten, dass die obige obere Schranke nur im Mittel Stabilität erzwingt, aber die Koeffizienten von immer noch unendlich groß werden können, dh eine Divergenz der Koeffizienten ist immer noch möglich. Eine praktischere Grenze ist

wobei bezeichnet die Spur von . Diese Grenze garantiert, dass die Koeffizienten von nicht divergieren (in der Praxis sollte der Wert von nicht nahe dieser oberen Grenze gewählt werden, da er aufgrund von Näherungen und Annahmen bei der Ableitung der Grenze etwas optimistisch ist).

Normalized Least Mean Squares Filter (NLMS)

Der Hauptnachteil des "reinen" LMS-Algorithmus besteht darin, dass er empfindlich auf die Skalierung seiner Eingabe reagiert . Dies macht es sehr schwierig (wenn nicht unmöglich), eine Lernrate zu wählen , die die Stabilität des Algorithmus garantiert (Haykin 2002). Der Normalized Least Mean Squares Filter (NLMS) ist eine Variante des LMS-Algorithmus, der dieses Problem durch Normalisieren mit der Leistung der Eingabe löst. Der NLMS-Algorithmus kann wie folgt zusammengefasst werden:

Parameter: Filterreihenfolge
Schrittlänge
Initialisierung:
Berechnung: Zum

Optimale Lernrate

Es kann gezeigt werden, dass die optimale Lernrate für den NLMS-Algorithmus ist , wenn keine Interferenz ( ) vorliegt

und ist unabhängig von der Eingabe und der realen (unbekannten) Impulsantwort . Im allgemeinen Fall mit Interferenz ( ) ist die optimale Lernrate

Die obigen Ergebnisse gehen davon aus, dass die Signale und nicht miteinander korreliert sind, was in der Praxis im Allgemeinen der Fall ist.

Beweis

Die Filterfehlausrichtung sei definiert als , wir können die erwartete Fehlausrichtung für die nächste Probe wie folgt ableiten:

Lass und

Unabhängig davon haben wir:

Die optimale Lernrate wird bei gefunden , was zu:

Siehe auch

Verweise

  • Monson H. Hayes: Statistical Digital Signal Processing and Modeling, Wiley, 1996, ISBN  0-471-59431-8
  • Simon Haykin: Adaptive Filter Theory, Prentice Hall, 2002, ISBN  0-13-048434-2
  • Simon S. Haykin, Bernard Widrow (Herausgeber): Least-Mean-Square Adaptive Filters, Wiley, 2003, ISBN  0-471-21570-8
  • Bernard Widrow, Samuel D. Stearns: Adaptive Signalverarbeitung, Prentice Hall, 1985, ISBN  0-13-004029-0
  • Weifeng Liu, Jose Principe und Simon Haykin: Kernel Adaptive Filtering: A Comprehensive Introduction, John Wiley, 2010, ISBN  0-470-44753-2
  • Paulo SR Diniz: Adaptive Filtering: Algorithms and Practical Implementation, Kluwer Academic Publishers, 1997, ISBN  0-7923-9912-9

Externe Links