Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
2-6 Black-Box-<strong>Modellierung</strong><br />
yt = f(x1,x2,...,xk) = a0 + a1x1(t) + a2x2(t) + … + akxk(t) + ut. (2.9)<br />
Dann ist dies auch als Skalarprodukt formulierbar eines Parametervektors in Spaltenform<br />
mit dem Zeilenvektor der Variablen<br />
yt = (1, x1(t), …, xk(t) ) (a0, a1, …, ak) T + ut = xa T + ut. (2.10)<br />
Alle t = 1, ..., T Beobachtungen lassen sich dann zusammenfassen zu der linearen<br />
Form<br />
y = (y1, …, yT) T = Xa T + u. (2.11)<br />
mit der Matrix X aus T Zeilen <strong>und</strong> k+1 Spalten. Um eine Identifizierung der k+1<br />
Parameter ai zu ermöglichen, muss dabei der Rang der Matrix rang(X) = k+1 sein.<br />
Das Minimum des erwarteten quadratischen Fehlers R(a) bezüglich der Schätzung<br />
ˆy = f(a)= xa T wird erreicht, wenn die partielle Ableitung bezüglich jedes Parameters<br />
ai null ist:<br />
∂<br />
∂a i<br />
∂<br />
R(a) =<br />
∂a<br />
i<br />
1<br />
T<br />
T ⎛ ⎞<br />
2<br />
∑ ( y ˆ t − y)<br />
= 1<br />
⎜ ⎟<br />
⎝ t= 1 ⎠<br />
T<br />
T<br />
∑<br />
t= 1<br />
( − ˆ )<br />
2 y y x<br />
t ti<br />
!<br />
= 0 (2.12)<br />
Da dies für alle i = 1,..., k+1 gilt, erhalten wir insgesamt k+1 Gleichungen mit k+1<br />
Unbekannten. Die Lösung ergibt sich nach einigen Umformungen <strong>und</strong> Zusammenfassen<br />
der ai zu dem Lösungsvektor a = (a0, ...,ak) T der Parameter<br />
a = (X T X) -1 X T y ⇔ y = Xa (2.13)<br />
2.2.4 Parameterbestimmung: TLMSE<br />
Die Minimierung des quadratischen Fehlers bei der Approximation durch ein<br />
lineares System ist eng verwandt mit dem Problem, eine unbekannte Funktion f(x)<br />
in einem Intervall durch eine Gerade (allgemein: Hyperebene) F(x) mit dem<br />
kleinsten quadratischen Fehler zu approximieren. Betrachten wir dazu in Abb. 2.3<br />
einen verrauschten Messpunkt der unbekannten Funktion. Mit dem üblichen Kriterium<br />
des quadratischen Fehlers wird in diesem Fall versucht, die erwartete Abweichung<br />
〈(f(x)–y) 2 〉 so klein wie möglich zu machen. Dies ist aber nicht optimal.<br />
Besser ist es, anstelle nur des vertikalen Abstand der Datenpunkte den erwarteten<br />
tatsächlichen Abstand der Punkte senkrecht zu der Geraden (Hyperebene) zu minimieren<br />
(Total Least Mean Squared Error TLMSE). Dazu betrachten wir die<br />
geometrischen Verhältnisse in Abb. 2.4 genauer.