Navigation überspringen

Methode der Kleinsten Quadrate

Bezeichne man die Probeparameter   als $a_j$, $a_j=a+ja,\ j=-1, -0.9,-0.8, \ldots 20 $ und $k_i=k+ia,\ i=-1, -0.99,-0.98, \ldots 1$.
Im folgendem Code sind die Probeparameter so gewählt, dass Sie in einer Umgebung der geschätzten Parameter $a,k$ liegen.
 
Es wird ein globales Fehlermaß, das sog. Residuum,  als die Summe der Quadrate der Abstände  der Daten $d_n$ von den Kurvenpunkten $y(t_n)=a e^{k.t_n}$ für diese Probeparameter berechnet:
$$R(a_j,k_i)=\sum_{n=1}^N (a_j e^{k_i.t_n}-d_n)^2=\|(a_j e^{k_i.\vec{t}}-\vec{d}\|^2_2, \ \vec{t}=(t_1,\ldots t_n), \ \vec{d}=(d_1,\ldots d_n). $$
(Dies kann in Octave mithilfe der Euklidichen Norm des Unterschiedes zweier Vektoren elegant berechnet werden)
 
Im folgenden  Code wird zuerst  das Minimum des Residuums $R(a_j,k_i)$  bezüglich $k_i$  für jedes feste $a_j$ (mithilfe einer 'for' -Schleife für $i$)  gesucht,
es wird also ein $k_{opt}^j$ für jedes $j$ gefunden mit $$R(a_j,k_{opt}^j) \equiv \min_{\forall i}R(a_j,k_i).$$
 
Danach wird nach dem Prinzip: ''Talwanderung bis zum tiefsten Punkt'' noch ein Minimum für $R(a_j,k_{opt}^j) $   bezüglich $j$ gesucht (mithilfe einer zweiten 'for'-Schleife für $j$). Dadurch wird also ein bestimmter Index $I$ gefunden  für welchen das Residuum minimal ist:
$$\min_{\forall j} \Big\{\min_{\forall i } R( a_j,k_i)\Big\} \equiv  \min_{\forall j}R(a_j,k_{opt}^j)\equiv R(a_{I},k_{opt}^I).$$
 
Den Anfangswert mit diesem Index  bezeichen wir als optimales $a$, $a_{opt}:=a_I$ und die entsprechend zu diesem Anfangswert zugehörige optimale Wachstumsrate $k_{opt}^I$ bezeichnen wir auch mit   $k_{opt}:=k_{opt}^I$. Die entsprechende  Variablen  im Code heißen  $k_{opt}:=$'Optim_Wachsrate' und  $a_{opt}:=$'Optim_Anfangswert', und werden im  folgendem Schritt ausgegeben.
Zum Schluß werden die optimale Wachstumsrate $k_{opt}$, der optimaler Anfangswert $a_{opt}$, der Fehler (das Residuum)  und eine Graphik der Exponentialregression zu den RKI- Daten ausgegeben.