Trigonometriska polynom

Trigonometriska polynom är funktioner som beter sig periodiskt. Dessa funkioner kommer i form av cosinus och sinus. Lättaste sättet att beskriva den trigonometriska polynom är genom att visa hur en funktionsmodell kan se ut. $$c_1 + c_2sin(w) = F\;$$ $$c_1 + c_2sin(w) + c_3cos(v) = F\;$$ Mer abstrakt kan man säga att trigonometriska polynom består av linjära kombinationer av funktioner som antar formen $$sin(nx)$$ och $$cos(nx)$$ där $$n$$ är naturliga tal.

Trigonometrisk interpolation
För att man ska kunna använda minstakvadratmetoden krävs det att det trigonometriska problemet är ett linjärt sådant. Med andra ord om t.ex $$c_1$$ till $$c_3$$ är våra okända värden i formlerna ovan. Om det istället var v och w hade det inte varit lika lätt att direkt ansätta minstakvadratmetoden av ganska naturlia skäl (försök själv).

Vi har följande modell

$$c_1 + c_2sin(w(t-t_0)) = F\;$$

Vi har också följande värden ​t: 0.5 0.8  1.0  1.2  1.5  1.8  2.0  2.4 y: 0.3 0.3  0.5  0.9  1.4  1.1  0.5  0.3 Utifrån detta kan vi se att det blir ett ickelinjärt ekvationssystem med åtta st ekvationer och fyra obekanta (nämligen $$c_1$$ $$ c_2$$ $$w $$ och $$t_0 $$).

Om vi nu kände till $$w$$ och $$t_0$$ hade det varit ett ypperligt tillfälle att direkt tillämpa minstakvadratmetoden på $$c_1$$ och $$c_2$$, eftersom vi då skulle få ett överbestämt linjärt system. Sedan skulle det bara vara att minimera felkvadratsumman.

Nu är det inte lika lätt då vi har våra "inbakade" okända. Det man kan göra då är att flytta över våra y-värden så vi för följande upplägg. $$c_1 + c_2sin(w(0.5-t_0)) -0.3 = 0\;$$ $$c_1 + c_2sin(w(0.8-t_0)) -0.3 = 0\;$$ $$c_1 + c_2sin(w(1.0-t_0)) -0.5 = 0\;$$ $$c_1 + c_2sin(w(1.2-t_0)) -0.9 = 0\;$$ $$c_1 + c_2sin(w(1.5-t_0)) -1.4 = 0\;$$ $$c_1 + c_2sin(w(1.8-t_0)) -1.1 = 0\;$$ $$c_1 + c_2sin(w(2.0-t_0)) -0.5 = 0\;$$ $$c_1 + c_2sin(w(2.4-t_0)) -0.3 = 0\;$$

Det kommer inte att lyckas hitta en sinuskurva som går direkt igenom alla våra punkter men vårt mål blir att hitta så bra funktionsvärden att avvikelsen blir minimal. Vi använder den euklidiska normen för detta. Denna får vi genom att ta $$||f||^2$$ där $$f$$ är vektorn av alla våra funktioner ovan som ska bli 0 (men de blir ju inte exakt 0 utan har ett visst litet värde).

För att lösa detta kommer Newtons metod att användas tillsammans med minstakvadratmetoden. Denna metod som kombinerar dessa två metoder har ett eget namn som kallas för Gauss-Newtons metod.

Det man gör är att först beräkna Jacobianen för varje ekvation och sätter sedan in startgissningar. Eftersom vi har 8 ekvationer och 4 obekanta så bör Jacobianen bli en 8 x 4 matris. Nästa steg blir att beräkna $$Jdc = -f\;$$ där $$f$$ är vektorn med våra insatta startgissningar i våra ekvationer och $$dc$$ (delta c) blir vår korretionsvektor som senare kommer ge våra nästa gissningar. I matlab löses detta genom $$dc = -J\;$$\$$f\;$$ men vid handräkning får man göra $$J^TJdc=-J^Tf\;$$.

Våra nya gissningar kommer att bli $$c = c + dc$$ där c var vektorn med gamla gissningar. Man gör detta om och om tills dess att norm(dc) är tillräckligt liten.