78 8...

Jak cię złapią, to znaczy, że oszukiwałeś. Jak nie, to znaczy, że posłużyłeś się odpowiednią taktyką.
Metoda najmniejszych kwadratów
40
35
30
25
20
y
15
10
5
0
-5
-2
0
2
4
6
8
10
x
Rysunek 8.1: Przykład danych zawierających szum.
malizacji funkcji:
n
X
E =
d 2( xi) .
(8.2)
i=1
Jeśli założymy że funkcja g( x) dana jest przez wielomian m-tego stopnia:
g( x) = a 0 + a 1 x + a 2 x 2 + · · · + amxm, (8.3)
to można zapisać:
n
n
n
X
X
X
E =
|f( xi) − g( xi) | 2 =
|g( xi) − f( xi) | 2 =
( g( xi) − f( xi))2
i=1
i=1
i=1
n
= X( a 0 + a 1 xi + a 2 x 2 +
i
· · · + amxm
i
− f( xi))2 .
(8.4)
i=1
Minimalizacja funkcji E może być przeprowadzona przez przyrównanie do zera
pochodnych cząstkowych funkcji E względem współczynników ai : i = 0 , 1 , . . . , m:
∂E = 0 ,
∂a 0
∂E = 0 ,
∂a 1
8.2. Dopasowanie funkcji liniowej
79
...
∂E = 0 .
(8.5)
∂am
Dowód prawdziwości tego stwierdzenia wykracza poza ramy niniejszej pozycji, więc
nie zostanie przytoczony. Wzory (8.5) dają m + 1 równań z m + 1 niewiadomymi ai : i = 0 , 1 , . . . , m. Rozważając pierwsze równanie (8.5) można zapisać: n
∂E

=
X( a
+ · · · + a
∂a
0 + a 1 xi + a 2 x 2
i
mxm
i
− f( xi))2
0
∂a 0 i=1
n

= X
( a
+ · · · + a
∂a
0 + a 1 xi + a 2 x 2
i
mxm
i
− f( xi))2
0
i=1
n
= X 2( a 0 + a 1 xi + a 2 x 2 +
i
· · · + amxm
i
− f( xi))
i=1



( a
+ · · · + a
∂a
0 + a 1 xi + a 2 x 2
i
mxm
i
− f( xi))
0
n
= X 2( a 0 + a 1 xi + a 2 x 2 +
i
· · · + amxm
i
− f( xi))(1)
i=1

n
!

n
!

n
!
n
=
X
X
X
X
na 0 +
xi a 1 +
x 2
a
xm
a
f ( x
i
2 + · · · +
i
m =
i) .
i=1
i=1
i=1
i=1
(8.6)
W podobny sposób można wyprowadzić równanie ∂E/∂a 1, otrzymując:

n
!

n
!

n
!
n
X
X
X
X
xi a 0 +
x 2
a
xm+1
=
x
i
1 + · · · +
i
if ( xi) .
(8.7)
i=1
i=1
i=1
i=1
Rozwiązując w podobny sposób pozostałe równania otrzymuje się układ równań:

n
ψ( x
 



i)
ψ( x 2)
. . .
ψ( xm)
i
i
a 0
ψ( f ( xi))
ψ( x
)
ψ( x 3)
. . . ψ( xm+1)

i)
ψ( x 2 i
i
a
ψ( x
i
 
1 

i f ( xi)) 

)
)
)
) 



 ψ( x 2
ψ( x 3
ψ( x 4
. . . ψ( xm+2
a
ψ( x 2 f ( x
i
i
i
i
 
2  = 
i
i))  ,
(8.8)

.
.
.
.
.
 
. 

.


..
..
..
. .
..
 
..  
..


 



ψ( xm) ψ( xm+1) ψ( xm+2)
. . .
ψ( x 2 m)
a
ψ( xmf ( x
i
i
i
i
m
i
i))
gdzie: ψ( ·) = P n (
i=1 ·). Taki układ równań może być rozwiązany przy użyciu metody
eliminacji Gaussa.
8.2
Dopasowanie funkcji liniowej
Jak już zostało wspomniane wielomiany relatywnie niskiego stopnia są naj-
bardziej użyteczne przy aproksymacji funkcji. Okazuje się, że najczęściej używaną
80
8. Metoda najmniejszych kwadratów
funkcją do aproksymacji jest linia prosta. Nawet jeśli charakterystyka danych nie
jest liniowa, zawsze można przeskalować wykres tak aby uzyskać liniową charakte-
rystykę wyznaczanej funkcji (np. za pomocą skali logarytmicznej).
Niech m = 1 oraz ψ( ·) = P n (
i=1 ·), równanie (8.8) przyjmuje postać:

n
ψ( x


i )
a 0 = ψ( f( xi)) .
(8.9)
ψ( xi) ψ( x 2)
a
ψ( x
i
1
if ( xi))
Mnożąc strony równania przez macierz odwrotną oraz korzystając z algorytmu
obliczającego macierz odwrotną1 otrzymuje się:
a

− 1

0
=
n
ψ( xi)
ψ( f ( xi))
a 1
ψ( xi) ψ( x 2)
ψ( x
i
if ( xi))
1

)


=
ψ( x 2
ψ( f ( x
i
−ψ( xi)
i ))
nψ( x 2)
−ψ( x
ψ( x
i
− ( ψxi)2
i)
n
if ( xi))
1

)

=
ψ( x 2 ψ( f ( x
i
i )) − ψ( xi) ψ( xif ( xi)) .
(8.10)
nψ( x 2)
nψ( x
i
− ( ψ( xi))2
i f ( xi)) − ψ( xi) ψ( f ( xi))
Co ostatecznie prowadzi do:
(P n x 2)(P n f( x
x
x
a
i=1
i
i=1
i)) − (P n
i=1
i)(P n
i=1
if ( xi))
0 =
,
(8.11)
n P n
x 2
x
i=1
i − (P n
i=1
i)2
n P n
x
x
f ( x
a
i=1
if ( xi) − (P n
i=1
i)(P n
i=1
i))
1 =
Wątki
Powered by wordpress | Theme: simpletex | © Jak cię złapią, to znaczy, że oszukiwałeś. Jak nie, to znaczy, że posłużyłeś się odpowiednią taktyką.