Clase 05 M.nimos Cuadradosmaterias.fi.uba.ar/6631/material/Clase_05_Minimos_Cuadrados.pdf · xP x...

Post on 24-Nov-2018

216 views 0 download

Transcript of Clase 05 M.nimos Cuadradosmaterias.fi.uba.ar/6631/material/Clase_05_Minimos_Cuadrados.pdf · xP x...

1

1. Mínimos Cuadrados 1. Mínimos Cuadrados_____________________________________________ 1

1.1. Introducción _______________________________________________________________________________________________________2

1.2. Método de Identificación por Mínimos Cuadrados _______________________________________________________________________3 1.2.1. Forma Recursiva:__________________________________________________________________________________________________________ 6 1.2.2. Inclusión del Factor de Olvido. ______________________________________________________________________________________________ 10

1.3. Características Estadísticas de la Estimación___________________________________________________________________________17 1.3.1. Correlación de la Estimación:________________________________________________________________________________________________ 20

1.4. Influencia del Valor Medio _________________________________________________________________________________________22

1.5. Referencias _______________________________________________________________________________________________________33

2

1.1. Introducción

ajuste automático de parámetros = Identificación de Sistemas

Excitación

-

+

Planta

Modelo

Salida de la Planta

Salida del Modelo

Error de Estimación

3

1.2. Método de Identificación por Mínimos Cuadrados Se considera, a los efectos del análisis, la siguiente planta real:

1 10

n mT

i i k kk i k kk k-ii=1 i=

= + u y ya b xε εθ−+ + + = +∑ ∑ [1-1]

kε perturbación o incertidumbre.

modelo:

1 10

ˆ ˆˆ ˆn m

Ti k-i kk k-i ki

i=1 i=

= + = y ya u xb θ+ +∑ ∑ [1-2]

donde

1

0

1 11 1

ˆ

ˆˆˆ

ˆ

1 k

n k-nkk

k

k-mm N n mN n m

ya

ya = = xub

ub

θ+

× = + +× = + +

[1-3]

4

Para cada instante k habrá un error o diferencia entre ambas salidas: 1 1 1ˆk k ke y y+ + += − [1-4]

tomando todas las muestra, 1

11

1

ˆk

kk k

eE = - Y

eθφ

+

++

=

[1-5]

con

1

1

1

k

k

y =Y

y

+

+

,

1

0

ˆ

ˆˆ

ˆ

ˆ

n

m

a

a

b

b

θ

=

,

1

00 1

Tk k k-mk k-n

kT0 -m-n

y yx u u = =

y yx u uφ

+

… …

… … [1-6]

5

Se puede minimizar el error respecto a θ̂ . J T

k k kE E= [1-7]

ˆˆJ 0T T

p p = 2 Y - 2 = | φθφ φ∇ [1-8]

el valor de θ̂ que hace mínimo J es:

1*ˆ T Tk k k k kYθ φ φ φ

− = [1-9]

6

1.2.1. Forma Recursiva: Analicemos una forma más cómoda de expresar la ecuación [1-9]. Primero

definamos la matriz P como sigue:

[ ]Tk-N k-N

T T T-1 -1k k-1k-N 0 i i k kk

i=0T0

x = + x x x x x xP P

x

φφ = = =

∑… [1-10]

Del mismo modo el vector b será:

[ ]k-N k-N

Tkk k-N 0 i k-1 kk i k

i=00

y = = = + y yb x x x b xY

=

∑… [1-11]

Entonces [1-9] se expresará

ˆ k kk = bPθ [1-12]

La inversa de la matriz P en un instante k puede expresarse en función de su valor anterior más otra matriz

T-1 -1k k-1 k k = + x xP P [1-13]

7

Si la premultiplicamos por kP -1 T-1

k-1 k kk k kkP P I = P + P x xP= [1-14]

y luego, posmultiplicando por 1kP − resulta: T

k-1 k k k-1k k = + x xP P P P [1-15]

o lo que es lo mismo T

k-1 k k k-1k k - = x xP P P P [1-16]

Posmultipliquemos [1-15] por kx T T

k-1 k k k-1 k k-1k k k k k k k k = + = 1 + x x x x x x x xP P P P P P [1-17]

y agrupemos. -1T

k-1 k-1 kk k k k 1 + = x x x xP P P [1-18]

Ahora, reemplazando [1-18] en [1-16] T

k-1 k-1k kk-1 k T

k-1k k

x xP P - = P P 1 + x xP [1-19]

o su equivalente

8

Tk-1 k-1k k

k k-1 Tk-1k k

x xP P = - P P 1 + x xP [1-20]

Haremos lo mismo con el vector θ . Por la ecuación [1-18] tenemos

[ ]ˆT

k k-1k kk-1 k-1 k kk T

k-1k k

x xP P - + yb xP 1 + x xPθ

=

[1-21]

[ ]ˆ ˆT

k-1 k-1k kk-1k-1 k kk kk k-1 T

k-1k k

x xP P - + + y yb x xP1 + x xPθ θ= [1-22]

por [1-18] sabemos que: k-1 k

k k Tk-1k k

xP = xP 1 + x xP [1-23]

reemplazando en la anterior ˆ ˆ T T

k k-1 k k-1 k-1k k k-1 k k k kk kk k-1= - - + y yx x b x x x xP P P P Pθ θ [1-24]

ˆ ˆ ˆT Tk k-1 k k-1k k k k k kk k-1 k-1 - - yx x x x xP P P Pθ θ θ= + [1-25]

de [1-16] resulta T

k k-1 k k-1k k = - x xP P P P [1-26]

quedando

9

ˆ ˆ ˆTk k k kk k-1 k-1= - - yx xPθ θ θ [1-27]

en resumen el algoritmo está formado por las dos ecuaciones siguientes:

[ ]ˆ ˆ ˆk k k kk k-1

Tk-1 k-1k k

k k-1 Tk-1k k

- - y yxP x xP P = - P P 1 + x xP

θ θ =

[1-28]

Otra forma equivalente que se suele utilizar en la bibliografía es

1

1

ˆ ˆ ˆ

k kk T

k k k

Tk k k k k

Tk k kk k-1 k-1

P xKx P x

P K x PP K y xθ θ θ

+

= + = − = + −

[1-29]

10

1.2.2. Inclusión del Factor de Olvido. En el algoritmo anterior pesamos de igual manera las medidas muy viejas y las

nuevas. J T

k k = Q e e⋅ ⋅ [1-30]

donde 1 0 0

0

0 0

k

k-N

0Q

α

α

=

[1-31]

La matriz Q pondera las muestras dándole más o menos importancia a la historia con respecto al último valor según el parámetro α el cual se llama factor de olvido.

Igual que antes derivamos J para obtener el mínimo.

ˆˆ2 2 0T TJ QY Qθ θ

φ φ φθ∇ = − = [1-32]

resultando 1*ˆ T T

k k k k kk kYQ Qθ φ φ φ−

= [1-33]

11

La matriz P ahora será:

[ ]Tk-N

T -1k k-N 0k

T0

k-Ni T T-1

k-1i k kii=0

x Q Q x xP

x

x x x xP

φφ

α α

= = =

= = +∑

…[1-34]

T T-1 -1k k-1 k kk kk = Q x xP Pφ αφ = + [1-35]

Del mismo modo el vector b será:

[ ]k-N k-N

T ikk k-N 0 i k-1 kk i k

i=00

y = Q = y yb x x x b xY

yα αφ

= = +

∑… [1-36]

Tkk k-1 k kk k x yQb bY αφ= = + [1-37]

Entonces se expresará

12

ˆ k kk = bPθ [1-38]

La inversa de la matriz P en un instante k puede expresarse en función de su valor anterior más otra matriz

1 11

Tk k k kP P x xα− −

−= + [1-39]

Si la premultiplicamos por kP 1 1

1T

k k k k k k kP P I P P P x xα− −−= = + [1-40]

y luego, posmultiplicando por 1kP − resulta:

1 1T

k k k k k kP P P x x Pα− −= + [1-41]

o lo que es lo mismo 1 1

Tk k k k k kP P P x x Pα− −− = [1-42]

Posmultipliquemos [1-41] por kx

1 1 1T T

k k k k k k k k k k k k k kP x P x P x x P x P x x P xα α− − − = + = + [1-43]

y agrupemos. 1

1 1T

k k k k k k kP x x P x P xα−

− − + = [1-44]

Ahora, reemplazando [1-18] en [1-16]

13

1 11

1

Tk k k k

k k Tk k k

P x x PP Px P x

αα

− −−

− =+

[1-45]

o su equivalente

1 11

1

1 Tk k k k

k k Tk k k

P x x PP Px P xα α

− −−

= − +

[1-46]

Haremos lo mismo con el vector θ . Por la ecuación [1-18] tenemos

[ ]1 11

1

1 1

1 1ˆ

Tk k k k

k-1k k kk Tk k k

Tk-1 k-1k k

kk k k kkk-1 Tk-1k k

P x x PP x ybx P x

x xP P b P x yyx + x xP

αθ α α

θ α α α

− −−

− −

= − + = +

= − + +

[1-47]

por [1-18] sabemos que: k-1 k

k k Tk-1k k

xP = xP x xPα + [1-48]

reemplazando en la anterior

14

1 1ˆ ˆ

1 1ˆ

1ˆ ˆ

Tk k-1 k-1k k k-1 k kk kk k-1

T Tk k-1 k k-1 k-1k k k-1 k k k kk kk-1

T Tk k-1 k k-1k k k k k kk-1 k-1

y yx x b x xP P P

y yx x b x x x xP P P P P

yx x x x xP P P P

θ θ α α

θ α α

θ θ α

= − + +

= − − +

= − + − [1-49]

de [1-16] resulta 1 T

k k-1 k k-1k k = - x xP P P Pα [1-50]

1 1T

k k k k k kP P x x P Pα− −− = [1-51]

quedando ˆ ˆ ˆT

k k k kk k-1 k-1= - - yx xPθ θ θ [1-52]

15

en resumen el algoritmo está formado por las dos ecuaciones siguientes:

[ ]1 1

11

ˆ ˆ ˆ

1

k k k kk k-1

Tk k k k

k k Tk k k

- - y yxP

P x x PP Px P x

θ θ

α α− −

−−

=

= − +

[1-53]

o lo que es lo mismo

( )11

ˆ ˆ ˆ

k kk T

k k k

Tk k k k k

Tk k kk k-1 k-1

P xKx P x

P K x PP

K y x

α

α

θ θ θ

+

= + = − = + −

[1-54]

16

Se puede asemejar esta idea a la introducción de un filtro en el cálculo de la inversa de P según lo muestra la figura siguiente:

11

1 qα −−

Tk kx x

1kP−

17

1.3. Características Estadísticas de la Estimación 0

11 1

000 1

k

k k-mk k-nT k-n -nk k

k-m-n

k-m -m

y y

y y u uy y

u u y y u u

u u

φ φ+

+

= ⋅

… ………

… …

[1-55]

autocovarianza o covarianza cruzada

( )2 2 20

00

kT

k i yki

[1,1] = y y = y rφ φ=

+ + =∑ [1-56]

18

La matriz total se llama matriz de covarianza del algoritmo y será: y y uy uy

uy uyTk k

uy uy u u

uy uy u u

(o) (n - 1) (n - m - 1) (n - 1)r r r r

(n - 1) (n - m - 1)r r (n - m - 1) (n - 1) (0) (m)r r r r

(n - 1) (n - m - 1) (m) (0)r r r r

φ φ

=

… …

…… …

… …

[1-57]

media de θ̂ .

[ ]

[ ]

ˆ ˆlim lim

lim

lim lim

-1T Tkk kk k kk k

-1T Tkk k k kk

-1T Tkk k kk k

E E EY

E + e

E E e

θ θφ φ φ

θφ φ φ φ

θ φ φ φ

→∞ →∞

→∞

→∞ →∞

= = =

= +

[1-58]

[ ]ˆ lim lim-1T T

kk k k kk kE E E eθ θ φ φ φ

→∞ →∞

= + [1-59]

19

Por lo tanto la media de la estimación coincidirá con el valor real de θ si el error e es incorrelado con

-1T T φφ φ . En cualquier otro caso existirá un sesgo en la estimación.

También debemos notar que para que exista solución la matriz T φφ 1debe ser invertible o sea det T 0φφ ≠ [1-60]

Observando la ecuación 0 podemos inferir que esto se puede lograr si el sistema está persistentemente excitado.

20

1.3.1. Correlación de la Estimación:

Calculemos la correlación de θ que tiene la siguiente forma:

[ ] [ ]

ˆ ˆ Tk k

T-1 -1T T T T

-1 -1T T TT

E - - =

E + e - + e -

= E e e

θ θθ θ

φ φ θ θ φ φ θ θφ φ φ φ

φ φ φφ φ φ

[1-61]

si se cumple que e es incorrelado con -1T T φφ φ 4 se verifica:

ˆ-1 -1T T TT

-1T T

= E e er

= E E e e

θ φ φ φφ φ φ

φφ

[1-62]

Suponiendo que el ruido es incorrelado consigo mismo llamaremos T 2

e e = E e = Ier σ [1-63]

21

y se cumplirá que T

k k+E = 0 0e e τ τ∀ ≠ [1-64]

por lo tanto la correlación de θ resulta:

ˆ-1T 2

e = E rθ φφ σ [1-65]

22

1.4. Influencia del Valor Medio

Otra consideración a tener en cuenta en una estimación es que las mediciones de u e y no deben tener un valor medio distinto de cero ya que estamos suponiendo que el modelo del sistema es lineal. En caso de que éste exista deberemos eliminarlo. Si las variaciones son muy lentas se puede usar el siguiente filtro de primer orden:

nn n-1 = + (1- ) xx xα α [1-66]

23

Ejemplo 1. Sistema de Primer Orden. Para familiarizarnos un poco más con el funcionamiento del estimador veamos un

ejemplo sencillo. Sea un sistema de primer orden cuya ecuación en diferencias es: k-1k k-1 = a + b y y u [1-67]

con 0,5a = y 1b =

k ky ku

0 0 1 1 1b = 1 2 ( )1 1,5b a+ = 1

3 ( )21 1,7b a a+ + =

1

4 ( )2 31b a a a+ + +

1

24

El vector φ será, para tres muestras, 1,75 11,5 11 1

= φ

[1-68]

su transpuesta, 1 1 1

1,75 1,5 1 = φ

[1-69]

el vector de medidas de la salida, 1,8751,751,5

k =Y

[1-70]

la matriz de covarianza, 6,3125 4,25

4.25 3T = φφ

[1-71]

25

la matriz P: 3.4286 -4.8571-4.8571 7.2143

-1T =φφ

[1-72]

y finalmente el vector 7,4063

5,125

T Y =φ

[1-73]

Con estos datos ya podemos calcular la estimación de los dos parámetros del sistema resultando obviamente,

0,5ˆ1

-1T T Yθ φφ φ = =

[1-74]

26

Ejemplo 2. Medición de una Resistencia Se mide Tensión y Corriente sobre una resistencia

mk k uk

mk k ik

u u e

i i e

= += +

(1.75)

la medición de la resistencia es mk

mk mk

ur i= [1.76]

por mínimos cuadrados

J ( ) ( )TTkk = U rI U rIE E = − − (1.77)

J 2 ( ) 0r

T = I U rI∂ − − =∂

(1.78)

T

mc TI Ur =I I

(1.79)

27

Cálculo de r

n=1000; vi=1; vu=1; i=1+vi*(rand(n,1)-.5); u=1+vu*(rand(n,1)-.5); r=zeros(n,1); for k=1:n r(k)=u(1:k)'*i(1:k)/(i(1:k)'*i(1:k)); end plot(r);grid axis([0 n -.5 1.5]) cov(i);

28

0 200 400 600 800 1000-0.5

0

0.5

1

1.5

plot(u./i);grid; axis([0 n -.5 1.5])

29

0 200 400 600 800 1000-0.5

0

0.5

1

1.5

[mean(r) mean(u./i) cov(r) cov(u./i)]

ans = 0.9211 1.0816 0.0021 0.2293

30

Sesgo

{ }2

( ) ( )( )

( ) ( )

( ) ( ) 1

TT r r um m imc TTm m r ri i

Tr rT

r r ii iTr r

I e U eI UE r = E = EI I I e I e

I U r= EI e I e

I Iσ

+ + + + = + + +

(1.80)

Método de mínimos cuadrados es

[ ] 1ˆ T TYθ φ φ φ−= (1.81)

[ ]{ }1ˆ( ) ( )T TE = E eθ φ φ φ φθ− + (1.82)

el error está en la salida. No hay error en la entrada

31

Variables instrumentales rvi=zeros(n,1); L=2; ivi=i; ivi(1:length(i)-L)=i(L+1:length(i)); for k=1:n rvi(k)=u(1:k)'*ivi(1:k)/(i(1:k)'*ivi(1:k)); end

0 200 400 600 800 10000.5

0.6

0.7

0.8

0.9

1

1.1

1.2

1.3

1.4

1.5

32

33

1.5. Referencias i. Ljung, Lennart : System Identification: Theory for the User, 2nd Edition, Prentice

Hall, Englewood Cliffs, N.J.,1999. p 313 ii. Goodwin, G. Sin: Adaptive Filtering, Prediction and Control, Prentice Hall –

1984. p 52 iii. Äström, K., Wittenmark: Adaptive Control, Prentice Hall – 1989. p 69 iv. Landau, Ioan Doré. System Identification and Control Design – Prentice Hall –

1990 v. Isermann, R.: Digital Control Systems, Springer Verlag – 1981. p 380