INVARIANCIA Y COTAS FINALES PROBABILÍSTICAS EN

Transcripción

INVARIANCIA Y COTAS FINALES PROBABILÍSTICAS EN
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
INVARIANCIA Y COTAS FINALES
PROBABILÍSTICAS EN SISTEMAS DE TIEMPO
CONTINUO
Ernesto Kofman ∗ José De Doná ∗∗ Maria M. Seron ∗∗
∗
Departamento de Control, FCEIA, UNR. CIFASIS –CONICET
- [email protected]
∗∗
School of Electrical Engineering and Computer Science and
CDSC, The University of Newcastle, Australia. - Jose.Dedona,
[email protected]
Resumen: Los conceptos de cota final y conjuntos invariantes tienen un rol clave
en muchos problemas de la teorı́a de control, ya que reemplazan la estabilidad
asintótica en presencia de perturbaciones. Sin embargo, cuando las perturbaciones no
son acotadas, como en el caso del ruido Gaussiano, no se puede garantizar la existencia
ni de cotas finales ni de conjuntos invariantes. Para solucionar esta limitación, un
trabajo previo de los autores introdujo los conceptos de cota final probabilı́stica
(PUB, por Probabilistic Ultimate Bound) y conjunto invariante probabilı́stico (PIS,
por Probablilistic Invariant Set) para sistemas de tiempo discreto. En este artı́culo, se
extienden las definiciones de PUB y PIS a sistemas de tiempo continuo, estudiando
también sus principales propiedades y se brindan herramientas para su cálculo.
Palabras Claves: Conjuntos invariantes; Cota Final; Sistemas Lineales; Métodos
Probabilı́sticos
1. INTRODUCCIÓN
Los sistemas dinámicos en presencia de perturbaciones no determinı́sticas no pueden lograr estabilidad asintótica. Sin embargo, bajo
ciertas condiciones, puede garantizarse que las
trayectorias del sistema sean finalmente acotadas
y es posible encontrar conjuntos invariantes.
En consecuencia, los conceptos de cota final
e invariancia de conjuntos tienen un rol muy
importante en la teorı́a y el diseño de sistemas
de control.
Una condición necesaria para asegurar la existencia de cotas finales y conjuntos invariantes es que
las perturbaciones sean acotadas. Desafortunadamente, las perturbaciones son frecuentemente
representadas por señales no acotadas tales como
el ruido blanco Gaussiano.
Para evitar este problema, los autores introdujeron los conceptos de cota final probabilı́stica
(PUB) y de conjunto invariante probabilı́stico
(PIS), definidos como conjuntos hacia los cuales
las trayectorias convergen o en los cuales permanecen con una dada probabilidad Kofman et al.
(2011, 2012).
Estos conceptos, limitados al dominio de tiempo discreto, fueron complementados con herramientas y fórmulas explı́citas para calcular los
conjuntos en presencia de distintos tipos de
perturbaciones.
Sin embargo, los conceptos de cota final e invariancia son muy importantes también en los
sistemas de tiempo continuo (ver Blanchini (1999)
y las referencias allı́ citadas), y muestran la
misma limitación respecto a la presencia de
perturbaciones no acotadas.
Motivado por estos hechos, este artı́culo extiende
las definiciones, propiedades y herramientas de cotas finales y conjuntos invariantes probabilı́sticos
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
desarrolladas en Kofman et al. (2012) al dominio
continuo.
Si bien en el caso de los PUB la extensión es
simple, el concepto de invariancia probabilı́stica
en tiempo continuo necesita una redefinición
sustancial debido a la limitación impuesta por el
ancho de banda infinito del ruido blanco.
Cuando todos los autovalores de la matriz A
tienen parte real negativa, puede mostrarse fácilmente que la Ec.(4) converge cuando t → ∞.
Luego, definiendo
Σx , Σx (∞) = lı́m Σx (t)
t→∞
y recordando que Σ̇x (t) → 0 cuando t → ∞, de
la Ec.(4) resulta que Σx puede obtenerse como la
solución de la ecuación de Lyapunov
A · Σx + Σx · AT = −Σw
2. DEFINICIONES Y PROPIEDADES
BÁSICAS
(5)
2.2 Definición de PUB y PIS
Consideramos un sistema lineal y estacionario
dado por la ecuación diferencial estocástica
dx(t) = Ax(t)dt + dw(t)
(1)
A continuación, definiremos los dos conceptos
fundamentales concernientes a este trabajo.
con x(t), w(t) ∈ Rn . El vector de perturbación
w(t) es un proceso estocástico con incrementos no
correlacionados y media cero (o sea, los incrementos constituyen un ruido blanco). Asumimos que
el sistema nominal es asintóticamente estable.
Definición 1. (Cota Final Probabilı́stica).
Sea 0 < p ≤ 1 y sea S ⊂ Rn . Decimos que S
es una cota final probabilı́stica con probabilidad
p del sistema (1) si para cualquier estado inicial
x(t0 ) = x0 ∈ Rn existe T = T (x0 ) ∈ R tal
que la probabilidad Pr[x(t) ∈ S] ≥ p para cada
t ≥ t0 + T .
2.1 Esperanza y Covarianza de x(t)
Para la definición de PIS, primero definiremos
el producto de un escalar γ ≥ 0 y un conjunto
S ⊂ Rn como γS = {γx : x ∈ S}.
Notaremos cov a la operación que calcula la matriz
de covarianza de un vector aleatorio y var a la
operación que brinda la varianza de una variable
aleatoria escalar.
Llamaremos
Σw dt , cov[dw(t)] = E[dw(t)dwT (t)]
a la covarianza incremental de w(t) y definiremos
Σx (t) , cov[x(t)] =
= E (x(t) − E[x(t)])(x(t) − E[x(t)])T
(2)
Notar que Σw y Σx (t) son matrices simétricas y
semidefinidas positivas.
La esperanza µx (t) = E[x(t)] puede calcularse
como la solución de
µ̇x (t) = A · µx (t)
Asumiremos que el estado inicial x(t0 ) es conocido, luego µx (t0 ) = x(t0 ) y la solución a la ecuación
anterior está dada por
µx (t) = eA(t−t0 ) x(t0 )
(3)
Por otro lado, la matriz de covarianza Σx (t)
satisface la siguiente ecuación diferencial:
Σ̇x (t) = A · Σx (t) + Σx (t) · AT + Σw
(4)
con Σx (t0 ) = 0 (ya que asumimos que x(t0 ) es
conocido).
Notar que cuando 0 < γ ≤ 1, y asumiendo que
S es un conjunto estrellado respecto al origen 1 ,
implica que γ · S ⊆ S.
Definición 2. (Conj. γ–Invariante Probabilı́stico).
Sea 0 < p ≤ 1, 0 < γ ≤ 1 y sea S ⊂ Rn un
conjunto estrellado respecto al origen. Decimos
que S es un Conjunto γ–Invariante Probabilı́stico
(γ–PIS) con probabilidad p para el sistema (1)
si para cualquier x(t0 ) ∈ γS la probabilidad
Pr[x(t) ∈ S] ≥ p para cada t > t0 .
Observación 3. En tiempo discreto, los PIS fueron definidos para asegurar que cualquier trayectoria que comienza en el conjunto permanece en
el mismo con una dada probabilidad. Tomando
un conjunto suficientemente grande, la contractividad en los bordes se hace dominante respecto
al ruido y la probabilidad que la trayectoria
abandone el conjunto puede hacerse arbitrariamente pequeña. Esto permite encontrar PIS con
probabilidades de permanencia arbitrariamente
cercanas a 1.
Sin embargo, en tiempo continuo esto no es posible. Independientemente del tamaño del conjunto
y de la contractividad, cuando una trayectoria
empieza en tiempo t0 al borde del conjunto,
1
Las ecuaciones (3) y (4) pueden obtenerse como
se muestra en Åström (1970).
Un conjunto S ⊂ Rn se denomina estrellado (star
shaped) respecto al origen si x ∈ S ⇒ γx ∈ S para todo
0 ≤ γ ≤ 1.
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
tomando t suficientemente cercano a t0 la dinámica estará siempre dominada por el ruido blanco
debido a su ancho de banda infinito. Por lo tanto,
en dichos instantes de tiempo, la probabilidad de
abandonar el conjunto se torna independiente del
tamaño del conjunto.
Para salvar esta dificultad, los estados iniciales de
un PIS S se restringen a un conjunto γS, con γ
menor que la unidad.
2.3 Algunas propiedades de PUB y γ–PIS
Las principales propiedades de los PUB de tiempo
continuo son idénticas a sus contrapartes de
tiempo discreto. Esto es, los Lemas 3, 4, 5, 8, y los
Corolarios 7 y 10 de Kofman et al. (2012) valen
también para sistemas de tiempo continuo.
Presentamos entonces las propiedades de los γ–
PIS.
Lema 4. (Intersección de γ–PIS). Sea S1 un γ1 –
PIS con probabilidad p1 para el sistema (1) y
sea S2 un γ2 –PIS con probabilidad p2 para el
mismo sistema, con p1 +p2 > 1. Luego, el conjunto
S = S1 ∩S2 es un γ–PIS con probabilidad p = p1 +
p2 − 1 donde γ = mı́n(γ1 , γ2 ).
DEMOSTRACIÓN. Notar que γS ⊆ γS1 ⊆
γ1 S1 . Luego, dado un estado inicial x(t0 ) ∈ γS,
resulta
x(t0 ) ∈ γS ⇒ x(t0 ) ∈ γ1 S1
Un razonamiento idéntico indica que
x(t0 ) ∈ γS ⇒ x(t0 ) ∈ γ2 S2 .
Entonces, para cualquier t > t0 , y para i = 1, 2,
tenemos
Pr[x(t) ∈ Si ] ≥ pi ⇒ Pr[x(t) ∈
/ Si ] ≤ 1 − p i
Luego,
Pr[x(t) ∈
/ S1 ∨ x(t) ∈
/ S2 ] ≤ Pr[x(t) ∈
/ S1 ]+
+ Pr[x(t) ∈
/ S2 ] ≤ 2 − p 1 − p 2
y finalmente,
Pr[x(t) ∈ S] = Pr[x(t) ∈ S1 ∧ x(t) ∈ S2 ]
= 1 − Pr[x(t) ∈
/ S1 ∨ x(t) ∈
/ S2 ]
≥ p1 + p2 − 1
Lema 6. (Unión de γ–PIS). Sea S1 un γ1 –PIS con
probabilidad p1 para el sistema (1) y sea S2
un γ2 –PIS con probabilidad p2 para el mismo
sistema. Luego, el conjunto S1 ∪ S2 es un γ–PIS
con probabilidad p = mı́n{p1 , p2 } donde γ =
mı́n{γ1 , γ2 }.
La demostración del Lema 6 combina la del
Lema 4 arriba y la del Lema 9 en Kofman et al.
(2012).
Corolario 7. (Unión de múltiples γ–PIS).
r
Sea {Si }i=1 una colección de γi –PIS para el
sistema (1) con probabilidades pi , i = 1, . . . , r.
Luego, el conjunto S = ∪ri=1 Si es un γ–PIS con
probabilidad p = mı́n{pi : i = 1, . . . , r} donde
γ = mı́n{γi : i = 1, . . . , r}.
Observación 8. Cuando pi = γi = 1, i = 1, . . . , r,
los Corolarios 5 y 7 dicen que la intersección y
la unión de conjuntos determinı́sticos invariantes
definen conjuntos determinı́sticos invariantes, lo
que es un resultado bien conocido.
3. CÁLCULO DE COTAS FINALES
PROBABILÍSTICAS
En esta sección proponemos un método para
calcular Cotas Finales Probabilı́sticas de (1)
basado en la expresión de la covarianza obtenida
en (5).
Primero desarrollaremos un método basado en la
desigualdad de Chebyshev que puede usarse para
procesos estocásticos w(t) con distribuciones arbitrarias. Luego, obtendremos cotas más exactas
para el caso especial del ruido blanco Gaussiano.
Para un vector x, xi denotará su i–ésima componente, y para una matriz cuadrada Σ, usaremos
la notación [Σ]i,i para indicar el i–ésimo elemento
de la diagonal principal.
En todo el desarrollo siguiente, dado el parámetro
p (probabilidad), con 0 < p < 1, definiremos n
parámetros p̃i tales que
0 < p̃i < 1, i = 1, . . . , n;
n
X
p̃i = 1 − p (6)
i=1
lo que concluye la demostración.
3.1 Distribución General
Corolario 5. (Intersección de múltiples γ–PIS).
r
Sea {Si }i=1 una colección de γi –PIS del sistema (1) con probabilidades
Pr pi , i = 1, . . . , r,
respectivamente, tal que
i=1 pi > (r − 1).
Luego, el conjunto S P
= ∩ri=1 Si es un γ–PIS
r
con probabilidad p =
i=1 pi − (r − 1) donde
γ = mı́n{γi : i = 1, . . . , r}.
Teorema 9. (Cálculo de PUB – Caso General) Sea el sistema (1), en el cual A ∈ Rn×n es una
matriz Hurwitz y w(t) es un proceso estocástico
con incrementos no correlacionados, media cero y
matriz de covarianza incremental Σw dt.
Sea 0 < p < 1 y supongamos que p̃i , i = 1, . . . , n
quedan definidas de acuerdo a (6). Luego, para
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
cualquier ε > 0, el conjunto S = {x : |xi | ≤ bi +
ε; i = 1, . . . , n} es una cota final probabilı́stica
del sistema con probabilidad p, donde
s
[Σx ]i,i
bi ,
; i = 1, . . . , n
(7)
p̃i
y Σx es la solución de la ecuación de Lyapunov (5).
La demostración de este teorema is idéntica a la
del Teorema 12 en Kofman et al. (2012).
Observación 10. Los parámetros p̃i acotan la
probabilidad de que la trayectoria abandone el
conjunto por la i–ésima coordenada. Siempre y
cuando cumplan con la Ec.(6), pueden elegirse
arbitrariamente. Si se agranda uno de estos
parámetros, la Ec.(7) muestra que se contrae el
conjunto S en la coordenada correspondiente. Sin
embargo, para satisfacer la Ec.(6) hay que disminuir al menos uno de los restantes parámetros,
lo que a su vez expande el conjunto S en las
coordenadas correspondientes.
En otras palabras, la elección de los parámetros p̃i permite cambiar la forma del conjunto
S, contrayéndolo y expandiéndolo en distintas
direcciones.
bilı́sticos para (1) que pueden usarse con procesos
estocásticos w(t) con distribuciones arbitrarias,
y luego brindaremos un método para el caso
particular del ruido Gaussiano.
En el resto del desarrollo, asumiremos que la
matriz A en (1) es diagonalizable.
El sı́mbolo representará la desigualdad componente a componente entre dos vectores. Esto es,
para α, β ∈ Rn , α β si y sólo si αi ≤ βi ,
i = 1, . . . , n. Para una matriz M con elementos
complejos, M ∗ denotará la matriz transpuesta
conjugada de M .
4.1 Distribución General
Teorema 12. (Cálculo de γ–PIS – Caso General) Sea el sistema (1), en el cual A ∈ Rn×n es una
matriz Hurwitz y w(t) es un proceso estocástico
con incrementos no correlacionados, media cero
y matriz de covarianza incremental Σw dt. Sea
0 < p < 1 y supongamos que p̃i , i = 1, . . . , n
quedan definidas de acuerdo a (6).
Luego, el conjunto S = {x : |V −1 x| b} es un
γ–PIS del sistema con probabilidad p, donde V es
una transformación de similaridad tal que
Λ = diag(λ1 , . . . , λn ) = V −1 AV
3.2 Distribución Gaussiana
El siguiente teorema, válido para el caso especial
del ruido blanco Gaussiano, brinda cotas más
ajustadas que las del Teorema 9.
Teorema 11. (Cálculo de PUB – Caso Gaussiano) Sea el sistema (1), en el cual A ∈ Rn×n
es una matriz Hurwitz y w(t) es un proceso
de Wiener con matriz de covarianza incremental
Σw dt.
Sea 0 < p < 1 y supongamos que p̃i , i = 1, . . . , n
quedan definidas de acuerdo a (6). Luego, para
cualquier ε > 0, el conjunto S = {x : |xi | ≤ bi +
ε; i = 1, . . . , n} es una cota final probabilı́stica
del sistema con probabilidad p, con
q
bi , 2[Σx ]i,i erf −1 (1 − p̃i ); i = 1, . . . , n (8)
y donde Σx es la solución de la ecuación de
Lyapunov (5) y erf es la función de error : erf(z) ,
R z −ζ 2
√2
e dζ.
π 0
La demostración de este Teorema es idéntica a la
del Teorema 1 en Kofman et al. (2011).
es la descomposición de Jordan de la matriz A, y
los componentes de b = [b1 . . . bn ]T se calculan
según
s
[Σv ]i,i
; i = 1, . . . , n (9)
bi ,
2|Re(λi )|(1 − γ 2 )p̃i
con
Σv = V −1 Σw (V −1 )∗
DEMOSTRACIÓN. Con la transformación lineal x(t) = V z(t), el sistema (1) queda
dz(t) = Λz(t)dt + V −1 dw(t)
(10)
con z ∈ Cn , w(t) ∈ Rn , V −1 ∈ Cn×n , y donde
Λ ∈ Cn×n es una matriz diagonal.
Definiendo v(t) , V −1 w(t), la covarianza incremental v(t) resulta Σv dt = V −1 Σw (V −1 )∗ dt, y la
i–ésima componente de (10) es
dzi (t) = λi zi (t)dt + dvi (t)
(11)
La esperanza de zi (t) entonces satisface
E[zi (t)] = eλi (t−t0 ) zi (t0 )
4. CÁLCULO DE CONJUNTOS
INVARIANTES PROBABILÍSTICOS
Como antes, aquı́ propondremos primero un
método para calcular conjuntos invariantes proba-
y, asumiendo que zi (t0 ) es conocido, la varianza
de zi (t) puede calcularse como
var[zi (t)] =
1 − e2Re(λi )(t−t0 )
[Σv ]i,i
2|Re(λi )|
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
Supongamos que x(t0 ) ∈ γS. Entonces, |z(t0 )| =
|V −1 x(t0 )| γb y |zi (t0 )| ≤ γbi . Luego, para todo
t > t0 resulta
con propiedades especı́ficas de las distribuciones
Gaussianas.
|E[zi (t)]| = |eλi (t−t0 ) zi (t0 )| ≤ eRe(λi )(t−t0 ) γbi
Teorema 14. (Cálculo de γ–PIS – Ruido Gaussiano) Sea el sistema (1), en el cual A ∈ Rn×n
es una matriz Hurwitz diagonalizable y w(t) es
un proceso de Wiener con matriz de covarianza
incremental Σw dt. Sea 0 < p < 1 y supongamos
que p̃i , i = 1, . . . , n quedan definidas de acuerdo
a (6) con la restricción de que para cada par de
autovalores complejos conjugados, λi , λj = λ̄i ,
los parámetros correspondientes se elijen tales que
p̃i = p̃j .
De esta desigualdad sigue que
Pr[|zi (t)| ≥ bi ]
= Pr[|zi (t)| − eRe(λi )(t−t0 ) γbi
≥ bi (1 − γeRe(λi )(t−t0 ) )]
≤ Pr[|zi (t)| − |E[zi (t)]|
≥ bi (1 − γeRe(λi )(t−t0 ) )]
≤ Pr[|zi (t) − E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) )]
La desigualdad de Chebyshev establece que
h
i
Pr |zi (t) − E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) )
≤
b2i (1
var[zi (t)]
− γeRe(λi )(t−t0 ) )2
Luego, el conjunto S = {x : |V −1 x| b} es un
γ–PIS del sistema con probabilidad p, donde V es
una transformación de similaridad tal que
Λ = diag(λ1 , . . . , λn ) = V −1 AV
(12)
y luego, resulta
var[zi (t)]
b2i (1 − γeRe(λi )(t−t0 ) )2
1 − e2Re(λi )(t−t0 )
=
[Σv ]i,i
2|Re(λi )|b2i (1 − γeRe(λi )(t−t0 ) )2
Pr[|zi (t)| ≥ bi ] ≤
La expresión
es la descomposición de Jordan de la matriz A, y
los componentes de b = [b1 . . . bn ]T se calculan
según
s
[Σv ]i,i
bi ,
erf −1 (1− p̃i ); i = 1, . . . , n
|Re(λi )|(1 − γ 2 )
con
Σv = V −1 Σw (V −1 )∗
2Re(λi )(t−t0 )
1−e
(1 − γeRe(λi )(t−t0 ) )2
se maximiza cuando e
(13)
Re(λi )(t−t0 )
= γ. Entonces,
[Σv ]i,i
= p̃i
Pr[|zi (t)| ≥ bi ] ≤
2|Re(λi )|b2i (1 − γ 2 )
para todo t > t0 .
Luego, resulta que Pr[|zi (t)| > bi ] ≤ Pr[|zi (t)| ≥
bi ] ≤ p̃i . Consecuentemente, la probabilidad
n
X
Pr[|zi (t)| > bi ]
Pr[|z(t)| 6 b] ≤
≤
i=1
n
X
p̃i = 1 − p
i=1
para todo t > t0 , y entonces,
Pr[|z(t)| b] = Pr[|V −1 x(t)| b]
= Pr[x(t) ∈ S] ≥ p
lo que demuestra que el conjunto S es un γ–PIS
con probabilidad p.
Observación 13. Notar que bi en la Ec.(9) tiende a
infinito cuando γ tiende a uno. Esto es consistente
con la Observación 3 donde se analizó que los PIS
no pueden definirse sin utilizar el factor γ menor
que uno para restringir los estados iniciales.
4.2 Distribución Gaussiana
Aquı́ nuevamente obtendremos conjuntos más
ajustados para el caso particular del ruido Gaussiano, reemplazando la desigualdad de Chebyshev
DEMOSTRACIÓN. Cuando λi es real, la
demostración es casi idéntica a la del Teorema 12.
Reemplazamos aquı́ la desigualdad de Chebyshev
de la Ec.(12) por la expresión
h
i
Pr |zi (t) − E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) )
!
bi (1 − γeRe(λi )(t−t0 ) )
p
= 1 − erf
2var[zi (t)]
y obtenemos,
Pr[|zi (t)| > bi ] ≤
s
!
(1 − γeRe(λi )(t−t0 ) )2 |Re(λi )|
≤ 1 − erf bi
(1 − e2Re(λi )(t−t0 ) )[Σv ]i,i
s
!
(1 − γ 2 )|Re(λi )|
≤ 1 − erf bi
= p̃i
(14)
[Σv ]i,i
En el último paso usamos el hecho que la función
erf() es monótona creciente y maximizamos la
expresión de la Ec.(13) como en el Teorema 12.
En el caso de autovalores complejos, la Ec.(11)
puede separarse en su parte real y compleja
zi (t) = Re[zi (t)] + jIm[zi (t)], donde ambas componentes son procesos Gaussianos y la varianza
puede escribirse como
var[zi (t)] = var[Re[zi (t)]] + var[Im[zi (t)]]
Luego, la demostración sigue de manera idéntica
a la del Teorema 2 en Kofman et al. (2011)
reemplazando t0 + N por t y bi (1 − |λi |N ) por
bi (1 − γeRe(λi )(t−t0 ) ).
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
5. EJEMPLO
2.5
2
1.5
S
1
0.5
x2
Consideramos aquı́ el sistema
0 1
0
dx(t) = Ax(t)dt+Bdv(t) =
x(t)+
dv(t)
−1 −4
1
(15)
donde v(t) es un proceso de Wiener con covarianza
incremental Σv dt = 1dt.
0
−0.5
γS
−1
−1.5
Supongamos que queremos calcular un PUB con
probabilidad 0,9 para el sistema (15). Para utilizar
el Teorema 11, tomamos
p̃1 = p̃2 = 0,05
y luego, para cada ε > 0, el conjunto S = {x :
|xi | ≤ bi + ε; i = 1, 2} con b1 = b2 = 0,6913 es un
PUB con probabilidad p = 0,9 del sistema.
Para verificar el posible conservadurismo de los
resultados, ejecutamos 5000 simulaciones desde
un estado inicial x0 = 5 · b (fuera del PUB).
Para cada muestra de tiempo tk = k · h con
h = 0,001, calculamos la tasa de escape como el
número de veces que x(tk ) está fuera del PUB
dividido 5000. Encontramos que para cualquier
t > 16, entre el 4 % y el 6 % de las simulaciones
encuentra a x(t) fuera del PUB calculado, lo que
da un valor cercano a la máxima probabilidad
teórica del 10 %.
Además, calculamos un γ–PIS con γ = 0,9 y
probabilidad p = 0,9 para el sistema. Para esto,
tomamos p̃1 = p̃2 = 0,05 obteniendo el conjunto
S = {x : |V −1 x| b}
con
0,9659 −0,2588
0,693
V =
; b=
−0,2588 0,9659
0,693
La Figura 1 grafica el γ–PIS S y el conjunto de
condiciones iniciales γS, además de dos trayectorias simuladas diferentes, donde una de ellas
abandona el conjunto por cierto tiempo.
Como antes, ejecutamos 5000 simulaciones desde
un estado inicial x0 = [−2,034, 2,034]T localizado
en el vértice superior izquierdo del conjunto de
condiciones iniciales γS del conjunto γ–PIS S.
Luego, calculamos la tasa de escape en función de
tiempo, obteniendo los resultados que se muestran
en la Figura 2.
Puede verse que, cerca del comienzo de la simulación, alrededor del 3 % de las trayectorias
simuladas abandonan el γ–PIS. Este conjunto fue
obtenido para asegurar que la probabilidad de
abandonar el conjunto sea menor que el 10 %,
por lo que a pesar de cierto conservadurismo, los
resultados están cercanos a la cota teórica.
−2
−2.5
−2.5
−2
−1.5
−1
−0.5
x1
0
0.5
1
1.5
2
2.5
Figura 1. γ–PIS y trayectorias simuladas para el
sistema (1)
0.03
0.025
0.02
0.015
e
Definiendo w(t) , Bv(t), la matriz de covarianza
incremental de w(t) puede calcularse como
00
T
Σw dt = BΣv B dt =
dt
(16)
01
0.01
0.005
0
0
0.5
1
t
1.5
2
2.5
3
Figura 2. Tasa de Escape vs. t para el γ–PIS
6. CONCLUSIONES
En este trabajo extendimos los conceptos de Cota
Final y Conjuntos Invariantes Probabilı́sticos para
sistemas de tiempo continuo. Además, dedujimos
las principales propiedades de los mismos y
obtuvimos fórmulas para su cálculo. Estos resultados fueron también ilustrados con un ejemplo
numérico.
En lo referente al trabajo futuro, pretendemos
utilizar los conceptos y herramientas propuestos
aquı́ para aplicaciones de control robusto, siguiendo lo hecho en Kofman et al. (2008) y para diseño
de control tolerante a fallas, continuando con lo
desarrollado en Seron and Doná (2010).
REFERENCIAS
Åström, K.J. (1970). Introduction to Stochastic
Control Theory. Academic Press. New York.
Blanchini, F. (1999). Set invariance in control – a
survey. Automatica 35(11), 1747–1767.
Kofman, E., J. De Doná and M. Seron (2011).
Probabilistic ultimate bounds and invariant
sets for LTI systems with Gaussian disturbances. In: Proceedings of 2011 Australian Control
Conference. Melbourne, Australia. pp. 537–542.
Kofman, E., J. De Doná and M. Seron (2012).
Probabilistic set invariance and ultimate boundedness. Automatica. In press.
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático
3 al 5 de Octubre de 2012 - Buenos Aires, Argentina.
Kofman, E., M. Seron and H. Haimovich (2008).
Control design with guaranteed ultimate bound
for perturbed systems. Automatica 44(7), 1815–
1821.
Seron, M. M. and J. A. De Doná (2010). Actuator
fault tolerant multi-controller scheme using
set separation based diagnosis. International
Journal of Control 83(11), 2328–2339.

Documentos relacionados