INVARIANCIA Y COTAS FINALES PROBABILÍSTICAS EN
Transcripción
INVARIANCIA Y COTAS FINALES PROBABILÍSTICAS EN
AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. INVARIANCIA Y COTAS FINALES PROBABILÍSTICAS EN SISTEMAS DE TIEMPO CONTINUO Ernesto Kofman ∗ José De Doná ∗∗ Maria M. Seron ∗∗ ∗ Departamento de Control, FCEIA, UNR. CIFASIS –CONICET - [email protected] ∗∗ School of Electrical Engineering and Computer Science and CDSC, The University of Newcastle, Australia. - Jose.Dedona, [email protected] Resumen: Los conceptos de cota final y conjuntos invariantes tienen un rol clave en muchos problemas de la teorı́a de control, ya que reemplazan la estabilidad asintótica en presencia de perturbaciones. Sin embargo, cuando las perturbaciones no son acotadas, como en el caso del ruido Gaussiano, no se puede garantizar la existencia ni de cotas finales ni de conjuntos invariantes. Para solucionar esta limitación, un trabajo previo de los autores introdujo los conceptos de cota final probabilı́stica (PUB, por Probabilistic Ultimate Bound) y conjunto invariante probabilı́stico (PIS, por Probablilistic Invariant Set) para sistemas de tiempo discreto. En este artı́culo, se extienden las definiciones de PUB y PIS a sistemas de tiempo continuo, estudiando también sus principales propiedades y se brindan herramientas para su cálculo. Palabras Claves: Conjuntos invariantes; Cota Final; Sistemas Lineales; Métodos Probabilı́sticos 1. INTRODUCCIÓN Los sistemas dinámicos en presencia de perturbaciones no determinı́sticas no pueden lograr estabilidad asintótica. Sin embargo, bajo ciertas condiciones, puede garantizarse que las trayectorias del sistema sean finalmente acotadas y es posible encontrar conjuntos invariantes. En consecuencia, los conceptos de cota final e invariancia de conjuntos tienen un rol muy importante en la teorı́a y el diseño de sistemas de control. Una condición necesaria para asegurar la existencia de cotas finales y conjuntos invariantes es que las perturbaciones sean acotadas. Desafortunadamente, las perturbaciones son frecuentemente representadas por señales no acotadas tales como el ruido blanco Gaussiano. Para evitar este problema, los autores introdujeron los conceptos de cota final probabilı́stica (PUB) y de conjunto invariante probabilı́stico (PIS), definidos como conjuntos hacia los cuales las trayectorias convergen o en los cuales permanecen con una dada probabilidad Kofman et al. (2011, 2012). Estos conceptos, limitados al dominio de tiempo discreto, fueron complementados con herramientas y fórmulas explı́citas para calcular los conjuntos en presencia de distintos tipos de perturbaciones. Sin embargo, los conceptos de cota final e invariancia son muy importantes también en los sistemas de tiempo continuo (ver Blanchini (1999) y las referencias allı́ citadas), y muestran la misma limitación respecto a la presencia de perturbaciones no acotadas. Motivado por estos hechos, este artı́culo extiende las definiciones, propiedades y herramientas de cotas finales y conjuntos invariantes probabilı́sticos AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. desarrolladas en Kofman et al. (2012) al dominio continuo. Si bien en el caso de los PUB la extensión es simple, el concepto de invariancia probabilı́stica en tiempo continuo necesita una redefinición sustancial debido a la limitación impuesta por el ancho de banda infinito del ruido blanco. Cuando todos los autovalores de la matriz A tienen parte real negativa, puede mostrarse fácilmente que la Ec.(4) converge cuando t → ∞. Luego, definiendo Σx , Σx (∞) = lı́m Σx (t) t→∞ y recordando que Σ̇x (t) → 0 cuando t → ∞, de la Ec.(4) resulta que Σx puede obtenerse como la solución de la ecuación de Lyapunov A · Σx + Σx · AT = −Σw 2. DEFINICIONES Y PROPIEDADES BÁSICAS (5) 2.2 Definición de PUB y PIS Consideramos un sistema lineal y estacionario dado por la ecuación diferencial estocástica dx(t) = Ax(t)dt + dw(t) (1) A continuación, definiremos los dos conceptos fundamentales concernientes a este trabajo. con x(t), w(t) ∈ Rn . El vector de perturbación w(t) es un proceso estocástico con incrementos no correlacionados y media cero (o sea, los incrementos constituyen un ruido blanco). Asumimos que el sistema nominal es asintóticamente estable. Definición 1. (Cota Final Probabilı́stica). Sea 0 < p ≤ 1 y sea S ⊂ Rn . Decimos que S es una cota final probabilı́stica con probabilidad p del sistema (1) si para cualquier estado inicial x(t0 ) = x0 ∈ Rn existe T = T (x0 ) ∈ R tal que la probabilidad Pr[x(t) ∈ S] ≥ p para cada t ≥ t0 + T . 2.1 Esperanza y Covarianza de x(t) Para la definición de PIS, primero definiremos el producto de un escalar γ ≥ 0 y un conjunto S ⊂ Rn como γS = {γx : x ∈ S}. Notaremos cov a la operación que calcula la matriz de covarianza de un vector aleatorio y var a la operación que brinda la varianza de una variable aleatoria escalar. Llamaremos Σw dt , cov[dw(t)] = E[dw(t)dwT (t)] a la covarianza incremental de w(t) y definiremos Σx (t) , cov[x(t)] = = E (x(t) − E[x(t)])(x(t) − E[x(t)])T (2) Notar que Σw y Σx (t) son matrices simétricas y semidefinidas positivas. La esperanza µx (t) = E[x(t)] puede calcularse como la solución de µ̇x (t) = A · µx (t) Asumiremos que el estado inicial x(t0 ) es conocido, luego µx (t0 ) = x(t0 ) y la solución a la ecuación anterior está dada por µx (t) = eA(t−t0 ) x(t0 ) (3) Por otro lado, la matriz de covarianza Σx (t) satisface la siguiente ecuación diferencial: Σ̇x (t) = A · Σx (t) + Σx (t) · AT + Σw (4) con Σx (t0 ) = 0 (ya que asumimos que x(t0 ) es conocido). Notar que cuando 0 < γ ≤ 1, y asumiendo que S es un conjunto estrellado respecto al origen 1 , implica que γ · S ⊆ S. Definición 2. (Conj. γ–Invariante Probabilı́stico). Sea 0 < p ≤ 1, 0 < γ ≤ 1 y sea S ⊂ Rn un conjunto estrellado respecto al origen. Decimos que S es un Conjunto γ–Invariante Probabilı́stico (γ–PIS) con probabilidad p para el sistema (1) si para cualquier x(t0 ) ∈ γS la probabilidad Pr[x(t) ∈ S] ≥ p para cada t > t0 . Observación 3. En tiempo discreto, los PIS fueron definidos para asegurar que cualquier trayectoria que comienza en el conjunto permanece en el mismo con una dada probabilidad. Tomando un conjunto suficientemente grande, la contractividad en los bordes se hace dominante respecto al ruido y la probabilidad que la trayectoria abandone el conjunto puede hacerse arbitrariamente pequeña. Esto permite encontrar PIS con probabilidades de permanencia arbitrariamente cercanas a 1. Sin embargo, en tiempo continuo esto no es posible. Independientemente del tamaño del conjunto y de la contractividad, cuando una trayectoria empieza en tiempo t0 al borde del conjunto, 1 Las ecuaciones (3) y (4) pueden obtenerse como se muestra en Åström (1970). Un conjunto S ⊂ Rn se denomina estrellado (star shaped) respecto al origen si x ∈ S ⇒ γx ∈ S para todo 0 ≤ γ ≤ 1. AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. tomando t suficientemente cercano a t0 la dinámica estará siempre dominada por el ruido blanco debido a su ancho de banda infinito. Por lo tanto, en dichos instantes de tiempo, la probabilidad de abandonar el conjunto se torna independiente del tamaño del conjunto. Para salvar esta dificultad, los estados iniciales de un PIS S se restringen a un conjunto γS, con γ menor que la unidad. 2.3 Algunas propiedades de PUB y γ–PIS Las principales propiedades de los PUB de tiempo continuo son idénticas a sus contrapartes de tiempo discreto. Esto es, los Lemas 3, 4, 5, 8, y los Corolarios 7 y 10 de Kofman et al. (2012) valen también para sistemas de tiempo continuo. Presentamos entonces las propiedades de los γ– PIS. Lema 4. (Intersección de γ–PIS). Sea S1 un γ1 – PIS con probabilidad p1 para el sistema (1) y sea S2 un γ2 –PIS con probabilidad p2 para el mismo sistema, con p1 +p2 > 1. Luego, el conjunto S = S1 ∩S2 es un γ–PIS con probabilidad p = p1 + p2 − 1 donde γ = mı́n(γ1 , γ2 ). DEMOSTRACIÓN. Notar que γS ⊆ γS1 ⊆ γ1 S1 . Luego, dado un estado inicial x(t0 ) ∈ γS, resulta x(t0 ) ∈ γS ⇒ x(t0 ) ∈ γ1 S1 Un razonamiento idéntico indica que x(t0 ) ∈ γS ⇒ x(t0 ) ∈ γ2 S2 . Entonces, para cualquier t > t0 , y para i = 1, 2, tenemos Pr[x(t) ∈ Si ] ≥ pi ⇒ Pr[x(t) ∈ / Si ] ≤ 1 − p i Luego, Pr[x(t) ∈ / S1 ∨ x(t) ∈ / S2 ] ≤ Pr[x(t) ∈ / S1 ]+ + Pr[x(t) ∈ / S2 ] ≤ 2 − p 1 − p 2 y finalmente, Pr[x(t) ∈ S] = Pr[x(t) ∈ S1 ∧ x(t) ∈ S2 ] = 1 − Pr[x(t) ∈ / S1 ∨ x(t) ∈ / S2 ] ≥ p1 + p2 − 1 Lema 6. (Unión de γ–PIS). Sea S1 un γ1 –PIS con probabilidad p1 para el sistema (1) y sea S2 un γ2 –PIS con probabilidad p2 para el mismo sistema. Luego, el conjunto S1 ∪ S2 es un γ–PIS con probabilidad p = mı́n{p1 , p2 } donde γ = mı́n{γ1 , γ2 }. La demostración del Lema 6 combina la del Lema 4 arriba y la del Lema 9 en Kofman et al. (2012). Corolario 7. (Unión de múltiples γ–PIS). r Sea {Si }i=1 una colección de γi –PIS para el sistema (1) con probabilidades pi , i = 1, . . . , r. Luego, el conjunto S = ∪ri=1 Si es un γ–PIS con probabilidad p = mı́n{pi : i = 1, . . . , r} donde γ = mı́n{γi : i = 1, . . . , r}. Observación 8. Cuando pi = γi = 1, i = 1, . . . , r, los Corolarios 5 y 7 dicen que la intersección y la unión de conjuntos determinı́sticos invariantes definen conjuntos determinı́sticos invariantes, lo que es un resultado bien conocido. 3. CÁLCULO DE COTAS FINALES PROBABILÍSTICAS En esta sección proponemos un método para calcular Cotas Finales Probabilı́sticas de (1) basado en la expresión de la covarianza obtenida en (5). Primero desarrollaremos un método basado en la desigualdad de Chebyshev que puede usarse para procesos estocásticos w(t) con distribuciones arbitrarias. Luego, obtendremos cotas más exactas para el caso especial del ruido blanco Gaussiano. Para un vector x, xi denotará su i–ésima componente, y para una matriz cuadrada Σ, usaremos la notación [Σ]i,i para indicar el i–ésimo elemento de la diagonal principal. En todo el desarrollo siguiente, dado el parámetro p (probabilidad), con 0 < p < 1, definiremos n parámetros p̃i tales que 0 < p̃i < 1, i = 1, . . . , n; n X p̃i = 1 − p (6) i=1 lo que concluye la demostración. 3.1 Distribución General Corolario 5. (Intersección de múltiples γ–PIS). r Sea {Si }i=1 una colección de γi –PIS del sistema (1) con probabilidades Pr pi , i = 1, . . . , r, respectivamente, tal que i=1 pi > (r − 1). Luego, el conjunto S P = ∩ri=1 Si es un γ–PIS r con probabilidad p = i=1 pi − (r − 1) donde γ = mı́n{γi : i = 1, . . . , r}. Teorema 9. (Cálculo de PUB – Caso General) Sea el sistema (1), en el cual A ∈ Rn×n es una matriz Hurwitz y w(t) es un proceso estocástico con incrementos no correlacionados, media cero y matriz de covarianza incremental Σw dt. Sea 0 < p < 1 y supongamos que p̃i , i = 1, . . . , n quedan definidas de acuerdo a (6). Luego, para AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. cualquier ε > 0, el conjunto S = {x : |xi | ≤ bi + ε; i = 1, . . . , n} es una cota final probabilı́stica del sistema con probabilidad p, donde s [Σx ]i,i bi , ; i = 1, . . . , n (7) p̃i y Σx es la solución de la ecuación de Lyapunov (5). La demostración de este teorema is idéntica a la del Teorema 12 en Kofman et al. (2012). Observación 10. Los parámetros p̃i acotan la probabilidad de que la trayectoria abandone el conjunto por la i–ésima coordenada. Siempre y cuando cumplan con la Ec.(6), pueden elegirse arbitrariamente. Si se agranda uno de estos parámetros, la Ec.(7) muestra que se contrae el conjunto S en la coordenada correspondiente. Sin embargo, para satisfacer la Ec.(6) hay que disminuir al menos uno de los restantes parámetros, lo que a su vez expande el conjunto S en las coordenadas correspondientes. En otras palabras, la elección de los parámetros p̃i permite cambiar la forma del conjunto S, contrayéndolo y expandiéndolo en distintas direcciones. bilı́sticos para (1) que pueden usarse con procesos estocásticos w(t) con distribuciones arbitrarias, y luego brindaremos un método para el caso particular del ruido Gaussiano. En el resto del desarrollo, asumiremos que la matriz A en (1) es diagonalizable. El sı́mbolo representará la desigualdad componente a componente entre dos vectores. Esto es, para α, β ∈ Rn , α β si y sólo si αi ≤ βi , i = 1, . . . , n. Para una matriz M con elementos complejos, M ∗ denotará la matriz transpuesta conjugada de M . 4.1 Distribución General Teorema 12. (Cálculo de γ–PIS – Caso General) Sea el sistema (1), en el cual A ∈ Rn×n es una matriz Hurwitz y w(t) es un proceso estocástico con incrementos no correlacionados, media cero y matriz de covarianza incremental Σw dt. Sea 0 < p < 1 y supongamos que p̃i , i = 1, . . . , n quedan definidas de acuerdo a (6). Luego, el conjunto S = {x : |V −1 x| b} es un γ–PIS del sistema con probabilidad p, donde V es una transformación de similaridad tal que Λ = diag(λ1 , . . . , λn ) = V −1 AV 3.2 Distribución Gaussiana El siguiente teorema, válido para el caso especial del ruido blanco Gaussiano, brinda cotas más ajustadas que las del Teorema 9. Teorema 11. (Cálculo de PUB – Caso Gaussiano) Sea el sistema (1), en el cual A ∈ Rn×n es una matriz Hurwitz y w(t) es un proceso de Wiener con matriz de covarianza incremental Σw dt. Sea 0 < p < 1 y supongamos que p̃i , i = 1, . . . , n quedan definidas de acuerdo a (6). Luego, para cualquier ε > 0, el conjunto S = {x : |xi | ≤ bi + ε; i = 1, . . . , n} es una cota final probabilı́stica del sistema con probabilidad p, con q bi , 2[Σx ]i,i erf −1 (1 − p̃i ); i = 1, . . . , n (8) y donde Σx es la solución de la ecuación de Lyapunov (5) y erf es la función de error : erf(z) , R z −ζ 2 √2 e dζ. π 0 La demostración de este Teorema es idéntica a la del Teorema 1 en Kofman et al. (2011). es la descomposición de Jordan de la matriz A, y los componentes de b = [b1 . . . bn ]T se calculan según s [Σv ]i,i ; i = 1, . . . , n (9) bi , 2|Re(λi )|(1 − γ 2 )p̃i con Σv = V −1 Σw (V −1 )∗ DEMOSTRACIÓN. Con la transformación lineal x(t) = V z(t), el sistema (1) queda dz(t) = Λz(t)dt + V −1 dw(t) (10) con z ∈ Cn , w(t) ∈ Rn , V −1 ∈ Cn×n , y donde Λ ∈ Cn×n es una matriz diagonal. Definiendo v(t) , V −1 w(t), la covarianza incremental v(t) resulta Σv dt = V −1 Σw (V −1 )∗ dt, y la i–ésima componente de (10) es dzi (t) = λi zi (t)dt + dvi (t) (11) La esperanza de zi (t) entonces satisface E[zi (t)] = eλi (t−t0 ) zi (t0 ) 4. CÁLCULO DE CONJUNTOS INVARIANTES PROBABILÍSTICOS Como antes, aquı́ propondremos primero un método para calcular conjuntos invariantes proba- y, asumiendo que zi (t0 ) es conocido, la varianza de zi (t) puede calcularse como var[zi (t)] = 1 − e2Re(λi )(t−t0 ) [Σv ]i,i 2|Re(λi )| AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. Supongamos que x(t0 ) ∈ γS. Entonces, |z(t0 )| = |V −1 x(t0 )| γb y |zi (t0 )| ≤ γbi . Luego, para todo t > t0 resulta con propiedades especı́ficas de las distribuciones Gaussianas. |E[zi (t)]| = |eλi (t−t0 ) zi (t0 )| ≤ eRe(λi )(t−t0 ) γbi Teorema 14. (Cálculo de γ–PIS – Ruido Gaussiano) Sea el sistema (1), en el cual A ∈ Rn×n es una matriz Hurwitz diagonalizable y w(t) es un proceso de Wiener con matriz de covarianza incremental Σw dt. Sea 0 < p < 1 y supongamos que p̃i , i = 1, . . . , n quedan definidas de acuerdo a (6) con la restricción de que para cada par de autovalores complejos conjugados, λi , λj = λ̄i , los parámetros correspondientes se elijen tales que p̃i = p̃j . De esta desigualdad sigue que Pr[|zi (t)| ≥ bi ] = Pr[|zi (t)| − eRe(λi )(t−t0 ) γbi ≥ bi (1 − γeRe(λi )(t−t0 ) )] ≤ Pr[|zi (t)| − |E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) )] ≤ Pr[|zi (t) − E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) )] La desigualdad de Chebyshev establece que h i Pr |zi (t) − E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) ) ≤ b2i (1 var[zi (t)] − γeRe(λi )(t−t0 ) )2 Luego, el conjunto S = {x : |V −1 x| b} es un γ–PIS del sistema con probabilidad p, donde V es una transformación de similaridad tal que Λ = diag(λ1 , . . . , λn ) = V −1 AV (12) y luego, resulta var[zi (t)] b2i (1 − γeRe(λi )(t−t0 ) )2 1 − e2Re(λi )(t−t0 ) = [Σv ]i,i 2|Re(λi )|b2i (1 − γeRe(λi )(t−t0 ) )2 Pr[|zi (t)| ≥ bi ] ≤ La expresión es la descomposición de Jordan de la matriz A, y los componentes de b = [b1 . . . bn ]T se calculan según s [Σv ]i,i bi , erf −1 (1− p̃i ); i = 1, . . . , n |Re(λi )|(1 − γ 2 ) con Σv = V −1 Σw (V −1 )∗ 2Re(λi )(t−t0 ) 1−e (1 − γeRe(λi )(t−t0 ) )2 se maximiza cuando e (13) Re(λi )(t−t0 ) = γ. Entonces, [Σv ]i,i = p̃i Pr[|zi (t)| ≥ bi ] ≤ 2|Re(λi )|b2i (1 − γ 2 ) para todo t > t0 . Luego, resulta que Pr[|zi (t)| > bi ] ≤ Pr[|zi (t)| ≥ bi ] ≤ p̃i . Consecuentemente, la probabilidad n X Pr[|zi (t)| > bi ] Pr[|z(t)| 6 b] ≤ ≤ i=1 n X p̃i = 1 − p i=1 para todo t > t0 , y entonces, Pr[|z(t)| b] = Pr[|V −1 x(t)| b] = Pr[x(t) ∈ S] ≥ p lo que demuestra que el conjunto S es un γ–PIS con probabilidad p. Observación 13. Notar que bi en la Ec.(9) tiende a infinito cuando γ tiende a uno. Esto es consistente con la Observación 3 donde se analizó que los PIS no pueden definirse sin utilizar el factor γ menor que uno para restringir los estados iniciales. 4.2 Distribución Gaussiana Aquı́ nuevamente obtendremos conjuntos más ajustados para el caso particular del ruido Gaussiano, reemplazando la desigualdad de Chebyshev DEMOSTRACIÓN. Cuando λi es real, la demostración es casi idéntica a la del Teorema 12. Reemplazamos aquı́ la desigualdad de Chebyshev de la Ec.(12) por la expresión h i Pr |zi (t) − E[zi (t)]| ≥ bi (1 − γeRe(λi )(t−t0 ) ) ! bi (1 − γeRe(λi )(t−t0 ) ) p = 1 − erf 2var[zi (t)] y obtenemos, Pr[|zi (t)| > bi ] ≤ s ! (1 − γeRe(λi )(t−t0 ) )2 |Re(λi )| ≤ 1 − erf bi (1 − e2Re(λi )(t−t0 ) )[Σv ]i,i s ! (1 − γ 2 )|Re(λi )| ≤ 1 − erf bi = p̃i (14) [Σv ]i,i En el último paso usamos el hecho que la función erf() es monótona creciente y maximizamos la expresión de la Ec.(13) como en el Teorema 12. En el caso de autovalores complejos, la Ec.(11) puede separarse en su parte real y compleja zi (t) = Re[zi (t)] + jIm[zi (t)], donde ambas componentes son procesos Gaussianos y la varianza puede escribirse como var[zi (t)] = var[Re[zi (t)]] + var[Im[zi (t)]] Luego, la demostración sigue de manera idéntica a la del Teorema 2 en Kofman et al. (2011) reemplazando t0 + N por t y bi (1 − |λi |N ) por bi (1 − γeRe(λi )(t−t0 ) ). AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. 5. EJEMPLO 2.5 2 1.5 S 1 0.5 x2 Consideramos aquı́ el sistema 0 1 0 dx(t) = Ax(t)dt+Bdv(t) = x(t)+ dv(t) −1 −4 1 (15) donde v(t) es un proceso de Wiener con covarianza incremental Σv dt = 1dt. 0 −0.5 γS −1 −1.5 Supongamos que queremos calcular un PUB con probabilidad 0,9 para el sistema (15). Para utilizar el Teorema 11, tomamos p̃1 = p̃2 = 0,05 y luego, para cada ε > 0, el conjunto S = {x : |xi | ≤ bi + ε; i = 1, 2} con b1 = b2 = 0,6913 es un PUB con probabilidad p = 0,9 del sistema. Para verificar el posible conservadurismo de los resultados, ejecutamos 5000 simulaciones desde un estado inicial x0 = 5 · b (fuera del PUB). Para cada muestra de tiempo tk = k · h con h = 0,001, calculamos la tasa de escape como el número de veces que x(tk ) está fuera del PUB dividido 5000. Encontramos que para cualquier t > 16, entre el 4 % y el 6 % de las simulaciones encuentra a x(t) fuera del PUB calculado, lo que da un valor cercano a la máxima probabilidad teórica del 10 %. Además, calculamos un γ–PIS con γ = 0,9 y probabilidad p = 0,9 para el sistema. Para esto, tomamos p̃1 = p̃2 = 0,05 obteniendo el conjunto S = {x : |V −1 x| b} con 0,9659 −0,2588 0,693 V = ; b= −0,2588 0,9659 0,693 La Figura 1 grafica el γ–PIS S y el conjunto de condiciones iniciales γS, además de dos trayectorias simuladas diferentes, donde una de ellas abandona el conjunto por cierto tiempo. Como antes, ejecutamos 5000 simulaciones desde un estado inicial x0 = [−2,034, 2,034]T localizado en el vértice superior izquierdo del conjunto de condiciones iniciales γS del conjunto γ–PIS S. Luego, calculamos la tasa de escape en función de tiempo, obteniendo los resultados que se muestran en la Figura 2. Puede verse que, cerca del comienzo de la simulación, alrededor del 3 % de las trayectorias simuladas abandonan el γ–PIS. Este conjunto fue obtenido para asegurar que la probabilidad de abandonar el conjunto sea menor que el 10 %, por lo que a pesar de cierto conservadurismo, los resultados están cercanos a la cota teórica. −2 −2.5 −2.5 −2 −1.5 −1 −0.5 x1 0 0.5 1 1.5 2 2.5 Figura 1. γ–PIS y trayectorias simuladas para el sistema (1) 0.03 0.025 0.02 0.015 e Definiendo w(t) , Bv(t), la matriz de covarianza incremental de w(t) puede calcularse como 00 T Σw dt = BΣv B dt = dt (16) 01 0.01 0.005 0 0 0.5 1 t 1.5 2 2.5 3 Figura 2. Tasa de Escape vs. t para el γ–PIS 6. CONCLUSIONES En este trabajo extendimos los conceptos de Cota Final y Conjuntos Invariantes Probabilı́sticos para sistemas de tiempo continuo. Además, dedujimos las principales propiedades de los mismos y obtuvimos fórmulas para su cálculo. Estos resultados fueron también ilustrados con un ejemplo numérico. En lo referente al trabajo futuro, pretendemos utilizar los conceptos y herramientas propuestos aquı́ para aplicaciones de control robusto, siguiendo lo hecho en Kofman et al. (2008) y para diseño de control tolerante a fallas, continuando con lo desarrollado en Seron and Doná (2010). REFERENCIAS Åström, K.J. (1970). Introduction to Stochastic Control Theory. Academic Press. New York. Blanchini, F. (1999). Set invariance in control – a survey. Automatica 35(11), 1747–1767. Kofman, E., J. De Doná and M. Seron (2011). Probabilistic ultimate bounds and invariant sets for LTI systems with Gaussian disturbances. In: Proceedings of 2011 Australian Control Conference. Melbourne, Australia. pp. 537–542. Kofman, E., J. De Doná and M. Seron (2012). Probabilistic set invariance and ultimate boundedness. Automatica. In press. AADECA 2012 - Semana del Control Automático - 23o Congreso Argentino de Control Automático 3 al 5 de Octubre de 2012 - Buenos Aires, Argentina. Kofman, E., M. Seron and H. Haimovich (2008). Control design with guaranteed ultimate bound for perturbed systems. Automatica 44(7), 1815– 1821. Seron, M. M. and J. A. De Doná (2010). Actuator fault tolerant multi-controller scheme using set separation based diagnosis. International Journal of Control 83(11), 2328–2339.