Cadenas de Markov - Facultad de Ingeniería
Transcripción
Cadenas de Markov - Facultad de Ingeniería
@ 71.07 Investigación Operativa > Cadenas de Markov Horacio Rojo y Miguel Miranda c ⃝2009 Facultad de Ingenierı́a, Universidad de Buenos Aires Digitalizado por Virginia Guala $September 12, 2009 Cadenas de Markov ∣ 1 Indice 1 PROCESOS ESTOCÁSTICOS 1.1 Definición de Proceso Estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Clasificación de los Procesos Estocásticos . . . . . . . . . . . . . . . . . . . . . . 3 3 3 2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO 2.1 Estudio de las probabilidades en las cadenas de markov homogéneas . . . . . . . 2.2 Clasificación de las cadenas de Markov Homogéneas en ergódicas y no ergódicas 2.3 Estudio del Comportamiento de las Cadenas Ergódicas en el Régimen Permanente 2.4 Estudio del comportamiento de las cadenas no ergódicas . . . . . . . . . . . . . 10 10 21 27 34 3 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO CONTINUO 43 3.1 Estudio de las probabilidades en las cadenas de Markov homogéneas . . . . . . . 43 3.2 Estudio del comportamiento de las cadenas regulares en el reg. permanente . . . 49 4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN 4.1 Definición del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Modelización mediante una cadena de Markov tipo nacimiento y muerte . . . . . 4.3 Modelo general de canales en paralelo de igual velocidad . . . . . . . . . . . . . 4.4 Modelo de dos canales en paralelo de distinta velocidad y cola infinita . . . . . . 4.5 Modelo de dos canales en paralelo de distinta velocidad y cola finita de una sola posición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Modelo de dos canales en serie de distinta velocidad, sin cola intermedia . . . . . 5 APLICACIONES 5.1 Aplicación comercial (“Brand switching”) . . . . . . . . . . . . . 5.2 Planeamiento de Personal . . . . . . . . . . . . . . . . . . . . . 5.3 Gestión de inventarios . . . . . . . . . . . . . . . . . . . . . . . 5.4 Planeamiento de producción . . . . . . . . . . . . . . . . . . . . 5.5 Analisis de fallas . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Analisis de cuentas . . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Estudio de confiabilidad en un sistema de lı́neas de transmisión BIBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 54 56 58 69 72 73 78 78 82 86 89 93 95 97 102 Cadenas de Markov ∣ 2 PRÓLOGO Las cadenas de Markov comprenden un capı́tulo particularmente importante de ciertos fenómenos aleatorios que afectan a sistemas de naturaleza dinámica y que se denominan procesos estocásticos. Deben su nombre a Andrei Andreivich Markov, matemático ruso que postuló el principio de que existen ciertos procesos cuyo estado futuro sólo depende de su estado presente y es independiente de sus estados pasados. Dichos procesos, denominados proceso de Markov, ası́ como un subconjunto de ellos llamados cadenas de Markov, constituyen una herramienta matemática muy general y poderosa para el análisis y tratamiento de un sinnúmero de problemas de caracterı́stica aleatoria en campos de muy diversa ı́ndole, como ser la fı́sica, la Ingenierı́a y La Economı́a por citar sólo unos pocos. En el capı́tulo 1 se describen los procesos estocásticos y dentro de los mismos se encuadran a los procesos y cadenas de Markov. En el capı́tulo 2 se analizan en detalle a las cadenas de Markov de parámetro discreto, definiéndose las probabilidades de transición y de estado y las ecuaciones generales que rigen el comportamiento de esas cadenas, las que luego se aplican al estudio de las principales cadenas ergódicas y no ergódicas. En el capı́tulo 3 se sigue un esquema similar aplicado a las cadenas de Markov de parámetro continuo, que son luego utilizadas en el capı́tulo 4 para la modelización de los sistemas de atención. Por último en el capı́tulo 5 se indican otras aplicaciones de las cadenas de Markov. Queremos dejar constancia de nuestro profundo agradecimiento a los ingenieros Eduardo Diéguez y Fernando Salvador por la exhaustiva tarea de revisión efectuada y por los invalorables consejos y sugerencias que nos han formulado en la elaboración del texto. Los Autores Cadenas de Markov ∣ 3 1 1.1 PROCESOS ESTOCÁSTICOS Definición de Proceso Estocástico Un proceso estocástico es un modelo matemático que describe el comportamiento de un sistema dinámico, sometido a un fenómeno de naturaleza aleatoria. La presencia de un fenómeno aleatorio hace que el sistema evolucione según un parámetro, que normalmente es el tiempo t cambiando probabilı́sticamente de estado. En otras palabras: al realizar una serie de observaciones del proceso, en diferentes ocasiones y bajo idénticas condiciones, los resultados de las observaciones serán, en general, diferentes. Por esa razón para describir el comportamiento del sistema es necesario definir una variable aleatoria: X(t) que represente una caracterı́stica mesurable de los distintos estados que puede tomar el sistema según sea el resultado del fenómeno aleatorio, y su correspondiente probabilidad de estado asociada: 𝑝𝑥 (𝑡). Luego el proceso estocástico queda definido por el conjunto: 𝑋(𝑡), 𝑝𝑥 (𝑡), 𝑡 Ejemplo 1.a En un sistema de generación de energı́a eléctrica, el pronóstico de la potencia eléctrica horaria requerida para un dı́a es un proceso estocástico, en el cual son: t= 0, 1, 2 ...... 24: horas del dı́a. X(t)= pronóstico de la potencia eléctrica requerida. px(t)= probabilidad de estado asociada. 1.2 Clasificación de los Procesos Estocásticos Para su estudio los procesos estocásticos pueden clasificarse de diversas maneras, como se indica a continuación. 1.2.1) Clasificación de los procesos estocásticos según la memoria de la historia de estados Cadenas de Markov ∣ 4 Esta clasificación tiene relación con la memoria que guarda el proceso de la historia de los estados anteriores. Para efectuar este análisis se define la probabilidad condicional o de transición entre estados mediante la siguiente expresión: 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑥𝑡+Δ𝑡 /𝑋(𝑡) = 𝑥𝑡 , 𝑋(𝑡 − Δ𝑡1 ) = 𝑥𝑡−Δ𝑡1 , 𝑋(𝑡 − Δ𝑡2 ) = 𝑥𝑡−Δ𝑡2 , 𝑋(𝑡 − Δ𝑡3 ) = 𝑥𝑡−Δ𝑡3 , . . . . . .} (1.2) Siendo: 𝑥𝑡+Δ𝑡 : un estado particular en el instante 𝑡 + Δ𝑡 𝑥𝑡 : un estado particular en el instante t 𝑥𝑡−Δ𝑡1 : un estado particular en el instante 𝑡 − Δ𝑡1 𝑥𝑡−Δ𝑡2 : un estado particular en el instante 𝑡 − Δ𝑡2 𝑥𝑡−Δ𝑡3 : un estado particular en el instante 𝑡 − Δ𝑡3 En función de lo anterior se definen los siguientes procesos: a) Procesos aleatorios puros. Son procesos en los que se cumple que: 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑥𝑡+Δ𝑡 /𝑋(𝑡) = 𝑥𝑡 , 𝑋(𝑡 − Δ𝑡1 ) = 𝑥𝑡−Δ𝑡1 , 𝑋(𝑡 − Δ𝑡2 ) = 𝑥𝑡−Δ𝑡2 , . . .} = 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑥𝑡+Δ𝑡 } (1.3) Es decir que la probabilidad de que el sistema se encuentre en un estado cualquiera 𝑥𝑡+Δ𝑡 en el instante 𝑡 + Δ𝑡 se puede calcular independientemente de cuáles hayan sido los estados anteriores 𝑥𝑡 , 𝑥𝑡−Δ𝑡1 , Cadenas de Markov ∣ 5 𝑥𝑡−Δ𝑡2 ,. . ., “es un proceso sin memoria de la historia de estados anteriores”. Ejemplos de dicho proceso se encuentran en todos los ensayos independientes al azar. b) Proceso sin memoria tipo Markov. Son procesos en los que se cumple que: 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑥𝑡+Δ𝑡 /𝑋(𝑡) = 𝑥𝑡 , 𝑋(𝑡 − Δ𝑡1 ) = 𝑥𝑡−Δ𝑡1 , 𝑋(𝑡 − Δ𝑡2 ) = 𝑥𝑡−Δ𝑡2 , . . .} = 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑥𝑡+Δ𝑡 /𝑋(𝑡) = 𝑥𝑡 } (1.4) Es decir que la probabilidad de que el sistema se encuentre en un estado cualquiera 𝑥𝑡+Δ𝑡 en el instante 𝑡 + Δ𝑡 se puede calcular si se conoce cuál ha sido el estado inmediatamente anterior 𝑥𝑡 , independientemente de cuáles hayan sido los restantes estados anteriores: 𝑥𝑡−Δ𝑡1 , 𝑥𝑡−Δ𝑡2 , . . .: es un “proceso sin memoria de toda la historia de estados anteriores, excepto del inmediatamente anterior 𝑥𝑡 ”, resumiéndose en éste toda la información necesaria para calcular la probabilidad del estado 𝑥𝑡+Δ𝑡 . También se lo suele caracterizar como un proceso en el cual “dado el presente (𝑥𝑡 ), el futuro (𝑥𝑡+Δ𝑡 ) es independiente del pasado (𝑥𝑡−Δ𝑡1 , 𝑥𝑡−Δ𝑡2 , . . .)”. Ejemplo de dicho proceso se encuentran en el funcionamiento de una red de transmisión de energı́a eléctrica en la cual el estado del sistema está dado por el número de lı́neas fuera de servicio en un instante dado. Otro ejemplo lo constituye un canal de telecomunicaciones, en el cual el estado del sistema es la salida digital del canal. En ambos casos los estados futuros dependen del estado actual y no de cómo ha evolucionado para llegar a dicho estado. c) Procesos con memoria. Son todos los restantes procesos estocásticos cuyas probabilidades condicionales de transición no cumplen con (1.3) ni (1.4). Cadenas de Markov ∣ 6 Ejemplo 1.b El siguiente es un proceso con tres variantes que permiten ejemplificar cada uno de los tres tipos de procesos mencionados. Dado un bolillero con tres bolillas: 1, 2 y 3, se definen las siguientes experiencias de pruebas repetidas: a) Se extraen bolillas “con reposición” y los resultados aleatorios 1, 2 o 3 definen los estados X(t) del siguiente proceso: ⎧ ⎫ ⎨ si, si la bolilla es 1 ó 2 ⎬ 𝑥(𝑡) = 𝑡 = 1, 2, 3, . . . ⎩ ⎭ no, si la bolilla es 3 1/3 89:; ?>=< éste es un “proceso aleatorio puro” de ensayos indeno^ pendientes, pues la probabilidad de presentación de 2/3 1/3 los estados “si” y “no” en t valen 2/3 y 1/3 respec 0123 7654 siS tivamente, independientemente de cual haya sido el 2/3 estado anterior. Lo dicho se ilustra el siguiente “grafo de transiciones” sucesivas entre estados, en el cual los nodos representan los estados del proceso, los arcos las transiciones sucesivas posibles entre estados y los atributos de los arcos las probabilidades condicionales de transición entre dos estados sucesivos. b) Se estraen bolillas “con o sin reposición” según sea 1 o 2, y 3 respectivamente, definiéndose los estados X(t) del siguiente proceso: { } si, si la bolilla es 1 o 2, (y se reponen todas) 𝑥(𝑡) = 𝑡 = 1, 2, 3, . . . no, si la bolilla es 3, (y no se reponen) éste es un “proceso tipo Markov” pues conocido un estado X(t) en t se pueden calcular las probabilidades de los estados X(t+1) en t+1, tal como se indica en el grafo de transiciones. 89:; ?>=< no^ 0 7654 0123 siS 2/3 1 1/3 Cadenas de Markov ∣ 7 c) se extraen bolillas “con o sin reposición” según sean 1, y 2 o 3 respectivamente, definiéndose los estados X(t) del siguiente proceso: { } si, si la bolilla es 1, (y se reponen todas) 𝑥(𝑡) = 𝑡 = 1, 2, 3, . . . no, si la bolilla es 2 o 3, (y no se reponen) éste es un “proceso con memoria” pues la probabilidad del estado X(t+l)= si, requiere el conocimiento de los estados X(t) y X(t-1), tal como se indica en el grafo de transiciones; y lo propio para el estado X(t+l)= no. 1/2 (si X(t-1)=si) 0 (si X(t-1)=no) 1/2 (si X(t-1)=si) 1 (si X(t-1)=no) 89:; ?>=< no^ 0123 7654 siS 2/3 1/3 1.2.2) Clasificación de los procesos de Markov según la naturaleza discreta o continua de las variables. Referida especı́ficamente a los procesos de, Markov, esta clasificación guarda relación con la naturaleza discreta o continua del espacio de estados de la variable X(t) y del parámetro tiempo t. (a) Naturaleza del espacio de estados. Cuando X(t) representa una magnitud continua (tensión o corriente eléctrica, fuerza, energı́a, potencia, presión, etc), el espacio de estados de X(t) deberá ser un intervalo de números reales, y se hablará entonces de un “proceso de Markov con estados continuos” o brevemente “proceso de Markov”. En cambio cuando X(t) representa una magnitud discreta (cantidad de artı́culos en stock en un almacén, número de lı́neas en servicio en un sistema de transmisión de energı́a eléctrica, cantidad de clientes en un sistema de atención y espera, etc.) el espacio de estados de X(t) será una secuencia finita o numéricamente infinita de enteros, y se hablará entonces de un “proceso de Markov con estados discretos”, o “cadena de Markov”. Cadenas de Markov ∣ 8 (b) Naturaleza del parámetro tiempo. Dada la naturaleza dinámica del sistema cuyo comportamiento describe, la definición de la variable aleatoria X(t) requiere la especificación del parámetro t, es decir del conjunto de instantes en que se puede observar los estados del sistema. Ası́ si las observaciones se realizan en cualquier instante del continuo (𝑡 ≥ 0), se habla de un proceso o cadena de Markov de parámetro continuo, mientras que en otras ocasiones las observaciones se efectúan en determinados instantes de tiempo (p. ej. de hora en hora, 𝑡 = 0, 1, 2, . . .) y en este caso se habla de un proceso o cadena de Markov de parámetro discreto. Lo anterior se resume en el siguiente cuadro: Naturaleza del parámetro tiempo t Naturaleza del espacio de estados X(t) Discreto Continuo Discreto Cadenas de Markov de Procesos de Markov de (𝑡 = 0, 1, . . .) parámetro discreto parámetro discreto Continuo Cadenas de Markov de Procesos de Markov de (𝑡 ≥ 0) parámetro continuo parámetro continuo 1.2.3) Clasificación de las Cadenas de Markov según su homogeneidad en el Cadenas de Markov ∣ 9 tiempo Con referencia especı́ficamente a las cadenas de Markov, de parámetro discreto o continuo, los distintos estados de la variable X(t) se suelen representar genéricamente con letras: i, j, k, etc. En particular los valores de dichos estados dependen de la naturaleza del sistema que se modela, pero habitualmente se utilizan números enteros: 0, 1, 2, . . . , 𝑚. Luego para las cadenas de Markov la probabilidad condicional da transición (1.4) se expresa de la siguiente manera: 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑗/𝑋(𝑡) = 𝑖} = 𝑃𝑖𝑗 (𝑡, 𝑡 + Δ𝑡) (1.5) Una cadena de Markov es homogénea cuando la probabilidad condicional de transición (1.5) del estado i al estado j en cualquier instante t sólo depende de la diferencia Δ𝑡, es decir: 𝑃𝑖𝑗 (𝑡, 𝑡 + Δ𝑡) = 𝑃𝑖𝑗 (Δ𝑡); ∀𝑡 ≥ 0 (1.6) y es no homogénea en caso contrario. En base a las tres clasificaciones efectuadas se puede realizar el siguiente cuadro: ⎧ Procesos aleatorios puros ⎧ ⎨ (estados cont.) Procesos ⎨ Procesos de Markov }{ { Procesos de Markov Cadenas de p. discr. homogéneas Estocásticos ⎩ ⎩ de Markov de p.cont. no homogén. Los capı́tulos siguientes se limitaran al análisis de las cadenas de Markov homogéneas, tanto de parámetro discreto como continuo, y sus respectivos problemas de aplicación. Cadenas de Markov ∣ 10 2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO En la primera parte del capı́tulo se estudian las probabilidades condicionales de transición -definidas en (l.5) y (1.6) - e incondicionales de estado - definida en (1.1) - en las cadenas de Markov homogéneas, y se desarrollan las ecuaciones que rigen su comportamiento, las que luego se aplican al estudio del comportamiento de dichas cadenas en los regı́menes transitorio y permanente. 2.1 Estudio de las probabilidades en las cadenas de markov homogéneas 2.1.1) Probabilidad condicional de transición a) Definición general Tal como se ha expresado en (1.6), la probabilidad condicional de transición del estado i al estado j en un intervalo Δ𝑡: 𝑝𝑖𝑗 (Δ𝑡) en una cadena de Markov homogénea de parámetro discreto es la probabilidad condicional de que el sistema se encuentre en estado j en el instante 𝑡 + Δ𝑡, habiéndose encontrado en el estado i en el instante t, con t y Δ𝑡 enteros. Matemáticamente es: ⎧ ⎨ 𝑡 = 0, 1, 2, . . . Δ𝑡 = 𝑛 = 0, 1, 2, . . . 𝑝𝑖𝑗 (Δ𝑡) = 𝑃 {𝑋(𝑡+Δ𝑡) = 𝑗/𝑋(𝑡) = 𝑖}; con: (2.1) 𝑖 = 0, 1, 2, . . . , 𝑚 ⎩ 𝑗 = 0, 1, 2, . . . , 𝑚 El intervalo Δ𝑡= n = entero se denomina número de pasos o transiciones o avances de la cadena sobre el parámetro t. El conjunto de probabilidades de transición 𝑝𝑖𝑗 (Δ𝑡) ,∀i,j definen la matriz de probabilidades de transición 𝑃 (Δ𝑡): 𝑖/ 0 1 𝑃 (Δ𝑡) = .. . .. . 𝑚 𝑗 0 𝑝00 (Δ𝑡) 𝑝10 (Δ𝑡) .. . .. . 𝑝𝑚0 (Δ𝑡) 1 𝑝01 (Δ𝑡) 𝑝11 (Δ𝑡) .. . .. . 𝑝𝑚1 (Δ𝑡) ...... ...... ...... ...... 𝑚 𝑝0𝑚 (Δ𝑡) 𝑝1𝑚 (Δ𝑡) .. . .. . 𝑝𝑚𝑚 (Δ𝑡) (2.2) Cadenas de Markov ∣ 11 matriz en la que se cumplen las siguientes condiciones: ⎧ 0 ≤ 𝑝𝑖𝑗 (Δ𝑡) ≤ 1 ; ∀𝑖, 𝑗 (2.3) 𝑚 ⎨ ∑ 𝑝𝑖𝑗 (Δ𝑡) = 1 ; 𝑖 = 0, 1, . . . , 𝑚 (2.4) 𝑗=0 ⎩ con Δ𝑡 = 𝑛 = 1, 2, 3, . . . b) Probabilidad de transición de 1 paso Es un caso particular de la (2.1) y representa la probabilidad condicional de transición del estado i al estado j, en un intervalo Δ𝑡= 1. { 𝑝𝑖𝑗 (1) = 𝑃 {𝑋(𝑡 + 1) = 𝑗/𝑋(𝑡) = 𝑖}; con: 𝑡 = 0, 1, 2, . . . 𝑖 = 0, 1, 2, . . . , 𝑚 𝑗 = 0, 1, 2, . . . , 𝑚 (2.5) Análogamente el conjunto de probabilidades de transición de 1 paso 𝑝𝑖𝑗 ,∀i,j definen la matriz de probabilidades de transición de 1 paso P: 𝑖/ 0 1 𝑃 (Δ𝑡) = .. . .. . 𝑚 𝑗 0 𝑝00 𝑝10 .. . .. . 𝑝𝑚0 1 𝑝01 𝑝11 .. . .. . 𝑝𝑚1 ...... ...... ...... ...... 𝑚 𝑝0𝑚 𝑝1𝑚 .. . .. . 𝑝𝑚𝑚 (2.6) Ejemplo 2.a Si en la cadena de Markov descripta en la experiencia b) del ejemplo l.b se denominan: estado 0 = no estado 1 = si el grafo y la matriz de transición de 1 paso son respectivamente: Cadenas de Markov ∣ 12 𝑖/ 𝑗 𝑃 = 0 1 0 0 1/3 1 1 2/3 1 0123 7654 0^ 0 7654 0123 1S 1/3 2/3 Ejemplo 2.b Si bien la experiencia a) del ejemplo l.b corresponde a 1 proceso de ensayos independientes, se lo puede tratar dentro de la teorı́a de las cadenas de Markov, siendo sus estados, el grafo y la matriz de transición de 1 paso las siguientes: estado 0 = no estado 1 = si 2/3 7654 0123 0^ 1/3 7654 0123 1S 1/3 𝑃 = 1/3 1/3 2/3 2/3 2/3 c) Probabilidad de transición de 2 pasos En forma análoga se define: { 𝑝𝑖𝑗 (2) = 𝑃 {𝑋(𝑡 + 2) = 𝑗/𝑋(𝑡) = 𝑖}; con: 𝑡 = 0, 1, 2, . . . 𝑖 = 0, 1, 2, . . . , 𝑚 𝑗 = 0, 1, 2, . . . , 𝑚 (2.7) Esta probabilidad, en una cadena de Markov, se puede calcular en función de las probabilidades de 1 paso, mediante la ecuación de Chapman-Kolmogorov, cuya expresión, para este caso es: 𝑝𝑖𝑗 (2) = 𝑚 ∑ 𝑘=0 { 𝑝𝑖𝑘 .𝑝𝑘𝑗 ; ∀ 𝑖 = 0, 1, . . . , 𝑚 𝑗 = 0, 1, . . . , 𝑚 (2.8) la cual establece que para todo par de estados i y j separados por un avance Δ𝑡= 2 pasos, la probabilidad de transición se puede expresar Cadenas de Markov ∣ 13 en función de las probabilidades de transición de 1 paso del estado i a un conjunto exhaustivo de estados k (todos los estados posibles) y de las probabilidades de transición de 1 paso de cada uno de los estados k al estado j. Para su demostración se definen los conjuntos A, 𝐵𝑘 y C cuyos elementos son ternas ordenadas de eventos: la primera componente es el estado del sistema en t, la segunda en t+1 y la tercera en t+2 ⎧ 𝐴 : conjunto de ternas cuya primera componente es el estado i en t ⎨ 𝐵𝑘 : cada conjunto de ternas cuya segunda componente es uno de los estados k en t+1 𝐶 : conjunto de ternas cuya tercera componente es el estado j en t+2 ⎩ además se cumple que: 𝑃 (𝐶 ∩ 𝐴) = 𝑃 (𝐶/𝐴).𝑃 (𝐴) 𝑚 ∑ 𝐿𝑖𝑗 (2) = 𝑃 (𝐶/𝐴) = 𝑚 ∑ 𝑃 (𝐶 ∩ 𝐵𝑘 ∩ 𝐴) 𝑘=0 𝑃 (𝐴) = 𝑃 (𝐶/𝐵𝑘 ∩ 𝐴).𝑃 (𝐵𝑘 ∩ 𝐴) 𝑘=0 𝑃 (𝐴) y por ser una cadena de Markov se cumple la (1.4), luego es: 𝑃 (𝐶/𝐵𝑘 ∩ 𝐴) = 𝑃 (𝐶/𝐵𝑘 ) con lo cual queda demostrada la (2.8) pues: Cadenas de Markov ∣ 14 𝑚 ∑ 𝐿𝑖𝑗 (2) = 𝑃 (𝐶/𝐴) = 𝑃 (𝐴) 𝑃 (𝐶 ∩ 𝐵𝑘 ).𝑃 (𝐵𝑘 /𝐴). 𝑘=0 = 𝑃 (𝐴) 𝑚 ∑ 𝑝𝑘𝑗 .𝑝𝑖𝑘 𝑘=0 Como antes, el conjunto de probabilidades de transición de 2 pasos: 𝑝𝑖𝑗 (2), ∀ i,j definen la matriz de probabilidades de transición de 2 pasos: 𝑝00 (2) 𝑝10 (2) .. 𝑃 (2) = . .. . 𝑝𝑚0 (2) 𝑝01 (2) . . . . . . 𝑝11 (2) . . . . . . .. . .. . 𝑝𝑚1 (2) . . . . . . 𝑝0𝑚 (2) 𝑝1𝑚 (2) .. . .. . 𝑝𝑚𝑚 (2) (2.9) y aplicando la ecuación de Chapman (2.8) a cada uno de los elementos de la matriz (2.9) queda la expresión matricial de la ecuación de Chapman-Kolmogorov: 𝑝00 (2) . . . .. . 𝑃 (2) = .. . 𝑝𝑚0 (2) . . . P(2)=P.P=𝑃 2 𝑝0𝑚 (2) 𝑝00 𝑝01 . . . .. . .. = .. . . .. .. .. . . . 𝑝𝑚𝑚 (2) 𝑝𝑚0 𝑝𝑚1 . . . 𝑝0𝑚 𝑝00 . . . .. x 𝑝10 . .. .. . . 𝑝𝑚𝑚 𝑝𝑚0 . . . 𝑝0𝑚 𝑝1𝑚 .. . 𝑝𝑚𝑚 (2.10) Ejemplo 2.c La matriz de transición de 2 pasos de la cadena del Ejemplo n∘ 2.a, aplicando la ecuación (2.10) es: Cadenas de Markov ∣ 15 0 1 0 1 𝑃 (2) = 0, 33 0, 67 = 0, 33 0, 67 0, 33 0, 67 0,67 =⇒ 0, 22 0, 78 0123 7654 0^ 0,33 0123 7654 1S 0,22 0,78 La ecuación de Chapman-Kolmogorov (2.10) es una condición necesaria, pero no suficiente para que una cadena sea Markoviana. d) Expresión qeneral de la ecuación de Chapman-Kolmogorov En forma genérica la probabilidad de transición de n pasos es: ⎧ ⎨ 𝑡 = 0, 1, 2, . . . 𝑛 = 1, 2, . . . 𝑝𝑖𝑗 (𝑛) = 𝑃 {𝑋(𝑡 + 𝑛) = 𝑗/𝑋(𝑡) = 𝑖}; con: (2.11) ⎩ 𝑖 = 0, 1, 2, . . . , 𝑚 𝑗 = 0, 1, 2, . . . , 𝑚 Repitiendo el proceso descripto en el punto anterior para deducir la ecuación (2.8) se llega a las expresiones algebraicas generales de la ecuación de Chapman-Kolmogorov: ⎧ 𝑚 ⎫ ∑ 𝑝𝑖𝑘 .𝑝𝑘𝑗 (𝑛 − 1) : forma a) { ⎨ 𝑘=0 ⎬ 𝑛 = 1, 2, . . . ; con: 𝑖 = 0, 1, 2, . . . , 𝑚 (2.12) 𝑝𝑖𝑗 (𝑛) = 𝑗 = 0, 1, 2, . . . , 𝑚 𝑚 ∑ 𝑝𝑖𝑘 (𝑛 − 1).𝑝𝑘𝑗 : forma b) ⎩ ⎭ 𝑘=0 Como antes, el conjunto de probabilidades de transición de n pasos 𝑝𝑖𝑗 (𝑛), ∀ij definen la matriz de probabilidades de transición de n casos: Cadenas de Markov ∣ 16 𝑝00 (𝑛) 𝑝10 (𝑛) 𝑃 (𝑛) = .. . 𝑝𝑚0 (𝑛) 𝑝01 (𝑛) . . . . . . 𝑝11 (𝑛) . . . . . . 𝑝0𝑚 (𝑛) 𝑝1𝑚 (𝑛) 𝑝𝑚1 (𝑛) . . . . . . 𝑝𝑚𝑚 (𝑛) (2.13) y la expresión matricial general de la ecuación de Chapman-Kolmogorov, tomando por ejemplo la forma a), queda: 𝑃 (𝑛) = 𝑝00 (𝑛) . . . .. . .. . 𝑝𝑚0 (𝑛) . . . 𝑝0𝑚 (𝑛) 𝑝00 𝑝01 . . . .. . .. . = .. . .. .. .. . . . 𝑝𝑚𝑚 (𝑛) 𝑝𝑚0 𝑝𝑚1 . . . 𝑝0𝑚 𝑝00 (𝑛 − 1) . . . .. . x 𝑝10 (𝑛 − 1) .. .. . . 𝑝𝑚𝑚 𝑝𝑚0 (𝑛 − 1) . . . 𝑝0𝑚 (𝑛 − 1) 𝑝1𝑚 (𝑛 − 1) .. . 𝑝𝑚𝑚 (𝑛 − 1) P(n)=P.P(n-1) extendiendo la ecuación anterior en forma recursiva se obtiene: P(n)= P . P(n-l) = P . P . P(n-2) = P . P . P . P(n-3)= . . . 𝑃 (𝑛) = 𝑃 𝑛 (2.14) que es la expresión genérica matricial de la ecuación de ChapmanKolmogorov. Ejemplo 2.d Las matrices de transición de 3, 4 y 5 pasos de la cadena del ejemplo Cadenas de Markov ∣ 17 2.a son, aplicando la ecuación (2.14): 0 3 1 2 𝑃 (2) = 𝑃 = 𝑃.𝑃 = 0, 33 0, 67 x = 0, 33 0, 67 0 4 0, 22 0, 78 1 3 𝑃 (4) = 𝑃 = 𝑃.𝑃 = x 0 1 4 𝑃 (5) = 𝑃 = 𝑃.𝑃 = 0, 259 0, 741 = 0, 259 0, 741 0, 247 0, 753 0, 259 0, 741 0, 247 0, 753 x 0, 33 0, 67 0, 259 0, 741 0, 222 0, 778 0, 33 0, 67 5 0, 222 0, 778 = 0, 247 0, 753 0, 251 0, 749 2.1.2) Probabilidad incondicional de estado (a) Definición general Tal como se ha expresado en (1.1), la probabilidad incondicional de estado p(t) en una cadena de Markov homogénea de paramétro discreto, es la probabilidad de que el sistema se encuentre en el estado i en el instante t: { 𝑡 = 0, 1, 2, . . . 𝑝𝑖 (𝑡) = 𝑝𝑥=𝑖 (𝑡) ; con: (2.15) 𝑖 = 0, 1, 2, . . . , 𝑚 y el conjunto de probabilidades incondicionales de estado 𝑝𝑖 (𝑡) ∀i, definen el vector de probabilidades de estado p(t): 𝑝(𝑡) = 𝑝0 (𝑡) 𝑝1 (𝑡) 𝑝2 (𝑡) . . . 𝑝𝑚 (𝑡) vector en el cual se cumplen las siguientes condiciones: (2.16) Cadenas de Markov ∣ 18 ⎧ 𝑝𝑖 (𝑡) ≤ 1 ; ∀𝑖 ⎨ 0𝑚 ≤ ∑ 𝑝𝑖 (𝑡) = 1 ; con 𝑖 = 0, 1, 2, . . . ⎩ (2.17) (2.18) 𝑖=0 (b) Probabilidad de estado inicial Es un caso particular de la (2.15) para t=0 : 𝑝𝑗 (0) = 𝑃𝑥=𝑖 (𝑡 = 0) ; con 𝑖 = 0, 1, . . . , 𝑚 (2.19) y el conjunto de probabilidades de estado iniciales 𝑝𝑖 (0) ,∀i definen el vector de probabilidades de estado inicial: 𝑝(0) = 𝑝0 (0) 𝑝1 (0) 𝑝2 (0) . . . 𝑝𝑚 (0) (2.20) (c) Probabilidad de estado luego de 1 paso En forma análoga se define: 𝑝𝑖 (1) = 𝑃𝑥=𝑗 (𝑡 = 1) ; con 𝑗 = 0, 1, . . . , 𝑚 (2.21) Esta probabilidad se puede expresar en función de las probabilidades de estado iniciales aplicando el Teorema de la Probabilidad Total, quedando expresada la llamada ecuación de estado: 𝑝𝑗 (1) = 𝑚 ∑ 𝑝𝑖 (0).𝑝𝑘𝑗 ; con 𝑗 = 0, 1, . . . , 𝑚 (2.22) 𝑖=0 Como antes, el conjunto de probabilidades de estado luego de 1 paso 𝑝𝑗 (1), ∀j, definen el vector de probabilidades de estado luego de 1 paso: 𝑝(1) = 𝑝0 (1) 𝑝1 (1) 𝑝2 (1) . . . 𝑝𝑚 (1) (2.23) Cadenas de Markov ∣ 19 y aplicando la ecuación de estado (2.22) a cada uno de los elementos del vector (2.23) queda la expresión matricial de la ecuación de estado: 𝑝(1) = 𝑝0 (1) 𝑝1 (1) . . . 𝑝𝑚 (1) = 𝑝0 (0) 𝑝1 (0) . . . 𝑝𝑚 (0) p(1)= p(0) . P 𝑝00 . . . 𝑝0𝑚 𝑝 𝑝1𝑚 x ..10 .. . . 𝑝𝑚0 . . . 𝑝𝑚𝑚 (2.24) (d) Expresión general de la Ecuación de Estado En forma genérica la probabilidad de estado luego de n pasos es: { 𝑛 = 0, 1, 2, . . . 𝑝𝑗 (𝑛) = 𝑝𝑥=𝑗 (𝑡 = 𝑛) ; con: (2.25) 𝑗 = 0, 1, 2, . . . , 𝑚 Con las mismas consideraciones hechas para deducir la ecuación (2.22) se llega a las expresiones algebraicas generales de la ecuación de estado: ⎫ ⎧ 𝑚 ∑ 𝑝𝑖 (0).𝑝𝑖𝑗 (𝑛) : forma a) { ⎬ ⎨ 𝑘=0 1, 2, . . . ; con: 𝑛𝑗 = (2.26) 𝑝𝑗 (𝑛) = = 0, 1, 2, . . . , 𝑚 𝑚 ∑ 𝑝 (𝑛 − 1).𝑝 : forma b) 𝑖 𝑖𝑗 ⎭ ⎩ 𝑘=0 Como antes, el conjunto de probabilidades de estado luego de n pasos 𝑝𝑗 (𝑛) definen el vector de probabilidades de estado: 𝑝(𝑛) = 𝑝0 (𝑛) 𝑝1 (𝑛) 𝑝2 (𝑛) . . . 𝑝𝑚 (𝑛) (2.27) y la expresión matricial general de la ecuación de estado (2.26), tomando por ejemplo la forma a), queda: Cadenas de Markov ∣ 20 𝑝(𝑛) = 𝑝0 (0) 𝑝1 (0) . . . 𝑝𝑚 (0) 𝑝00 (𝑛) . . . 𝑝0𝑚 (𝑛) 𝑝 (𝑛) 𝑝1𝑚 (𝑛) x 10.. .. . . 𝑝𝑚0 (𝑛) . . . 𝑝𝑚𝑚 (𝑛) p(n)= p(0) . P(n) (2.29) Las ecuaciones (2.28) y (2.29) constituyen las expresiones genéricas matriciales de la ecuación de estado, las cuales se resumen en la siguiente expresión: 𝑝(𝑛) = ⎧ ⎨ 𝑝(0).𝑃 (𝑛) ⎩ (2.30) 𝑝(𝑛 − 1).𝑃 Las ecuaciones (2.14) y (2.30) permiten calcular la probabilidad de cada uno de los estados de la cadena, luego de un número n cualquiera de pasos, conocidas la probabilidad de estado para un instante dado y la matriz de probabilidades de transición de 1 paso P. Ejemplo 2.e En la cadena del ejemplo 2.a, si se parte de un estado inicial con las siguientes probabilidades: ⎧ ⎨ 𝑝0 (0) = 0, 5 𝑝(0) = 0, 5 0, 5 ⎩ 𝑝1 (0) = 0, 5 las probabilidades de 1, 2, 3 y 4 pasos serán respectivamente: 𝑝(1) = 𝑝(0).𝑃 = 0, 5 0, 5 x 0 1 = 0, 167 0, 833 0, 333 0, 667 𝑝(2) = 𝑝(0).𝑃 2 = 0, 5 0, 5 x 0, 333 0, 667 = 0, 278 0, 722 0, 222 0, 778 Cadenas de Markov ∣ 21 2.2 𝑝(3) = 𝑝(0).𝑃 3 = 0, 5 0, 5 x 0, 222 0, 778 = 0, 241 0, 759 0, 259 0, 741 𝑝(4) = 𝑝(0).𝑃 4 = 0, 5 0, 5 x 0, 259 0, 741 = 0, 253 0, 747 0, 247 0, 753 Clasificación de las cadenas de Markov Homogéneas en ergódicas y no ergódicas A continuación se efectúa una clasificación de las cadenas de Markov homogéneas según la posibilidad o no que tengan de ser reducibles o separables en cadenas más chicas para el estudio de su comportamiento en los llamados regı́menes transitorio y permanente. Esta clasificación dará lugar a la definición de las cadenas ergódicas o irreductibles y las cadenas no ergódicas o separables. Previamente se requiere dar la definición de estados accesibles y comunicantes y luego clasificar los estados en clases. 2.2.1) Definición de estados accesibles y comunicantes Un estado j es accesible desde un estado i si se cumple que para algún paso 𝑛 ≥ 1 es 𝑝𝑖𝑗 (𝑛) > 0, lo cual significa que es posible pasar desde el estado i al estado j luego de un número n de transecciones, y se escribe: 𝑖 → 𝑗. La accesibilidad es una propiedad transitiva, es decir: si 𝑖 → 𝑗 y 𝑗→𝑘 ⇒ 𝑖→𝑘 Ejemplo 2.f En la cadena de la figura el estado 6 es accesible desde el 5 en un paso y desde el 4 en dos pasos, a través del 5. El estado 1 no es accesible desde el 2. Cadenas de Markov ∣ 22 Accesibilidad en una transición 0123 7654 0 70123 / 654 1 70123 7654 0123 / 654 /3 2 == @ == == == == 7654 0123 7654 0123 7 =^ = 4S == == == == 7654 0123 7654 0123 o 6K 5 𝑗 𝑖/ 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 𝑥 Dos estados i y j son comunicantes si j es accesible desde i, y viceversa, y se escribe: 𝑖 ↔ 𝑗 La comunicación es también una propiedad transitiva, es decir: si 𝑖 → 𝑗 y 𝑗→𝑘 ⇒ 𝑖→𝑘 En el ejemplo 2.f los estados 5 y 7 son comunicantes. 2.2.2) Clasificación de estados en clases comunicantes y estados sin retorno Una clase comunicante es un conjunto de estados que se comunican todos entre si. Como caso particular la clase puede consistir en un sólo estado. En el ejemplo 2.f se pueden formar las siguientes clases comunicantes: ⎧ ⎨ 𝐶1 = {2} 𝐶 = {3, 4} ⎩ 2 𝐶3 = {5, 6, 7} Las clases comunicantes se pueden clasificar en recurrentes y transitorias. (a) Clases recurrentes- Estados absorbentes Una clase es recurrente cuando la probabilidad de que la cadena se encuentre en un estado de dicha clase después de ∞ transiciónes es positiva; esto significa que una vez que la cadena ha alcanzado dicha Cadenas de Markov ∣ 23 clase, siempre regresará a ella. En el ejemplo 2.f la clase 𝐶3 es recurrente. Un caso especial de clases recurrentes lo constituyen los llamados estados absorbentes, que son aquellos estados que una vez que la cadena los ha alcanzado, no puede abandonarlos; es decir, siendo accesibles desde otros estados no absorbentes de la cadena, no se cumple la inversa. De lo anterior se deduce que un estado absorbente i tiene una probabilidad 𝑝𝑖𝑖 = 1. (b) Clases transitorias Una clase es transitoria cuando la probabilidad de que la cadena se encuentre en un estado de dicha clase después de ∞ transiciones es nula; esto significa que una vez que la cadena ha alcanzado dicha clase, existe una probabilidad de que no retorne nunca a ella. En el ejemplo 2.f las clases 𝐶1 y 𝐶2 son transitorias. Estados sin retorno son aquellos estados que no se comunican con ningún otro estado, ni siquiera consigo mismo; esto significa que una vez que la cadena ha alcanzado dicho estado la probabilidad de que retorne a él es nula. En el ejemplo 2.f los estados 0 y 1 son sin retorno. Resumiendo lo anterior, los estados pueden clasificarse de la siguiente manera: ⎧ ⎨ Estados sin retorno { transitorias { ⎩ Clases comunicantes recurrentes estados absorbentes 2.2.3) Clasificación de las cadenas de Markov homogéneas en ergódicas y no ergódicas Una cadena de Markov homogénea es ergódica o irreductible cuando todos sus estados se comunican, es decir constituyen una única clase comunicante recurrente. Las cadenas ergódicas pueden ser clasificadas en regulares y periódicas. Cadenas de Markov ∣ 24 (a) Cadenas regulares Una cadena ergódica es regular o aperiódica cuando todos los estados pueden comunicarse simultáneamente en una cantidad r de pasos; en estas condiciones la potencia r de la matriz P : 𝑃 𝑟 es una matriz con todos sus elementos no nulos. Un criterio para comprobar que una cadena es regular consiste en calcular las sucesivas potencias de P hasta encontrar un número r de pasos tal que la matriz 𝑃 𝑟 tiene todos sus elementos no nulos. Ejemplo 2.g Dada la siguiente cadena: 0,5 0,5 0,2 " 7654 0123 7654 0123 01X 1b 1 11 1 0,2 1 11 0,6 1 7654 0123 2 0, 5 0, 5 𝑃 = 0, 2 0, 2 0, 6 1 se cumple que para r = 3 0, 545 0, 245 0, 210 𝑃 = 0, 518 0, 398 0, 084 0, 350 0, 350 0, 300 3 todos sus elementos son no nulos, por lo tanto es una cadena ergódica regular. Como ejemplo: desde el estado 3 se puede acceder al mismo estado recién en 3 pasos. (b) Cadenas periódicas Una cadena ergódica es periódica cuando no se puede encontrar una potencia r de P para la cual todos los elementos de 𝑃 𝑟 sean no nulos; en estas condiciones las sucesivas potencias de la matriz 𝑃 𝑟 denotan un patrón periódico que permite asegurar siempre la presencia de al menos un cero en 𝑃 𝑟 . Ejemplo 2.h Dada la cadena siguiente: Cadenas de Markov ∣ 25 7654 0123 0g ' 7654 0123 :1 1 1/2 z 7654 0123 2 1 0 1 0 𝑃 = 1/2 0 1/2 0 1 0 1/2 es ergódica periódica pues sus sucesivas potencias son: 1/2 0 1/2 𝑃 = 0 1 0 ; 1/2 0 1/2 2 0 1 0 𝑃 = 1/2 0 1/2 ; 0 1 0 3 1/2 0 1/2 𝑃 = 0 1 0 1/2 0 1/2 4 como puede observarse se cumple el patrón de repetición periódico: { 𝑃 = 𝑃 3 = 𝑃 5 = . . . = 𝑃 𝑚 ; con m : impar 𝑃 2 = 𝑃 4 = 𝑃 6 = . . . = 𝑃 𝑛 ; con n : par con la presencia siempre de ceros en las matrices. Una cadena de Markov homogénea es no ergódica o reducible o separable cuando no todos sus estados se comunican, en esas condiciones la cadena es separable en un conjunto de clases comunicantes y estados sin retorno. Ejemplo 2.i Dada la siguiente cadena: 0,5 7654 0123 0f 0,5 0,2 0,3 7654 0123 2f 0,7 0,6 & 7654 0123 1S 0,8 & 7654 0123 3S 0, 5 0, 8 𝑃 = 0 0 0, 5 0, 2 0 0 0 0 0, 7 0, 6 0 0 0, 3 0, 4 0,4 es separable en dos clases comunicantes recurrentes 𝐶1 = {0, 1} y 𝐶2 = {2, 3} La cadena del ejemplo 2.f es separable en: Cadenas de Markov ∣ 26 ⎧ ⎨ 1 clase comunicante recurrente : 𝐶3 = {5, 6, 7} 2 clase comunicante transitoria : 𝐶1 = {2} y 𝐶2 = {3, 4} ⎩ 2 estados sin retorno :0 𝑦 1 Dentro de las cadenas no ergódicas merecen especial atención dos tipos particulares de cadenas denominadas respectivamente cadenas absorbentes y cadenas cı́clicas. (a) Cadenas absorbentes Una cadena absorbente es una cadena no ergódica separable en ∙ 1 o varios estados absorbentes y ∙ 1 o varios estados no absorbentes, constituı́dos por clases comunicantes transitorias o estados sin retorno, desde los cuales se puede acceder a por lo menos un estado absorbente Ejemplo 2.j Dada la siguiente cadena: 0,3 7654 0123 0g ' 7654 0123 1 0,5 1 0,5 7654 0123 2 𝑖/ 0,7 𝑃 = 𝑗 0 1 2 0 1 2 0, 7 0, 3 0, 5 0, 5 1 es una cadena absorbente separable en una clase comunicante transitoria C={ 0,1} y un estado absorbente 2, para el cual se cumple que 𝑝22 = 1 (b) Cadenas cı́clicas Una cadena cı́clica es una cadena no ergódica en la cual el proceso pasa de un estado a otro cı́clicamente según un cierto patrón de comportamiento. El ciclo es un camino cerrado entre estados de una clase recurrente. Para que una cadena sea cı́clica debe cumplirse que: ∙ tenga por lo menos un ciclo, y Cadenas de Markov ∣ 27 ∙ sea posible entrar en el ciclo Ejemplo 2.k Dada la siguiente cadena: 0,5 7654 0123 0 1 111 0,2 1 0,3 1 111 ' 7654 0123 7654 0123 1g 2 1 𝑖/ 𝑃 = 0 1 2 𝑗 0 1 2 0, 5 0, 2 0, 3 1 1 es una cadena cı́clica separable en una clase comunicante transitorı́a 𝐶1 ={ 0 } una clase comunicante recurrente 𝐶2 ={ 1, 2 } , que forma un ciclo. Muchas caracterı́sticas de comportamiento de las cadenas no ergódicas después que se han producido un número elevado de transiciciones (en lo que luego se definirá como régimen permanente), se estudian mediente el análisis de sus clases comunicantes recurrentes como si fueran cadenas ergódicas independientes. En resumen las cadenas de Markov homogéneas se pueden clasificar en: { ⎧ regulares Cadenas ergódicas: una clase comunicante recurrente periódicas ⎨ ⎩ Cadenas no ergódicas: separables en clases comunicantes más estados sin retorno { absorbentes cı́clicas A partir de esta clasificación en los puntos siguientes se estudia el comportamiento de las cadenas ergódicas y no ergódicas mencionadas. 2.3 Estudio del Comportamiento de las Cadenas Ergódicas en el Régimen Permanente Se define como régimen permanente o estado estacionario de una cadena de Markov homogénea a la situación que el sistema alcanza luego de un periodo relativamente largo de tiempo. En dicho régimen la cadena ya ha entrado en una condición de equilibrio estocástico, lo cual significa que sus probabilidades Cadenas de Markov ∣ 28 de estado devienen estables en el tiempo. En cambio régimen transitorio es la situación en que el sistema se encuentra luego de un perı́odo relativamente corto de tiempo. En dicho régimen la cadena no ha encontrado todavı́a una condición particular de equilibrio estocástico, es decir sus probabilidades de estado no son estables en el tiempo. Dentro de las cadenas ergódicas regulares y periódicas interesa estudiar especı́ficamente sus comportamientos en el régimen permanente, y sus conclusiones, según se ha dicho más arriba, son extensibles a las clases recurrentes de las cadenas no ergódicas. 2.3.1) Estudio del comportamiento de las cadenas regulares en el régimen permanente Tal como se ha definido en 2.2.3, una cadena regular es una cadena ergódica en la cual todos sus estados pueden comunicarse simultáneamente en una cantidad r de pasos. Para describir el comportamiento de una cadena regular en el régimen permanente o a lago plazo es preciso conocer las probabilidades de transición y de estado cuando el número n de transiciones tiende a ∞. Se puede demostrar que si la cadena es regular, el lı́mite de la matriz de probabilidades de transición P(n) cuando n tiende a ∞ es una matriz regular (todos sus elementos son positivos), con todas sus filas iguales, es decir, de (2.14) es: 𝑝0 . . . .. . 𝑛 lim 𝑃 (𝑛) = lim 𝑃 = 𝑝0 . . . 𝑛→∞ .. . 𝑝0 . . . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . 𝑝𝑚 .. . 𝑝𝑚 .. . 𝑝𝑚 (2.31) y el lı́mite del vector de probabilidades de estado queda, tomando la 1ra. igualdad de la (2.30): Cadenas de Markov ∣ 29 𝑝0 . . . .. . lim 𝑝(𝑛) = 𝑝(0). lim 𝑃 (𝑛) = 𝑝0 (0) . . . 𝑝𝑖 (0) . . . 𝑝𝑚 (0) x 𝑝0 . . . 𝑛→∞ 𝑛→∞ .. . 𝑝0 . . . y por cumplirse que: 𝑚 ∑ 𝑝𝑗 . . . .. . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . 𝑝𝑚 .. . 𝑝𝑚 .. . 𝑝𝑚 𝑝𝑖 (0) = 1, queda: 𝑖=0 lim 𝑝(𝑛) = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 (2.32) 𝑛→∞ las (2.31) y (2.32) expresan que en una cadena de Markov regular, luego de un número suficientemente grande de transiciones (𝑛 → ∞), sus probabilidades de transición 𝑝𝑖𝑗 (𝑛) y de estado 𝑃𝑗 (𝑛) se estabilizan en valores lı́mites iguales para cada estado j, e independientes del estado inicial i. Este estado se conoce como régimen permanente o estacionario, y sus probabilidades de estado 𝑝𝑗 representan los porcentajes de tiempo que la cadena permanece en cada estado j luego de un perı́odo largo de tiempo. Esta distribución de estados lı́mites se puede determinar mediante tres caminos alternativos. (a) mediante el lı́mite de la ecuación (2.31):lim 𝑃 (𝑛) = lim 𝑃 𝑛 ; 𝑛 → ∞ (b) mediante una ecuación que se deriva de la 2da. igualdad de la ecuación de estado (2.30). Para 𝑛 → ∞, según lo expresado más arriba se cumple que: lim 𝑝(𝑛) = lim 𝑝(𝑛 − 1) = 𝑝 𝑛→∞ 𝑛→∞ reemplazando en la 2da. igualdad de la (2.30) quedan: 𝑝 siendo: 𝑚 ∑ 𝑗=0 = 𝑝𝑗 = 1 𝑝 . 𝑃 (2.33) (2.34) Cadenas de Markov ∣ 30 luego con las ecuaciones (2.33) y (2.34), conocida la matriz de transición P de la cadena regular, se puede calcular el vector de probabilidades p del régimen permanente. (c) mediante la llamada “ecuación de balance de flujos probabilı́sticos”, que se deriva de la ecuación (2.33). En efecto, si se desarrolla ésta última es: 𝑃 = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 = 𝑝0 . . . 𝑝𝑖 . . . 𝑝𝑚 𝑝00 . . . .. . x 𝑝𝑖0 . . . .. . 𝑝𝑚0 . . . 𝑝0𝑗 . . . .. . 𝑝𝑖𝑗 . . . .. . 𝑝𝑚𝑗 . . . 𝑝0𝑚 .. . 𝑝𝑖𝑚 .. . 𝑝𝑚𝑚 en la cual el elemento genérico 𝑝𝑗 es: 𝑚 𝑚 ∑ ∑ 𝑝𝑗 = 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑖 .𝑝𝑖𝑗 + 𝑝𝑗 .𝑝𝑗𝑗 𝑖=0 ∀𝑖∕=𝑗 agrupando queda: 𝑚 ∑ 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑗 (1 − 𝑝𝑗𝑗 ) ∀𝑖∕=𝑗 y aplicando la ecuación (2.4) a las transiciones del estado j a un conjunto exhaustivo de estados k es: ∑ 𝑝𝑗𝑘 = 1 ∴ 1 − 𝑝𝑗𝑗 = ∀𝑘 ∑ ∀𝑘∕=𝑗 reemplazando queda: ∑ ∑ 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑗 . 𝑝𝑗𝑘 ∀𝑖∕=𝑗 𝑝𝑗𝑘 ∀𝑘∕=𝑗 ; 𝑗 = 0, . . . , 𝑛 (2.35) Cadenas de Markov ∣ 31 que es la ecuación de balance de flujos ⎧ probabilı́sticos, la cual expresa que “para un nodo genérico j la suma de ⎨ los flujos probabilı́sticos que concur- 𝑖 ren al nodo es igual a la suma de los flujos probabilı́sticos que salen del ⎩ nodo”. == @ == JJ === u: JJ = uuu JJ == u JJ uuu $ WPQRS / VUT / 𝑗 JJ u: @ == JJ u == JJ uu uu == JJ$ uu == == ⎫ ⎬ 𝑘 ⎭ Ejemplo 2.l Dada la siguiente cadena: 0,5 0,2 " 7654 0123 7654 0123 01X 1b 1 11 1 0,2 1 11 0,6 1 7654 0123 2 0,5 0, 5 0, 5 0 𝑃 = 0, 2 0, 2 0, 6 1 0 0 la cual es ergódica regular pues 𝑃 3 : 0, 35 0, 35 0, 30 𝑃 = 0, 74 0, 14 0, 12 0, 50 0, 50 0 2 ∴ 0, 545 0, 245 0, 210 𝑃 = 0, 518 0, 398 0, 084 0, 350 0, 350 0, 300 3 tiene todos sus elementos no nulos, se puede determinar el vector de probabilidades p del régimen permanente mediante el cálculo de las sucesivas potencias de 𝑃 𝑛 : 0, 5315 0, 3215 0, 1470 𝑃 = 0, 4226 0, 3386 0, 2388 0, 5450 0, 2450 0, 2100 4 𝑃 16 0, 4985 0, 3158 0, 1858 ; 𝑃 = 0, 4979 0, 3090 0, 1931 0, 5077 0, 3096 0, 1827 8 0, 5 0, 3125 0, 1875 = 0, 5 0, 3125 0, 1875 = 𝑝17 = 𝑝18 = lim 𝑃 𝑛 𝑛→∞ 0, 5 0, 3125 0, 1875 Cadenas de Markov ∣ 32 se observa que a medida que aumenta n, los elementos 𝑝𝑖𝑗 (𝑛) tienden a un lı́mite fijo, independiente del valor de i. Luego por (2.32) es: 𝑝 = lim 𝑝(𝑛) = 𝑝0 𝑝1 𝑝2 = 0, 5 0, 3125 0, 1875 (2.32) 𝑛→∞ Análogo resultado puede obtenerse mediante la aplicación de las ecuaciones (2.33) y (2.34), que en este ejemplo son: ⎧ 0, 5 0, 5 0 ⎨ 𝑝0 𝑝1 𝑝2 = 𝑝0 𝑝1 𝑝2 x 0, 2 0, 2 0, 6 1 0 0 ⎩ 𝑝0 + 𝑝1 + 𝑝2 = 1 ordenando queda: ⎧ ⎨ 0, 5 𝑝0 − 0, 2 −0, 5 𝑝0 + 0, 8 − 0, 6 ⎩ 𝑝0 + 𝑝1 − 𝑝2 𝑝1 𝑝1 + 𝑝2 𝑝1 + 𝑝2 = = = = 0 0 0 1 sistema de cuatro ecuaciones con tres incógnitas. Eliminando una cualquiera de las tres primeras ecuaciones, por ejemplo la 3ra. ecuación ( la cuarta no se puede eliminar porque las tres primeras satisfacen la solución trivial), queda: ⎧ ⎨ 0, 5 𝑝0 − 0, 2 𝑝1 − 𝑝2 = 0 −0, 5 𝑝0 + 0, 8 𝑝1 = 0 ⎩ 𝑝0 + 𝑝1 + 𝑝2 = 1 ecuación del tipo: p . A = B, siendo: 0, 5 0, 5 0 0, 2 0, 2 0, 6 1 0 0 ; 𝐵= 0 0 1 Cadenas de Markov ∣ 33 resolviendo la ecuación se llega al resultado anterior: 𝑝 = 𝐵.𝐴−1 = 0, 5 0, 3125 0, 1875 Al mismo sistema de ecuaciones podrı́a haberse arribado partiendo de la ecuación de balance de flujos probabilı́sticos (2.35) y la ecuación (2.34): ⎧ ⎨ para el nodo 0: 0, 2 𝑝1 + 𝑝2 = 0, 5 𝑝0 ⇒ 0, 5 𝑝0 − 0, 2 𝑝1 − 𝑝2 = 0 ⎩ para el nodo 1: 0, 5 𝑝0 = (0, 2 + 0, 6) 𝑝1 ⇒ −0, 5 𝑝0 + 0, 8 𝑝1 = 0 para el nodo 2: 0, 6 𝑝1 = 𝑝2 ⇒ − 0, 6 𝑝1 + 𝑝2 = 0 y de la (2.34): 𝑝0 + 𝑝1 + 𝑝2 = 1 2.3.2) Estudio del comportamiento de las cadenas periódicas en el régimen permanente Tal como se ha definido en 2.2.3 , una cadena periódica es una cadena ergódica en la cual no se puede encontrar una potencia r de la matriz P para la cual todos los elementos de 𝑃 2 sean no nulos. A diferencia de las cadenas regulares, en las cadenas periódicas no pueden lograrse valores lı́mites de la matriz 𝑃 (𝑛) = 𝑃 2 cuando n tiende a ∞. No obstante la cadena se estabiliza en valores lı́mites de probabilidades de estado a largo plazo, los cuales, como en el caso anterior representan los porcentajes de tiempo que el proceso permanece en cada estado, y que se pueden calcular a partir de las expresiones (2.33) y (2.34) o de las (2.35) y (2.34) indistintamente. Ejemplo 2.m Dada la cadena periódica del ejemplo 2.h 7654 0123 0g ' 7654 0123 :1 1 1/2 z 7654 0123 2 1 1/2 0 1 0 𝑃 = 1/2 0 1/2 0 1 0 según se ha visto en dicho ejemplo el lı́mite de 𝑃 𝑛 cuando n tiende a ∞ Cadenas de Markov ∣ 34 no existe, no obstante aplicando las ecuaciones (2.33) ⎧ 0 1 ⎨ 𝑝0 𝑝1 𝑝2 = 𝑝0 𝑝1 𝑝2 x 1/2 0 0 1 ⎩ 𝑝0 + 𝑝1 + 𝑝 2 = 1 y (2.34) son: 0 1/2 0 eliminando una de las tres primeras ecuaciones, y resolviendo el sistema resultante quedan: 𝑝0 = 𝑝2 = 1/4 ; 𝑝1 = 1/2 2.4 Estudio del comportamiento de las cadenas no ergódicas Según se ha dicho anteriormente, dentro de las cadenas no ergódicas merecen especial atención las cadenas absorbentes y las cadenas cı́clicas. Además, de las mismas interesa fundamentalmente estudiar su comportamiento en el régimen transitorio, pues en el permanente queda caracterizado por el estudio del comportamiento de sus clases recurrentes como cadenas ergódicas independientes. 2.4.1) Estudio del comportamiento de las cadenas absorbentes. Como se ha definido en 2.2.3, una cadena absorbente es una cadena no ergódica separable en: ⋅ uno o varios estados absorbentes (estados con probabilidad nula de ser abandonados, por lo tanto cuando son alcanzados por el proceso, éste se detiene definitivamente o se detiene para luego comenzar desde otro estado), y ⋅ uno o varios estados no absorbentes constituidos por clases comunicantes transitorias o estados sin retorno, desde cada una de las cuales se puede acceder a por lo menos un estado absorbente. Ejemplos de cadenas absorbentes se pueden encontrar en múltiples procesos de la realidad. Uno de los más ilustrativos lo constituyen los procesos de inspección como el del siguiente problema. Ejemplo 2.n Se tiene que inspeccionar una muestra de tres piezas hasta encontrar una Cadenas de Markov ∣ 35 pieza que sea mala, con probabilidad p, o las tres piezas buenas. Se tienen los siquientes estados: Estados 0 1 2 3 4 5 6 Buenas 0 0 1 1 2 2 3 Situación Malas 0 1 0 1 0 1 0 con los siguientes grafo y matriz de transición: 1 𝑝 7654 0123 /1 1 𝑝 0123 7654 7654 0123 70123 / 654 8}2 0 3 } }} 1−𝑝 }} }} }} } }} 1−𝑝 }} } } 1 1 }} } 𝑝 } ~ 0123 7654 7654 0123 7654 0123 /5 86 4 1−𝑝 1 0 1 2 𝑃 = 3 4 5 6 0 1 2 3 4 5 6 𝑝 (1 − 𝑝) 1 𝑝 (1 − 𝑝) 1 𝑝 (1 − 𝑝) 1 1 Se puede observar la presencia de cuatro estados absorbentes: 1, 3, 5 y 6 y das tres estados sin retorno: 0, 2 y 4. En las cadenas absorbentes es de interés conocer: (a) el número esperado de veces que el proceso pasa por cada estado no absorbente antes de ser absorbido (b) el número esperado de transiciones que el proceso tarda en ser absorbido (c) la probabilidad de absorción por cada estado absorbente Para realizar estos análisis se opera con la matriz de transición P, pero reagrupada en cuatro submatrices, constituyendo lo que se conoce cono “forma canónica o estándar”. Para un proceso de a estados absorbentes y n estados no absorbentes, dicha forma es: Cadenas de Markov ∣ 36 𝐼 0 a estados 𝐴 𝑁 n estados 𝑃 = 𝑎 𝑛 𝑒𝑠𝑡𝑎𝑑𝑜𝑠 𝑒𝑠𝑡𝑎𝑑𝑜𝑠 en donde son: * I(axa): matriz identidad; cada elemento representa la probabilidad de permanecer en un estado absorbente en un paso * 0(axn): matriz nula; cada elemento representa la probabilidad de pasar de un estado absorbente a uno no absorbente en un paso * A(nxa): matriz de estados absorbentes; cada elemento representa la probabilidad de ser absorbido (pasar de un estado no absorbente a uno absorbente) en un paso * N(nxn): matriz de estados no absorbentes; cada elemento representa la probabilidad de no ser absorbido (pasar de un estado no absorbente a otro no absorbente) en un paso En la cadena del ejemplo 2.n serı́a: 1 3 5 𝑃 = 6 0 2 4 1 3 5 1 1 1 6 0 2 4 1 (1 − 𝑝) 1 (1 − 𝑝) 𝑝 𝑝 𝑝 (1 − 𝑝) Para los análisis que siguen se utilizarán las matrices A y N. (a) Número esperado de veces que el proceso pasa por cada estado no absorbente antes de ser absorbido De acuerdo a lo visto anteriormente cada elemento de N representa Cadenas de Markov ∣ 37 la probabilidad de pasar de un estado no absorbente i a otro estado no absorbente j en un paso. Luego cada elemento de la matriz 𝑁 2 representa la probabilidad de pasar de un estado no absorbente i a otro estado no absorbente j en dos pasos, y en forme genérica cada elemento de la matriz 𝑁 𝑛 representa la probabilidad de pasar de un estado no absorbente i a otro estado no absorbente j en n pasos. Por lo tanto el número esperado de veces que la cadena puede pasar por un estado no absorbente j, habiendo comenzado en un estado no absorbente genérico i, está dado por: 𝑛𝑗/𝑖 = 1𝑥𝐼 |{z} al comienzo + |{z} 1𝑥𝑁 + en un paso 2 |1𝑥𝑁 {z } en dos pasos 𝑛 + . . . + |1𝑥𝑁 {z } + . . . = (2.36) 𝑛→∞ Ejemplo 2.ñ Dada la siguiente cadena absorbente: 1 7654 0123 @3 1/4 3/4 1/2 , 7654 0123 0 1 2 0 𝑃 = 1 2 3 1 2 3 1/2 1/2 1 1/4 3/4 1 su forma estándar es: 1 𝑃 = 3 0 2 1 1 3 = en n pasos siendo lim 𝑁 𝑛 = 0 =⇒ 𝑛𝑗/𝑖 = (𝐼 − 𝑁 )−1 7654 0123 @1 1/2 7654 0123 0l 𝐼 𝐼−𝑁 0 2 1 1/2 1/2 3/4 1/4 Cadenas de Markov ∣ 38 donde son: 0 𝑁= 0 2 2 1/2 ; 1/4 𝐴= 0 2 1 1/2 3 3/4 luego resulta: 𝐼 −𝑁 = 1 −1/2 −1/4 1 −1 (𝐼 − 𝑁 ) = 0 2 0 2 8/7 4/7 2/7 8/7 por lo tanto si la cadena comienza en el estado no absorbente 0, pasará en promedio por ese estado: 8/7 veces, incluyendo el comienzo, y por el estado 2: 4/7 veces, antes de ser absorbida por los estados 1 ó 3; si en cambio la cadena comienza en el estado no absorbente 2, pasará en promedio por ese estado: 8/7 veces, incluyendo el comienzo, y por el estado 0: 2/7 veces, antes de ser absorbida por los estados 1 ó 3. (b) Número esperado de transiciones que el proceso tarda en ser absorbido En función de lo anterior, cuando la cadena comienza en un estado no absorbente i, el número esperado de pasos que tarda en ser absorbida es la suma de los elementos de la fila i , de la matriz (𝐼 − 𝑁 )−1 , por lo tanto queda expresado como: 𝑁𝑖 = ∑ ∀𝑗 𝑛𝑗/𝑖 = (𝐼 − 𝑁 )−1 1 1 𝑥 .. . 1 Ejemplo 2.o Para la cadena del ejemplo 2.ñ es: (2.37) Cadenas de Markov ∣ 39 0 2 8/7 4/7 2/7 8/7 𝑁𝑖 = 0 2 𝑥 1 = 0 12/7 1 2 10/7 Es decir que si la cadena comienza en el estado no absorbente 0 tardará 12/7 transiciones en promedio antes de ser absorbida, si en cambio comienza en el estado 2, tardará 10/7 transiciones. b.1) Extensión para cadenas no absorbentes Para determinar el número de pasos promedio para alcanzar un estado cualquiera j determinado, se procede de manera análoga al punto anterior, suponiendo que el estado j es absorbente. Ejemplo 2.p 0,4 0,2 z 7654 0123 0h 0,3 0,6 0,3 0123 7654 41 M , 7654 0123 2 0,5 𝑃 = 0,3 0,4 0 1 2 0 1 2 0, 4 0, 3 0, 3 0, 2 0, 5 0, 3 0, 6 0, 4 0 Para averiguar el número de transiciones que se realizan hasta alcanzar por primera vez el estado 2, se debe considerarlo absorbente; es decir, la nueva matriz de transición será en su formato estándar: 𝑃 = 2 0 1 2 0 1 1 0 0 0, 3 0, 4 0, 3 0, 3 0, 2 0, 5 luego: 𝐼 −𝑁 = 1 0 0, 4 0, 3 0, 6 −0, 3 − = 1 0 0, 2 0, 5 −0, 2 0, 5 Cadenas de Markov ∣ 40 (𝐼 − 𝑁 )−1 = 2, 08 1, 25 0, 82 2, 50 (𝐼 − 𝑁 )−1 𝑥 1̄ = 3, 33 3, 32 es decir, partiendo del estado 0, el número promedio de pasos que transcurren entes de alcanzar el estado 2 es 3.33, y partiendo del estado 1, el número promedio de pasos que transcurren antes de alcanzar el estado 2 es 3.32. (c) Probabilidad de absorción por cada estado absorbente Para cada estado no absorbente i interesa conocer la probabilidad de ser absorbido por cada estado absorbente j. Este valor es igual a la probabilidad de ir desde i a j en un paso, más la probabilidad da hacerlo en dos pasos, más la probabilidad de hacerlo en tres pasos, etc. Luego: 𝑃 (𝑖 → 𝑗) = 𝑃 (𝑖 → 𝑗 en un paso) +𝑃 (𝑖 → 𝑗 en 2 pas.) +𝑃 (𝑖 → 𝑗 en 3 pas.) + . . . =𝐴 +𝑁 𝑥 𝐴 +𝑁 𝑥𝑁 𝑥 𝐴 +... 2 3 = (𝐼 + 𝑁 + 𝑁 + 𝑁 + . . .) 𝑥 𝐴 𝑃 (𝑖 → 𝑗) = (𝐼 − 𝑁 )−1 x 𝐴 (2.38) Ejemplo 2.q Para el ejemplo 2.ñ es: −1 𝑃 (𝑖 → 𝑗) = (𝐼−𝑁 ) x𝐴 = 0 2 = 0 2 0 2 8/7 4/7 2/7 8/7 1 3 4/7 3/7 1/7 6/7 𝑥 0 2 1 3 1/2 0 0 3/4 = Cadenas de Markov ∣ 41 es decir, comenzando en el estado 0 la probabilidad de terminar en el estado 1 es 4/7 y en el estado 3 es 3/7, y comenzando en el estado 2 la probabilidad de terminar en el estado 1 es 1/7 y en estado 3 es 6/7. 2.4.2) Estudio del comportamiento de las cadenas cı́clicas Como se ha definido en 2.2.3, una cadena cı́clica es una cadena en la cual el proceso pasa de un estado a otro cı́clicamente según un cierto patrón de comportamiento, cumpliéndose las condiciones: * tiene por lo menos un ciclo (camino cerrado entre estados de una clase comunicante recurrente), * es posible entrar en el ciclo. En el régimen transitorio (corto plazo) se puede determinar el número de intentos promedio que se realizan para alcanzar el ciclo. Este cálculo se puede hacer suponiendo que el ciclo es un estado absorbente. Ejemplo 2.r En la cadena cı́clica del ejemplo 2.k, haciendo: 𝑃 = 1y2 0 1y2 0 1 0 0, 5 0, 5 ∴ 𝐼 − 𝑁 = 1 − 0, 5 = 0, 5 ∴ (1 − 𝑁 )−1 = 2 ∴ (𝐼 − 𝑁 )−1 x 1̄ = 2 x 1 = 2 ∴ 𝑁0 = 2 En el régimen permanente (largo plazo) el sistema es cı́clico, y el tiempo que el proceso pasa en cada estado del ciclo se calcula con el procedimiento visto para las cadenas ergódicas, ecuaciones (2.33) y (2.34). Para el ejemplo 2.r serı́a: 0, 5 0, 2 0, 3 𝑝(0) 𝑝(1) 𝑝(2) x 0 0 1 = 𝑝(0) 𝑝(1) 𝑝(2) ∴ 0 1 0 Cadenas de Markov ∣ 42 ⎧ { = 𝑝(0) ⎨ 𝑝(0) x 0, 5 𝑝(0) = 0 0, 2 x 𝑝(0) + 𝑝(2) = 𝑝(1) ∴ 𝑝(1) = 𝑝(2) = 0, 5 ⎩ 𝑝(0) + 𝑝(1) + 𝑝(2) = 1 El ciclaje es común en operaciones de máquinas, en ciertas funciones matemáticas y en algunos sistemas fı́sico-económicos. Cadenas de Markov ∣ 43 3 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO CONTINUO Se sigue a continuación un desarrollo análogo al de las cadenas de parámetro discreto definiéndose primero las probabilidades condicionales de transición e incondicionales de estado, y estudiándose luego el comportamiento de las cadenas regulares en el régimen permanente. 3.1 Estudio de las probabilidades en las cadenas de Markov homogéneas 3.1.1) Probabilidad condicional de transición (a) Definición general La probabilidad condicional de transición es: ⎧ ⎨𝑡 ≥ 0 Δ𝑡 ≥ 0 𝑝𝑖𝑗 (Δ𝑡) = 𝑃 {𝑋(𝑡 + Δ𝑡) = 𝑗/𝑋(𝑡) = 𝑖}; con: (3.1) 𝑖 = 0, 1, 2, . . . , 𝑚 ⎩ 𝑗 = 0, 1, 2, . . . , 𝑚 y la matriz de probabilidades de transición es: 𝑗 𝑖/ 0 1 𝑃 (Δ𝑡) = .. . .. . 𝑚 0 𝑝00 (Δ𝑡) 𝑝10 (Δ𝑡) .. . .. . 𝑝𝑚0 (Δ𝑡) 1 𝑝01 (Δ𝑡) 𝑝11 (Δ𝑡) .. . .. . 𝑝𝑚1 (Δ𝑡) ...... ...... ...... ...... 𝑚 𝑝0𝑚 (Δ𝑡) 𝑝1𝑚 (Δ𝑡) .. . .. . 𝑝𝑚𝑚 (Δ𝑡) cumpliéndose: ⎧ 0 ≤ 𝑝𝑖𝑗 (Δ𝑡) ≤ 1 ; ∀𝑖, 𝑗 𝑚 ⎨ ∑ 𝑝𝑖𝑗 (Δ𝑡) = 1 ; 𝑖 = 0, 1, . . . , 𝑚 𝑗=0 ⎩ con Δ𝑡 ≥ 0 . . . (3.3) (3.4) (3.2) Cadenas de Markov ∣ 44 Además en el caso de parámetro t continuo, las probabilidades de transición deben ser continuas en t = 0, es decir que deben cumplirse las siguientes condiciones: Ejemplo 3.a { lim 𝑃𝑖𝑗 (Δ𝑡) = 𝑡→0 0 ; 𝑠𝑖 𝑖 ∕= 𝑗 1 ; 𝑠𝑖 𝑖 = 𝑗 (3.5) (3.6) El siguiente es un ejemplo de matriz de probabilidades condicionales de transición correspondiente a una cadena de Markov homogénea de parámetro continuo con dos estados: 0 y 1. ⎧ 𝑝00 (Δ𝑡) 𝑝01 (Δ𝑡) 0, 7 + 0, 3𝑒−Δ𝑡 0, 3 − 0, 3𝑒−Δ𝑡 = ⎨ 𝑃 (Δ𝑡) = 𝑝10 (Δ𝑡) 𝑝11 (Δ𝑡) 0, 7 − 0, 7𝑒−Δ𝑡 0, 3 + 0, 7𝑒−Δ𝑡 ⎩ con Δ𝑡 ≥ 0 luego para cada valor de Δ𝑡 se tiene una matriz distinta, por ejemplo: para Δ𝑡 = 0 1 0 𝑃 (0) = 0 1 1 0, 88 0, 12 𝑃 (5) = 0, 28 0, 72 para Δ𝑡 → ∞ 7654 0123 0f 0,12 0,28 0,7 0, 7 0, 3 𝑃 (∞) = 0, 7 0, 3 0 0 0,88 para Δ𝑡 = 0, 5 7654 0123 0f 7654 0123 0f 0,3 0,7 & 7654 0123 1S 1 & 7654 0123 1S 0,72 & 7654 0123 1S 0,3 (b) Tasas o intensidades de transición Al estudiar el comportamiento de una Cadena de Markov homogénea de parámetro continuo, es necesario trabajar con probabilidades de transición entre instantes de tiempo muy próximos. Esta situación Cadenas de Markov ∣ 45 conduce, por la ecuación (3.5) a probabilidades de transición que tienden a cero, es decir que cuando Δ𝑡 → 0 ⇒ 𝑝𝑖𝑗 (Δ𝑡) → 0. Para solucionar el inconveniente de tener que trabajar con probabilidades 𝑝𝑖𝑗 (Δ𝑡) diferenciales, se introduce el concepto de la derivada de la probabilidad de transición entre dos estados i y j distintos en Δ𝑡 = 0. Esta nueva magnitud, llamada tasa o intensidad de transición, expresa la variación de la probabilidad de transición entre estados diferentes de la cadena en un intervalo Δ𝑡 pequeño, referida a un Δ𝑡 unitario (por el concepto de derivada), y queda definida matemáticamente como: [ ] 𝑑 𝑑𝑖𝑗 = 𝑝𝑖𝑗 (Δ𝑡) 𝑑𝑡 Δ𝑡=0 (3.7) Formalmente, esta tasa de transición en una cadena de parámetro continuo es la magnitud equivalente a la probabilidad de transición de un paso en las cadenas de parámetro discreto. Para i = j el valor resultante se denomina tasa o intensidad de permanencia en el estado i , y matemáticamente es: ] 𝑑 𝑝𝑖𝑗 (Δ𝑡) 𝑑𝑖𝑗 = 𝑑𝑡 Δ𝑡=0 [ (3.8) Nuevamente el conjunto de tasas de transición y permanencia definen la matriz de tasas de transición D: 𝑑00 𝑑01 . . . . . . 𝑑0𝑚 𝑑10 𝑑11 . . . . . . 𝑑1𝑚 . .. .. 𝐷 = .. . . .. .. .. . . . 𝑑𝑚0 𝑑𝑚1 . . . . . . 𝑑𝑚𝑚 (3.9) Entre las tasas de transición y permanencia se puede establecer una relación análoga a la (3.4): Cadenas de Markov ∣ 46 de (3.4) 𝑚 ∑ 𝑝𝑖𝑗 (Δ𝑡) = 1 𝑗=0 𝑑 derivando: Δ𝑡 luego: 𝑑𝑖𝑖 = − [ 𝑚 ∑ ] 𝑝𝑖𝑗 (Δ𝑡) 𝑗=0 ∑ Δ𝑡=0 𝑚 𝑚 ∑ ∑ 𝑑 = [𝑝𝑖𝑗 (Δ𝑡)]Δ𝑡=0 = 𝑑𝑖𝑗 = 0 Δ𝑡 𝑗=0 𝑗=0 𝑑𝑖𝑗 (3.10) ∀𝑗∕=𝑖 La ecuación (3.10) expresa que los elementos de la diagonal principal de la matriz D se calculan como la suma de los elementos de su fila cambiada de signo. Ejemplo 3.b La matriz de tasas D correspondiente al ejemplo 3.a es: 𝐷= −0, 3 0, 3 0, 7 −0, 7 en la cual se observa el cumplimiento de la ecuación (3.10). (c) Ecuación de Chapman-Kolmogorov La ecuación de Chapman-Kolmogorov (2.12) y (2.14) es también aplicable al caso continuo, adoptando la siguiente forma en sus expresiones algebraicas: ⎧ 𝑚 ⎨𝑡 ≥ 0 ∑ Δ𝑡 ≥ 0 𝑝𝑖𝑗 (𝑡) = 𝑝𝑖𝑘 (𝑡 − Δ𝑡).𝑝𝑘𝑗 (Δ𝑡); con: (3.11) 𝑖 = 0, 1, 2, . . . , 𝑚 ⎩ 𝑘=0 𝑗 o matricial: = 0, 1, 2, . . . , 𝑚 Cadenas de Markov ∣ 47 𝑃 (𝑡) = 𝑃 (𝑡 − Δ𝑡) . 𝑃 (Δ𝑡) (3.12) Ejemplo 3.c Tomando la matriz de probabilidades de transición del ejemplo 3.a: 0, 7 + 0, 3𝑒𝑡 0, 3 − 0, 3𝑒𝑡 𝑃 (𝑡) = 0, 7 − 0, 7𝑒𝑡 0, 3 + 0, 7𝑒𝑡 se verificará la ecuación de Chapman (3.11) y (3.12) tomando como ejemplo 𝑖 = 0, 𝑗 = 1, 𝑡 = 3, Δ𝑡 = 0, 5. Luego son: ⋅ por cálculo directo: 𝑝01 (3) = 0, 3 − 0, 3𝑒−3 = 0, 285 ⋅ por aplicación de la ecuación de Chapman: 𝑝01 (3) = 𝑝00 (2, 5) . 𝑝01 (0, 5) + 𝑝01 (2, 5) . 𝑝11 (0, 5) = = 0, 725 . 0, 118 + 0, 275 . 0, 275 = 0, 285 luego verifica. 3.1.2) Probabilidad incondicional de estado (a) Definición La probabilidad incondicional de estado es: { 𝑡 ≥ 0 𝑝𝑖 (𝑡) = 𝑃𝑥=𝑖 (𝑡); con: 𝑖 = 0, 1, 2, . . . , 𝑚 (3.13) y el vector de probabilidades incondicionales de estado es: 𝑝(𝑡) = 𝑝0 (𝑡) 𝑝1 (𝑡) . . . . . . 𝑝𝑚 (𝑡) (3.14) Cadenas de Markov ∣ 48 cumpliendose: ⎧ 0 ≤ 𝑝𝑖 (𝑡) ≤ 1 , ∀𝑖 ⎨ 𝑚 ∑ 𝑝𝑖 (𝑡) = 1 , con 𝑡 ≥ 0 ⎩ (3.15) (3.16) 𝑖=0 (b) Probabilidad de estado inicial Es un caso particular de la (3.13) para 𝑡 = 0: 𝑝𝑖 (0) = 𝑝𝑥=𝑖 (𝑡 = 0) ; con 𝑖 = 0, 1, . . . , 𝑚 (3.17) y el vector de probabilidades: 𝑝(0) = 𝑝0 (0) 𝑝1 (0) . . . . . . 𝑝𝑚 (0) (3.18) (c) Ecuación de estado La ecuación de estado (2.26) y (2.30) es también aplicable al caso continuo, adoptando las siguientes formas en sus expresiones algebraicas: ⎧ 𝑚 ⎫ ∑ 𝑝𝑖 (0).𝑝𝑖𝑗 (𝑡) : forma a) { ⎨ 𝑘=0 ⎬ 𝑡 ≥ 0 ; con: Δ𝑡 ≥ 0 𝑝𝑗 (𝑡) = (3.19) 𝑗 = 0, 1, 2, . . . , 𝑚 𝑚 ∑ 𝑝𝑖 (𝑡 − Δ𝑡).𝑝𝑖𝑗 (Δ𝑡) : forma b) ⎩ ⎭ 𝑖=0 o matricial: { 𝑝(𝑡) = = 𝑝(0) . 𝑃 (𝑡) = 𝑝(𝑡 − Δ𝑡) . 𝑃 (Δ𝑡) (3.20) expresión genérica matricial de la ecuación de estado para el caso continuo. Las ecuaciones (3.12) y (3.20) permiten calcular la probabilidad de cada uno de los estados de la cadena, en cualquier instante de tiempo t. Cadenas de Markov ∣ 49 3.2 Estudio del comportamiento de las cadenas regulares en el reg. permanente En forma análoga al caso discreto, el régimen permanente o estado estacionario de una cadena de Markov homogénea de parámetro continuo se obtiene tendiendo el parámetro 𝑡 → ∞, y si la cadena es regular se cumple también que el lı́mite de la matriz de probabilidades de transición P(t) con 𝑡 → ∞ es regular con todas las filas iguales e independientes del tiempo: 𝑝0 . . . .. . lim 𝑃 (𝑡) = 𝑝0 . . . 𝑡→∞ .. . 𝑝0 . . . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . 𝑝𝑚 .. . 𝑝𝑚 .. . 𝑝𝑚 (3.21) y el vector de probabilidades de estado queda, de la 1ra. igualdad de la ecuación (3.20): 𝑝0 . . . .. . lim 𝑝(𝑡) = 𝑝(0). lim 𝑃 (𝑡) = 𝑝0 (0) . . . 𝑝𝑖 (0) . . . 𝑝𝑚 (0) x 𝑝0 . . . 𝑡→∞ 𝑡→∞ .. . 𝑝0 . . . y por cumplirse que 𝑚 ∑ 𝑝𝑗 . . . .. . 𝑝𝑗 . . . .. . 𝑝𝑗 . . . 𝑝𝑚 .. . 𝑝𝑚 .. . 𝑝𝑚 𝑝𝑖 (0) = 1, queda: 𝑖=0 lim 𝑝(𝑡) = 𝑝 = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 𝑡→∞ (3.22) Igual que en el caso discreto, las (3.21) y (3.22) expresan que en una cadena de Markov regular, luego de un tiempo t suficientemente grande sus probabilidades de transición 𝑝𝑖𝑗 (𝑡) y de estado 𝑝𝑗 (𝑡) se estabilizan en valores lı́mites similares e independientes del estado inicial y del tiempo t, definiéndose a este estado Cadenas de Markov ∣ 50 como régimen permanente o estado estacionario. Esta distribución se puede determinar mediante tres caminos alternativos: a) mediante el lı́mite de la ecuación (3.21) b) mediante una ecuación que se deriva de la 2da. igualdad de la ecuación de estado (3.20) para 𝑡 → ∞ lim 𝑝(𝑡) = lim 𝑝(𝑡 − Δ𝑡) = 𝑝, luego es: 𝑡→∞ 𝑡→∞ 𝑝 siendo de (3.16) 𝑚 ∑ = 𝑝 . 𝑃 (Δ𝑡) 𝑝𝑗 = 1 𝑗=0 (3.23) (3.24) Se puede observar que de (3.23) el vector p de probabilidades en el régimen permanente es constante e independiente del intervalo Δ𝑡 que se toma dentro de dicho régimen. Luego de (3.23) y (3.24) conocida la matriz 𝑃 (Δ𝑡) se puede calcular el vector p. c) un camino más práctico de cálculo es hacerlo en función de la matriz D. Desarrollando la (3.23): 𝑝0 . . . 𝑝𝑖 . . . 𝑝𝑚 𝑝00 (Δ𝑡) . . . .. . x 𝑝𝑖0 (Δ𝑡) . . . .. . 𝑝𝑚0 (Δ𝑡) . . . 𝑝0𝑗 (Δ𝑡) . . . .. . 𝑝𝑖𝑗 (Δ𝑡) . . . .. . 𝑝𝑚𝑗 (Δ𝑡) . . . derivando con respecto a Δ𝑡 en Δ𝑡 = 0 es: 𝑝0𝑚 (Δ𝑡) .. . 𝑝𝑖𝑚 (Δ𝑡) = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 .. . 𝑝𝑚𝑚 (Δ𝑡) Cadenas de Markov ∣ 51 𝑝0 . . . 𝑝𝑖 . . . 𝑝𝑚 | {z 𝑝 } x 𝑥 𝑑00 . . . .. . 𝑑𝑖0 . . . .. . 𝑑𝑚0 . . . | 𝑑0𝑗 . . . .. . 𝑑𝑖𝑗 . . . .. . 𝑑𝑚𝑗 . . . 𝑑0𝑚 .. . 𝑑𝑖𝑚 .. . 𝑑𝑚𝑚 {z 𝐷 } = 0 0 ... 0 (3.25) = | {z 0 } siendo de (3.24): 𝑝0 . . . 𝑝𝑖 . . . 𝑝𝑚 x 1 1 .. . 1 = 1 𝑑𝑖𝑖 = − y de (3.10) (3.26) ∑ 𝑑𝑖𝑗 (3.27) ∀𝑗∕=𝑖 las (3.25) a (3.27) también pueden expresarse de la forma ⎧ 𝑚 ∑ 𝑝𝑖 . 𝑑𝑖𝑗 = 0 ; ∀𝑗 ⎨ 𝑖=0 m+1 ecuaciones 𝑚 ∑ 𝑝𝑖 = 1 ⎩ (3.28) (3.29) 𝑖=0 siendo: 𝑑𝑖𝑖 =− ∑ 𝑑𝑖𝑗 ; ∀𝑖 (3.27) ∀𝑗∕=𝑖 Además por (3.27) la suma de los elementos de cualquier fila de la matriz D es cero, luego una columna cualquiera es combinación lineal de las m columnas restantes, o lo que es equivalente: una cualquiera de las m+1 ecuaciones es combinación lineal de las m ecuaciones restantes, pudiéndose eliminar. Si se desecha por ejemplo la última ecuación, su lugar formal en la expresión matricial (3.25) puede ser ocupado por la (3.26), eliminando la última columna de D, e incorporando en su lugar el vector de unos, y reemplazando el último cero del vector de términos independientes por un Cadenas de Markov ∣ 52 uno, quedando de esta manera integradas las ecuaciones (3.25) y (3.26) en una sola ecuación: 𝑝0 𝑝1 . . . 𝑝𝑚−1 𝑝𝑚 | {z 𝑝 𝑑𝑖𝑖 = − ∑ } x x 𝑑00 𝑑10 ... 𝑑𝑖0 𝑑𝑚0 𝑑01 𝑑11 ... ... 𝑑𝑚1 ... ... ... 𝑑𝑖𝑗 ... | 𝑑0,𝑚−1 𝑑1,𝑚−1 ... ... 𝑑𝑚,𝑚−1 {z 𝐴 1 1 ... 𝑑𝑖𝑚 1 } = 0 0 ... 0 1 (3.30) = 𝑑𝑖𝑗 | {z 1 } (3.27) ∀𝑗∕=𝑖 luego el vector p de probabilidades del régimen estacionario queda expresado: p = B . 𝐴−1 (3.31) y dada la estructura particular de B, p está integrada por la última fila de la matriz 𝐴−1 . Este sistema de ecuaciones puede ser también interpretado como un sistema de balance de flujos probabilisticos para una cadena de parámetro continuo. En efecto, si en la (3.27) se efectúa el cambio de variables j por i y k por j queda: ∑ 𝑑𝑗𝑗 = 𝑑𝑗𝑘 ∀𝑘∕=𝑗 reemplazando en la (3.28) queda: 0= ∑ 𝑝𝑖 . 𝑑𝑖𝑗 + 𝑝𝑗 . 𝑑𝑗𝑗 = ∀𝑖∕=𝑗 ∑ ∀𝑖∕=𝑗 𝑝𝑖 . 𝑑𝑖𝑗 − 𝑝𝑗 . ∑ 𝑑𝑗𝑘 ∀𝑘∕=𝑗 y ordenando: ∑ ∀𝑖∕=𝑗 𝑝𝑖 . 𝑑𝑖𝑗 = 𝑝𝑗 . ∑ ∀𝑘∕=𝑗 𝑑𝑗𝑘 (3.32) Cadenas de Markov ∣ 53 que es la extensión de la ecuación (2.35) de balance de flujos probabilisticos para el caso de cadenas de parámetro continuo. Cadenas de Markov ∣ 54 4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN 4.1 Definición del problema Dado un sistema de atención o prestación de un servicio cualquiera a clientes de cualquier naturaleza, se quiere estudiar las caracterı́sticas del proceso de atención y de eventual espera en cola de los clientes (problema de análisis) o determinar la configuración de los canales de atención para satisfacer un objetivo definido (problema de diseño o sı́ntesis). Las principales caracterı́sticas de estos procesos son las siguientes: * arribos de unidades a intervalos de tiempo regulares o irregulares a un sistema integrado por un centro de atención o servicio (canales) y un centro de espera (cola) * el centro de servicio puede estar constituido por una o varias estaciones o canales y cada unidad debe pasar por una (o eventualmente varias) estación con el fin de recibir un servicio de duración aleatoria. * la duración del servicio y el régimen de arribos definen que las unidades puedan tener que esperar que una estación se encuentre disponible, formando colas o lı́neas de espera. Como ejemplo de estos procesos pueden mencionarse los siguientes: Naturaleza de las unidades Naturaleza del servicio Naturaleza de las estaciones clientes aviones llamadas telefónicas mensajes máquinas en reparación vehı́culos ventas de un artı́culo aterrizaje conversaciones decodificación reparación paso en un cruce vendedores pista circuitos decodificadores mecánicos semáforo La estructura de estos sistemas con sus elementos básicos puede representarse de la siguiente manera: Cadenas de Markov ∣ 55 𝑠𝑎𝑙𝑖𝑑𝑎𝑠 → ∣ 𝑙𝑙𝑒𝑔𝑎𝑑𝑎 −→ ∣∣∣∣∣∣∣ ∣ → ∣ | | {z } linea de espera {z sistema → ⎫ ⎬ 𝑐𝑎𝑛𝑎𝑙𝑒𝑠 ⎭ } Según que la naturaleza del estudio sea de análisis o de diseño, los interrogantes que surgen en el problema pueden estar dados por: ⎧ ⋅ funcionamiento del sistema ⎧ ⎨ ⎨ ⋅ número necesario de canales ⋅ configuración del sistema ⋅ velocidad de atención de los canales ⎩ ⎩ ⋅ capacidad de la cola, etc Ademas el objetivo del problema puede ser: * Z = Costo → mı́nimo = costo operativo de 1 canal ($/hora.canal) x M (n∘ de canales) + + costo por demora de los clientes ($/hora.cliente ) x L (n∘ medio de clientes en el sistema) → mı́nimo * Z = Beneficio → máximo = beneficio por atención de clientes ($/cliente) x 𝜆(velocidad de ingreso de clientes: clientes/hora) - costo operativo de cada canal ($/hora.canal) x M (n∘ de canales) → máximo Cadenas de Markov ∣ 56 Para el cálculo del número medio de clientes en el sistema es preciso definir una variable aleatoria de estado i = n que represente al número de clientes en el sistema. En función de la misma será: 𝐿 = 𝐸(𝑛) = ∑ 𝑛 . 𝑝𝑛 ∀𝑛 para lo cual es necesario calcular las probabilidades de estado p, lo cual puede efectuarse mediante el método de cadenas de Markov descripto en los capı́tulos anteriores. A continuación se efectúa la modelización del proceso mediante una cadena de Markov particular llamada de nacimiento y muerte para luego aplicar dicho modelo en distintos casos de sistemas de atención. 4.2 Modelización mediante una cadena de Markov tipo nacimiento y muerte En el proceso en estudio se producen dos fenómenos aleatorios: arribos 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 → y servicios, los cuales en general responden a procesos tipo Poisson de 𝑃 𝑜𝑖𝑠𝑠𝑜𝑛 𝜆 medias 𝜆 y 𝜇 respectivamente. 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 → 𝑃 𝑜𝑖𝑠𝑠𝑜𝑛 𝜇 En base a estas hipótesis el proceso se puede modelar como una cadena de Markov cuyos estados X(t) = i = n identifican a los clientes en el interior del sistema, analizando por separado las probabilidades y tasas de transición de ambos fenómenos: a) arribos El régimen de arribos x producidos en un intervalo t viene dado por: 𝑒−𝜆𝑡 (𝜆𝑡)𝑥 𝑝𝑥 𝑎𝑟𝑟. (𝑡) = 𝑃𝑝𝑜 (𝑥/𝑡, 𝜆) = ; y para x = 1 es: 𝑥! 𝑝1 𝑎𝑟𝑟. (𝑡) = 𝑒−𝜆𝑡 (𝜆𝑡) Cadenas de Markov ∣ 57 como puede observarse el proceso Poisson de arribos es Markoviano homogéneo, pues las probabilidades de arribos 𝑝𝑥 sólo dependen del tiempo t y no de la historia. Luego las tasas de arribos serán: ] 𝑑 −𝜆𝑒−𝜆0 (𝜆0)𝑥 + 𝑒−𝜆0 .𝑥(0)𝑥 𝑑𝑥 𝑎𝑟𝑟. = 𝑝𝑥 𝑎𝑟𝑟. (𝑡) =0 = 𝑑𝑡 𝑥! 𝑡=0 𝑑1 𝑎𝑟𝑟. 𝑑 = 𝑝1 𝑑𝑡 ] 𝑎𝑟𝑟. (𝑡) = −𝜆𝑒0 .𝜆0 + 𝑒−𝜆0 .𝜆 = 𝜆 (4.1) 𝑡=0 b) despachos El régimen de despachos 𝑥 ≤ 𝑖 = 𝑛 producidos en un intervalo t es: 𝑒−𝜇𝑡 (𝜇𝑡)𝑥 ∴ 𝑝1 𝑝𝑥 𝑑𝑒𝑠. (𝑡) = 𝑃𝑝𝑜 (𝑥/𝑡, 𝜇) = 𝑥! 𝑑𝑒𝑠. (𝑡) = 𝑒−𝜇𝑡 𝜇𝑡 análogamente al caso anterior se llega a: 𝑑𝑥 𝑑𝑒𝑠. = 0 𝑑1 𝑑𝑒𝑠. = 𝜇 (4.2) siendo también el proceso de despachos Markoviano homogéneo, y por lo tanto el fenómeno aleatorio conjunto arribos-despachos también lo es. Por otra parte, estos resultados establecen que en intervalos de tiempo Cadenas de Markov ∣ 58 dt muy pequeños la probabilidad de que se produzcan x=2 o más arribos o x=2 o más servicios es nula (diferencial de segundo orden), luego el tamaño de la población X(t) = i = n sólo puede aumentar en uno, o disminuir en uno o permanecer igual. Esta cadena particular recibe el nombre de “proceso de nacimiento y muerte” y queda definida por las tasas de las ecuaciones (4.1) y (4.2) ` 𝜆𝑖−2 ⎧ ⎨ 𝜆𝑖 ; 𝑠𝑖 𝑗 = 𝑖 + 1 (𝑛𝑎𝑐𝑖𝑚𝑖𝑒𝑛𝑡𝑜) 𝜇 ; 𝑠𝑖 𝑗 = 𝑖 − 1 (𝑚𝑢𝑒𝑟𝑡𝑒) 𝑑𝑖𝑗 = ⎩ 𝑖 0 ; ∀ 𝑖, 𝑗 / ∣𝑗 − 𝑖∣ ≥ 2 (4.3) 𝜆𝑖−1 XYZ[ _^]\ 𝑖−1 W 𝜇𝑖−1 𝜇𝑖 WVUT PQRS 𝑖 V Las tasas de transición se ilustran en el grafo de la figura. En los puntos siguientes se aplica esta cadena a distintos casos de sistemas de atención 𝜇𝑖+1 𝜆𝑖 XYZ[ _^]\ 𝑖+1 W 𝜆𝑖+1 4.3 𝜇𝑖+2 Modelo general de canales en paralelo de igual velocidad La estructura general del sistema y las hipótesis básicas de funcionamiento son las siguientes: * canales en paralelo de igual velocidad ∣ →𝜇 * cola de capacidad finita o infinita, sin prioridades * población infinita, sin impaciencia ∣ →𝜇 𝜆→ * régimen de arribos: Poisson * régimen de despachos: exponencial Además se definen los siguientes parámetros y variables: ∣∣∣ .. . ∣ →𝜇 Cadenas de Markov ∣ 59 . 𝜆 = velocidad de arribo(cl/h) = 1/𝑇𝑎 = 1/tiempo promedio entre arribos . 𝜇 = velocidad de despacho(cl/h) = 1/𝑇𝑠 = 1/tiempo promedio entre servicio . 𝜌 = 𝜆/𝜇 = factor de tráfico . 𝐿 = longitud (número promedio de clientes) del sistema . 𝐿𝑐 = longitud (número promedio de clientes) de la cola . 𝐻 = número promedio de clientes en los canales . 𝑊 = tiempo promedio de permanencia en el sistema . 𝑊𝑐 = tiempo promedio de espera en la cola . 𝑝(𝑡 > 0) = probabilidad de tener que esperar en la cola (no ser atendido de inmediato) . 𝑀 = número de canales en paralelo . 𝑁 = m = número máximo de clientes en el sistema (capacidad) . 𝑛 = i = variable de estado que expresa el número de clientes en el sistema . 𝑝𝑛 = probabilidad de n en el régimen estacionario A efectos de calcular los indicadores 𝐿, 𝐿𝑐 , 𝐻, 𝑊 𝑦 𝑊𝑐 es necesario calcular la probabilidad 𝑃𝑛 del régimen estacionario, a partir de las Ecuaciones (3.30) y (3.27) y con las tasas 𝑑𝑖𝑗 definidas en la (4.3). Para la construcción del grafo y la matriz de tasas de transición A es recomendable seguir los siguientes pasos: 1. se construye el grafo de tasas de transición 2. se construye la matriz A por filas con el siguiente procedimiento: (a) tasas de transición 𝑑𝑖𝑗 : para cada fila i , en correspondencia con las columnas j se colocan las tasas 𝑑𝑖𝑗 correspondientes a los arcos que salen del estado i a cada uno de los estados j en el grafo (b) tasas de permanencia 𝑑𝑖𝑖 : son los elementos de la diagonal principal de la matriz A, y para cada fila i se calculan como la suma de las tasas de transición de esa fila, cambiada de signo, según la ecuación (3.27) Cadenas de Markov ∣ 60 (c) la última columna de la matriz de tasas se reemplaza por un vector de unos Aplicando esta metodologı́a al caso en estudio se tiene: Estados i = n = z GFED @ABC 0 𝜇1 z GFED @ABC : 1 𝜆0 𝑖/ 𝑗 (0) (1) (2) 𝐴 = (3) (𝑛 − 2) (𝑛 − 1) (𝑛) 𝜇2 𝜆1 k 𝜇3 @ABC GFED : 2 𝜆2 ... % GFED @ABC n-1 𝜆𝑛−2 F 𝜇𝑛−1 𝑝0 𝑝1 𝑝2 9 89:; ?>=< 𝑛 𝜆𝑛−1 (0) (1) (2) 𝐴0 𝐴1 𝐴2 (−𝜆0 ) 𝜆0 0 𝜇1 −(𝜇1 + 𝜆1 ) 𝜆1 0 𝜇2 −(𝜇2 + 𝜆2 ) 0 0 𝜇3 ... ... ... 0 0 0 0 0 0 0 0 0 ... ... ... 𝑝= 𝜇𝑛 y ... 𝑝𝑛−2 y 𝜇𝑛+1 8 ONML HIJK n+1 + 𝜆𝑛 ... (𝑛 − 1) ... 𝐴𝑛−1 ... 0 ... 0 ... 0 ... 0 ... ... ... 𝜆𝑛−2 . . . −(𝜇𝑛−1 + 𝜆𝑛−1 ) ... 𝜇𝑛 ... ... 𝑝𝑛−1 ... 𝑝𝑛 ... ... ... ... ... ... ... ... ... ... ... ...... (𝑁 ) 𝐴𝑁 1 1 1 1 ... 1 1 1 ... 𝑝𝑁 luego de (3.30): p.A = B se pueden despejar las probabilidades del régimen permanente. En este caso la estructura particular de A hace innecesario el cálculo de 𝐴−1 pues se puede establecer ecuaciones de recurrencia tal como se indica a continuación: ⎧ 𝑝.𝐴0 = −𝑝0 𝜆0 +𝑝1 𝜇1 =0 (4.4) 𝑝.𝐴1 = 𝑝0 𝜆0 −𝑝1 (𝜇1 + 𝜆1 ) +𝑝2 𝜇2 =0 (4.5) ⎨ 𝑝.𝐴2 = 𝑝1 𝜆1 −𝑝2 (𝜇2 + 𝜆2 ) +𝑝3 𝜇3 =0 (4.6) ..................................................................................................................... 𝑝.𝐴𝑛−1 = 𝑝𝑛−2 𝜆𝑛−2 −𝑝𝑛−1 (𝜇𝑛−1 + 𝜆𝑛−1 ) +𝑝𝑛 𝜇𝑛 =0 (4.7) ⎩ ..................................................................................................................... 𝑝.𝐴𝑁 = 𝑝0 +𝑝1 +𝑝2 +𝑝3 ... +𝑝𝑛−2 +𝑝𝑛−1 +𝑝𝑛 . . . +𝑝𝑁 = 0 (4.8) Cadenas de Markov ∣ 61 luego de (4.4) : 𝑝0 𝜆0 = 𝑝1 𝜇1 ∴ 𝑝1 = 𝜆0 𝑝0 𝜇1 sumando (4.4) y (4.5) : 𝑝1 𝜆1 = 𝑝2 𝜇2 ∴ 𝑝2 = 𝜆1 𝑝1 = 𝜇2 𝜆1 𝜆0 𝑝0 𝜇2 𝜇1 sumando (4.4), (4.5) y (4.6) : 𝑝2 𝜆2 = 𝑝3 𝜇3 ∴ 𝑝3 = 𝜆2 𝑝2 = 𝜇3 𝜆2 𝜆1 𝜆0 𝑝0 𝜇3 𝜇2 𝜇1 ∴ 𝑝𝑛 = 𝜆𝑛−1 𝑝𝑛−1 = 𝜇𝑛 sumando (4.4), (4.5), (4.6) y (4.7) : 𝑝𝑛−1 𝜆𝑛−1 = 𝑝𝑛 𝜇𝑛 = 𝜆𝑛−1 . . . 𝜆2 𝜆1 𝜆0 𝑝0 𝜇𝑛 . . . 𝜇3 𝜇2 𝜇1 (4.9) 𝑛−1 ∏ 𝜆𝑖 quedando las probabilidades 𝑓 (𝑝0 ) : 𝑝𝑛 = 𝑜 𝑛 ∏ .𝑝0 (4.10) 𝑝𝑖 = 1 ∴ 𝑝0 = . . . (4.11) 𝜇𝑖 1 y reemplazando la (4.10) en (4.8) : 𝑁 ∑ 𝑖=0 obteniéndose 𝑝0 𝑛 = 0, 1, . . . , 𝑁 Se distinguirán cuatro casos, según que la capacidad de la cola N sea infinita o finita, y para cada caso dos subcasos según que el número de canales M sea mayor que uno o exactamente uno. 4.3.1) Sistema de 𝑀 > 1 canales similares de atención en paralelo de igual 𝜇 y cola infinita (𝑁 → ∞) La estructura general del sistema es: Cadenas de Markov ∣ 62 ∣ →𝜇 ∣ →𝜇 𝜆→ ∣∣∣ | {z 𝑁 .. . ∣ →𝜇 } ⎫ ⎬ 𝑀 ⎭ y se cumplen: 𝑁 →∞ ⎫ 𝜆𝑖 = 𝜆 = 𝑐𝑡𝑒. ; 𝑇 = 1/𝜆 ⎬ 𝑎 } 𝜇𝑖 = 𝑖𝜇, 𝑖 = 1, 2, . . . , 𝑀 − 1 ; 𝜌 = 𝜆/𝜇 ; 𝑇𝑠 = 1/𝜇 ⎭ 𝜇𝑖 = 𝑀 𝜇, 𝑖 = 𝑀, 𝑀 + 1, 𝑀 + 2, . . . luego aplicando las (4.10) y (4.11) quedan: ⎧ . para 𝑛 < 𝑀 ⎤ ⎡ 𝑛 z }| { 𝜆𝑛 .𝑝0 𝜌𝑛 ⎥ 𝜆.𝜆.𝜆 . . . 𝜆 ⎢ 𝑝0 = = 𝑝0 ⎦ ⎣𝑝𝑛 = 𝜇.2𝜇.3𝜇 . . . 𝑛𝜇 𝑛!𝜇𝑛 𝑛! ⎨ de (4.10) . para 𝑛 ≥ 𝑀 ⎡ 𝑛 z }| { ⎢ 𝜆.𝜆 . . . 𝜆.𝜆.𝜆 . . . 𝜆 𝜆𝑛 .𝑝0 ⎢𝑝𝑛 = 𝑝 = 0 𝜇.2𝜇 . . . 𝑀 𝜇 𝑀 𝜇.𝑀 𝜇 . . . 𝑀 𝜇. 𝜇𝑛 𝑀 !𝑀 𝑛−𝑀 ⎩⎣ | {z }| {z } 𝑀 (4.12) ⎤ = ⎥ 𝜌𝑛 ⎥ 𝑝 0 𝑀 !𝑀 𝑛−𝑀 ⎦ (4.13) 𝑛−𝑀 reemplazando en (4.11): (𝑀 −1 ) (𝑀 −1 ) ∞ ∞ ∞ ( ∑ ∑ 𝜌𝑛 ∑ ∑ 𝜌𝑛 𝜌 𝑀 ∑ 𝜌𝑛 𝜌 )𝑛−𝑀 𝑝𝑖 = 𝑝 0 + = 𝑝0 + 𝑛−𝑀 𝑛! 𝑀 !𝑀 𝑛! 𝑀! 𝑀 𝑛=0 𝑛=0 𝑖=0 𝑛=𝑀 𝑛=𝑀 Cadenas de Markov ∣ 63 𝑝0 = (𝑀 −1 ∑ 𝜌𝑛 𝑛=0 𝑛! 𝑀 + 𝜌 1 𝑀 ! (1 − 𝜌/𝑀 ) )−1 (4.14) para que la serie geométrica sea convergente debe cumplirse que: 𝜌<𝑀 (4.15) Luego de calculada la probabilidad 𝑝𝑛 con las ecuaciones (4.12), (4.13) y (4.14) se pueden calcular los demás indicadores caracterı́sticos. (a) 𝐿𝑐 𝐿𝑐 = 𝐸𝑝 (𝑛 − 𝑀 ) = ∞ ∑ (𝑛 − 𝑀 )𝑝𝑛 = 𝑝0 𝑛=𝑀 ∞ ∑ 𝑛=𝑀 𝜌𝑛 (𝑛 − 𝑀 ) = 𝑀 !(𝑀 )𝑛−𝑀 ∞ ∞ ( 𝜌 )𝑛−𝑀 ∑ 𝜌𝑛 ∑ 𝜌𝑀 +1 𝑑 (𝑛 − 𝑀 ) (𝜌/𝑀 )𝑛−𝑀 = = 𝑝0 = 𝑝0 𝑀! 𝑀 𝑀 !𝑀 𝑑(𝜌/𝑀 ) 𝑛=𝑀 𝑛=𝑀 𝜌𝑀 +1 𝑑 1 = 𝑝0 = 𝑀 !𝑀 𝑑(𝜌/𝑀 ) (1 − 𝜌/𝑀 ) 𝜌𝑀 +1 1 𝐿 𝑐 = 𝑝0 𝑀 !𝑀 (1 − 𝜌/𝑀 )2 (b) 𝐿 (4.16) Cadenas de Markov ∣ 64 𝐿 𝐿 = 𝐸(𝑛) = ∞ ∑ 𝑛.𝑝𝑛 = 𝑛=0 𝑀 −1 ∑ 𝑎 z}|{ 𝑛.𝑝𝑛 + 𝑛=0 z ∞ ∑ }|𝑐 𝑛.𝑝𝑛 − 𝑛=𝑀 ∞ ∑ 𝑏 ∞ ∑ z }| { 𝑀.𝑝𝑛 + 𝑀.𝑝𝑛 𝑛=𝑀 { 𝑛=𝑀 pero de (4.9) es: { 𝑝𝑛−1 .𝜆𝑛−1 = 𝑝𝑛 .𝜇𝑛 ∴ [ 𝑝/𝑛 < 𝑀 : 𝜆.𝑝𝑛−1 = 𝑛𝜇𝑝𝑛 ∴ 𝑛.𝑝𝑛 = 𝜌𝑝𝑛−1 ∴ reempl. en a: 𝑝/𝑛 ≥ 𝑀 : 𝜆.𝑝𝑛−1 = 𝑀 𝜇𝑝𝑛 ∴ 𝑀.𝑝𝑛 = 𝜌𝑝𝑛−1 ∴ reempl. en b: ) ] (𝑀 −1 ∞ ∑ ∑ 𝐿 = 𝐿𝑐 + 𝜌 𝑝𝑛−1 + 𝑝𝑛−1 = 𝐿𝑐 + 𝜌 𝑛=1 (c) 𝐻 𝐻 = 𝐿 − 𝐿𝑐 = 𝜌 (d) 𝑊 𝐿.𝑇𝑎 = 𝐿/𝜆 (4.17) 𝑀 (4.18) (4.19) (e) 𝑊𝑐 𝑊𝑐 = 𝐿𝑐 .𝑇𝑎 = 𝐿𝑐 /𝜆 = 𝑊 − 𝑇𝑠 (f) 𝑝(𝑡 > 0) De la (4.14) y su desarrollo previo surge fácilmente: (4.20) Cadenas de Markov ∣ 65 𝑝(𝑡 > 0) = 𝑝(𝑛 ≥ 𝑀 ) = 𝑝0 1 𝜌𝑀 𝑀 ! 1 − 𝜌/𝑀 (4.21) Se demuestra que: ( 𝑀 ) 1 𝜌 𝑝(𝑡 > 𝑡𝑐 ) = 𝑝0 𝑒𝑀 𝜇𝑡𝑐 (1−𝜌/𝑀 ) 𝑀 ! 1 − 𝜌/𝑀 (4.22) 4.3.2) Sistema con un canal y cola infinita La estructura general del sistema es: 𝜆 −→ ∣∣∣∣∣ ∣ −→ 𝜇 y son aplicables las expresiones anteriores con M=1: de (4.13): 𝑝𝑛 = 𝜌𝑛 .𝑝0 de (4.14): 𝑝0 = (4.23) 1 =1−𝜌 1 + 𝜌/(1 − 𝜌) de (4.15): 𝜌 < 1 de (4.16): 𝐿𝑐 = (1− 𝜌) (4.24) (4.25) 𝜌2 𝜌2 = (1 − 𝜌) (1 − 𝜌)2 (4.26) de (4.17): 𝐿 = 𝐿𝑐 + 𝜌 (4.27) de (4.18): 𝐻 = 𝜌 (4.28) de (4.19): 𝑊 = 𝐿/𝜆 (4.29) Cadenas de Markov ∣ 66 de (4.20): 𝑊𝑐 = 𝐿𝑐 /𝜆 = 𝑊 − 𝑇𝑠 de (4.21): 𝑝(𝑡 > 0) = (1 − 𝜌)𝜌 (4.30) 1 =𝜌 1−𝜌 (4.31) de (4.22): 𝑝(𝑡 > 𝑡𝑐 ) = 𝜌𝑒−𝜇𝑡𝑐 (1−𝜌) (4.32) 4.3.3) Sistema 𝑀 > 1 canales similares en paralelo de igual 𝜇 y cola finita La estructura general del sistema es: ∣ →𝜇 𝜆 / / 𝜆‘ ∣∣∣ ∣ →𝜇 𝜆 − 𝜆‘ | {z 𝑁 ∣ →𝜇 } ⎫ ⎬ 𝑀 ⎭ y se cumplen: 𝜆𝑖 𝜇𝑖 𝜇𝑖 𝜆𝑁 = 𝜆 = 𝑐𝑡𝑒. ; 𝑖 = 0, 1, . . . , 𝑁 − 1 = 𝑖𝜇 = ; 𝑖 = 1, 2, . . . , 𝑀 − 1 = 𝑀𝜇 = ; 𝑖 = 𝑀, 𝑀 + 1, . . . , 𝑁 = 0 Luego aplicando las (4.10) y (4.11) quedan expresiones similares a las (4.12) y (4.13) 𝑝𝑛 = 𝜌𝑛 𝑝0 𝑛! 𝜌𝑛 𝑝𝑛 = 𝑝0 𝑀 !𝑀 𝑛−𝑀 𝑛<𝑀 (4.33) 𝑀 ≤𝑛≤𝑀 (4.34) reemplazando en (4.11) se obtiene 𝑝0 . Cadenas de Markov ∣ 67 𝑁 ∑ 𝑝𝑖 = 𝑝 0 (𝑀 −1 ∑ 𝜌𝑛 𝑛=0 𝑖=0 𝑝0 = (𝑀 −1 ∑ 𝜌𝑛 𝑛=0 𝑛! 𝑛! + 𝑛=𝑀 𝑀 + 𝑁 ∑ 𝜌 𝑀! ( 𝜌𝑛 𝑀 !𝑀 𝑛−𝑀 ) = 𝑝0 (𝑀 −1 ∑ 𝜌𝑛 𝑛=0 𝑁 −𝑀 +1 1 − (𝜌/𝑀 ) 1 − (𝜌/𝑀 ) 𝑁 𝜌𝑀 ∑ ( 𝜌 )𝑛−𝑀 + 𝑛! 𝑀 ! 𝑀 ) =1 𝑛=𝑀 ))−1 (4.35) Debe notarse que en este modelo la relación 𝜌/𝑀 puede ser ≥ 1. Luego de conocida la probabilidad p de las ecuaciones (4.33), (4.34) y (4,35) se pueden calcular los demás indicadores: 𝐿𝑐 𝐿 𝑊 𝑊𝑐 𝐻 = = = = = 𝐸𝑝 (𝑛 − 𝑚) 𝐸(𝑛) 𝐿/𝜆‘ 𝐿𝑐 /𝜆‘ 𝐿 − 𝐿𝑐 (4.36) (4.37) (4.38) (4.39) (4.40) ( siendo 𝜆‘ = 𝜆(1 − 𝑝𝑁 ) = 𝜆 1 − ( 𝑁 𝑀 !𝑀 𝑁 −𝑀 ) ) 𝑝0 (4.41) 4.3.4) Sistema con un canal y cola finita La estructura general del sistema es: 𝜆 −→ ∣∣∣∣∣ ∣ −→ 𝜇 y son aplicables las expresiones anteriores con M=1 de (4.34): 𝑝𝑛 = 𝜌𝑛 .𝑝0 ( de (4.35): 𝑝0 = ( ) )−1 ( )−1 𝜌 1 − 𝜌𝑁 1 − 𝜌 + 𝜌 − 𝜌𝑁 +1 1−𝜌 1+ = = 1−𝜌 1−𝜌 1 − 𝜌𝑁 +1 (4.42) (4.43) Cadenas de Markov ∣ 68 También en este modelo puede ser 𝜌 ≥ 1. Luego de conocida la probabilidad pn de las (4.42) y (4.43) se pueden calcular los indicadores: (a) 𝐿 𝑁 ∑ 𝑁 ∑ 𝑁 𝑑 ∑ 𝑛 𝑑 𝐿 = 𝐸(𝑛) = 𝑛.𝑝𝑛 = 𝑝0 𝑛.𝜌 = 𝑝0 𝜌 𝜌 = 𝑝0 .𝜌 𝑑𝜌 𝑑𝜌 𝑛=0 𝑛=0 𝑛=0 𝑛 −(𝑁 + 1)𝜌𝑁 (1 − 𝜌) + (1 − 𝜌𝑁 +1 ) 𝑝0 .𝜌 (1 − 𝜌)2 ( ) ( = 𝑝0 ( 1 − 𝜌𝑁 +1 1−𝜌 ) = 𝑁.𝜌𝑁 +2 − (𝑁 + 1)𝜌𝑁 +1 + 𝜌 (1 − 𝜌)2 ) (4.44) expresión general que puede simplificarse para los casos limites: a.1) si 𝜌 ≪ 1 : 𝑝0 ∼ = 1 − 𝜌 ∴ 𝐿 = (1 − 𝜌) a.2) si 𝜌 ≫ 1 : 𝑝0 ∼ = ( 𝜌 (1 − 𝜌)2 ) = 𝜌 ∼ = 𝜌 + 𝜌2 1−𝜌 (4.45) 1−𝜌 −𝑁 𝜌 + 𝑁 + 1 1 ∼ ∴ 𝐿= =𝑁+ =𝑁 𝑁 +1 −𝜌 1−𝜌 1−𝜌 (4.46) 1 2 (4.47) a.3) si 𝜌 ∼ 1 : 𝐿 = 𝑁 + 1 1 𝑁 (𝑁 + 2)(𝜌 − 1) ∼ = 𝑁 12 2 (b) 𝐿𝑐 𝐿𝑐 = 𝐸(𝑛 − 1) = 𝑁 ∑ 𝑛=1 (𝑛 − 1)𝑝𝑛 = 𝑁 ∑ 𝑛.𝑝𝑛 − 𝑛=0 𝑁 ∑ 𝑝𝑛 = 𝐿 − (1 − 𝑝0 ) (4.48) 𝑛=0 expresión general que puede simplificarse para los casos limites: b.1) si 𝜌 ≪ 1 : 𝑝0 = 1 − 𝜌 ∴ 𝐿 = 𝐿 − 𝜌 b.2) ( ) 1−𝜌 1−𝜌 ∼ si 𝜌 ≫ 1 : 𝑝0 = ∴ 𝐿𝑐 = 𝐿 − 1 − =𝐿−1 −𝜌𝑁 +1 −𝜌𝑁 +1 (4.49) (4.50) Cadenas de Markov ∣ 69 1 2 b.3) si 𝜌 ∼ 1 : 𝐿1 = (𝑁 − 1) + 1 1 (𝑁 − 1)(𝑁 + 1)(𝜌 − 1) ∼ = (𝑁 − 1) 12 2 (4.51) (c) 𝐻 𝐻 = 𝐿 − 𝐿𝑐 (4.52) (d) 𝑊 𝑊 = 𝐿/𝜆 ; siendo 𝜆‘ = 𝜆(1 − 𝑝𝑛 ) (4.53) (e) 𝑊𝑐 𝐿𝑐 /𝜆‘ 𝑊𝑐 = 𝐿.𝑇𝑠 = 𝐿/𝜇 4.4 (4.54) Modelo de dos canales en paralelo de distinta velocidad y cola infinita La estructura general del sistema es la siguiente: 𝑎 ∣ → 𝜇𝑎 −→ 𝜆 ∣∣∣ ∣ → 𝜇𝑏 𝑏 y el grafo de tasas de transición, la matriz A y el vector p son: Cadenas de Markov ∣ 70 Estados i = 𝜆/2 7654 0123 0Z p 𝑖/ 𝐴= 𝑗 (0) (1𝑎) (1𝑏) (2) (3) (4) 𝜆/2 ?>=< q 89:; 𝜇𝑏 1𝑏 𝜆 7654 0123 02 a 𝜇𝑏 𝜆 𝜇𝑎 ! 0123 7654 3` 𝜆 𝜇𝑎 +𝜇𝑏 𝜆 𝜇𝑎 +𝜇𝑏 (0) (1𝑎) (1𝑏) (2) (3) (4) 𝐴1𝑎 𝐴1𝑏 𝐴2 𝐴3 𝐴3 𝐴4 𝐴𝑢 −𝜆 𝜆/2 𝜆/2 0 0 0 ... 1 𝜇𝑎 −(𝜇𝑎 + 𝜆) 0 𝜆 0 0 ... 1 𝜇𝑏 0 −(𝜇𝑏 + 𝜆) 𝜆 0 0 ... 1 0 𝜇𝑏 𝜇𝑎 −(𝜇𝑎 + 𝜇𝑏 + 𝜆) 𝜆 0 ... 1 0 0 0 (𝜇𝑎 + 𝜇𝑏 ) −(𝜇𝑎 + 𝜇𝑏 + 𝜆) 𝜆 ... 1 0 0 0 0 0 (𝜇𝑎 + 𝜇𝑏 ) . . . 1 ............................................................................. 𝑝= ⎧ 𝑝.𝐴0 = 𝑝.𝐴1𝑎 = ⎨ 𝑝.𝐴1𝑏 = 𝜇𝑎 89:; 1 ?>=< 1𝑎Z 𝑝0 𝑝1𝑎 −𝜆.𝑝0 +𝜇𝑎 .𝑝1𝑎 𝜆 2 .𝑝0 −(𝜇𝑎 + 𝜆)𝑝1𝑎 𝜆 2 .𝑝0 𝑝1𝑏 𝑝2 𝑝3 𝑝4 +𝜇𝑏 .𝑝2 ...... = 0 (4.55) −(𝜇𝑏 + 𝜆)𝑝1𝑏 +𝜇𝑏 .𝑝2 = 0 (4.56) +𝜇𝑎 .𝑝2 = 0 (4.57) 𝑝.𝐴2 = 𝜆.𝑝1𝑎 𝜆.𝑝1𝑏 −(𝜇𝑎 + 𝜇𝑏 + 𝜆)𝑝2 +(𝜇𝑎 + 𝜇𝑏 )𝑝3 = 0 (4.58) 𝑝.𝐴3 = 𝜆.𝑝2 −(𝜇𝑎 + 𝜇𝑏 + 𝜆)𝑝3 +(𝜇𝑎 + 𝜇𝑏 )𝑝4 = 0 (4.59) ⎩ ................................................................................................................ 𝑝.𝐴𝑢 = 𝑝0 +𝑝1𝑎 +𝑝1𝑏 +𝑝2 luego de (4.55): 𝜆.𝑝0 = 𝜇𝑎 𝑝1𝑎 + 𝜇𝑏 𝑝1𝑏 +𝑝3 +𝑝4 . . . = 1 (4.60) (4.61) sumando (4.55), (4.56) y (4.57) : 𝜆(𝑝1𝑎 + 𝑝1𝑏 ) = (𝜇𝑎 + 𝜇𝑏 )𝑝2 ∴ 𝑝2 = 𝜆 (𝑝1𝑎 + 𝑝1𝑏 ) 𝜇𝑎 + 𝜇𝑏 sumando (4.55), (4.56), (4.57) y (4.58): 𝜆.𝑝2 = (𝜇𝑎 + 𝜇𝑏 )𝑝3 ∴ 𝑝3 = 𝜆 𝑝2 𝜇𝑎 + 𝜇𝑏 (4.62) Cadenas de Markov ∣ 71 sumando (4.55), (4.56), (4.57), (4.58) y (4.59): 𝜆.𝑝3 = (𝜇𝑎 + 𝜇𝑏 )𝑝4 ∴ 𝑝4 = 𝜆 𝑝3 𝜇𝑎 + 𝜇𝑏 (4.63) además de las (4.56) y (4.57) se pueden despejar 𝑝1𝑎 y 𝑝1𝑏 : de (4.56): 𝑝1𝑎 = 𝜇𝑏 𝜆/2 𝑝2 + 𝑝0 𝜇𝑎 + 𝜆 𝜇𝑎 + 𝜆 (4.64) de (4.57): 𝑝1𝑏 = 𝜇𝑎 𝜆/2 𝑝2 + 𝑝0 𝜇𝑏 + 𝜆 𝜇𝑏 + 𝜆 (4.65) reemplazando las (4.63) y (4.64) en la (4.60) queda: 𝜆.𝑝0 = 𝜇𝑎 .𝜇𝑏 𝜇𝑎 .𝜆 𝜇𝑏 .𝜇𝑎 𝜇𝑏 .𝜆 𝑝2 + 𝑝0 + 𝑝2 + 𝑝0 , despejando 𝑝2 queda: 𝜇𝑎 + 𝜆 2(𝜇𝑎 + 𝜆) 𝜇𝑏 + 𝜆 2(𝜇𝑏 + 𝜆) ) 𝜇𝑎 𝜇𝑏 𝜆 1− − 2(𝜇𝑎 + 𝜆) 2(𝜇𝑏 + 𝜆) 𝑝2 = 𝑝0 𝜇𝑎 .𝜇𝑏 𝜇𝑎 .𝜇𝑏 + 𝜇𝑎 + 𝜆 𝜇𝑏 + 𝜆 ( y por ∑último de (4.60) se despeja 𝑝0 : de 𝑝𝑖 : 𝑝0 = . . . . . . ∀𝑖 (4.66) (4.67) Cadenas de Markov ∣ 72 4.5 Modelo de dos canales en paralelo de distinta velocidad y cola finita de una sola posición La estructura general del sistema es la siguiente: 𝑎 ∣ → 𝜇𝑎 / 𝜆 / 𝜆‘ ∣ ∣ → 𝜇𝑏 𝑏 ‘ 𝜆−𝜆 y el grafo de tasas de transición,la matriz A y el vector p son: Estados i = (a, b, cola) gfed 2 `abc 1, 0, 0 ] 𝜆/2 gfed `abc 0, 0, 0 r 𝜇𝑎 𝜇𝑏 𝑖/ 𝐴= 𝑝= 𝑗 (000) (100) (010) (110) (111) 𝜇𝑏 𝜆/2 ] 𝜆 𝜆 gfed `abc 0, 1, 0 r `abc gfed 2 1, 1, 0 𝜆 k 𝜇𝑎 +𝜇𝑏 𝜇𝑎 (000) (100) (010) (110) 𝐴000 𝐴100 𝐴010 𝐴110 −𝜆 𝜆/2 𝜆/2 0 𝜇𝑎 −(𝜇𝑎 + 𝜆) 0 𝜆 𝜇𝑏 0 −(𝜇𝑏 + 𝜆) 𝜆 0 𝜇𝑏 𝜇𝑎 −(𝜇𝑎 + 𝜇𝑏 + 𝜆) 0 0 0 (𝜇𝑎 + 𝜇𝑏 ) 𝑝000 𝑝100 𝑝010 + 𝑝110 − 𝐴𝑢 1 1 1 1 1 𝑝111 `abc gfed 1, 1, 1 Cadenas de Markov ∣ 73 ⎧ 𝑝.𝐴000 = 𝑝.𝐴100 = ⎨ 𝑝.𝐴010 = 𝑝.𝐴110 = ⎩ 𝑝.𝐴𝑢 = −𝜆.𝑝000 +𝜇𝑎 .𝑝100 𝜆 2 .𝑝000 −(𝜇𝑎 + 𝜆)𝑝100 𝜆 2 .𝑝000 +𝜇𝑏 .𝑝010 −(𝜇𝑏 + 𝜆)𝑝010 +𝜇𝑏 .𝑝110 =0 +𝜇𝑎 .𝑝110 =0 +𝜆.𝑝010 −(𝜇𝑎 + 𝜇𝑏 + 𝜆)𝑝110 +(𝜇𝑎 + 𝜇𝑏 )𝑝111 = 0 𝜆.𝑝100 𝑝000 =0 +𝑝100 +𝑝010 +𝑝110 +𝑝111 = 1 resolviendo el sistema de ecuaciones se obtienen la cinco probabilidades como en los ejemplos anteriores. 4.6 Modelo de dos canales en serie de distinta velocidad, sin cola intermedia La estructura general del sistema es la siguiente: 𝜆 −→ ∣ → 𝜇𝑎 ∣ → 𝜇𝑏 𝑎 𝑏 y el grafo de tasas de transición,la matriz A y el vector p son: Estados i = (a, b) 0 WVUT PQRS 1, 0 o 𝜆 WVUT PQRS 0, 0 Y 𝜇𝑏 WVUT PQRS 1, 1 A 𝜇𝑎 𝜇𝑎 𝜆 WVUT PQRS PQRS 1, 0 o 𝜇𝑏 WVUT 𝑏1 , 1 𝜇𝑏 estado 𝑖 = (𝑏1 , 1) significa canal b bloqueado Cadenas de Markov ∣ 74 𝑗 𝑖/ (0, 0) 𝐴 = (1, 0) (0, 1) (1, 1) (𝑏1 , 1) (0, 0) (1, 0) (0, 1) (1, 1) 𝐴00 𝐴10 𝐴01 𝐴11 −𝜆 𝜆 0 0 0 −𝜇𝑎 𝜇𝑎 0 𝜇𝑏 0 −(𝜇𝑏 + 𝜆) 𝜆 0 𝜇𝑏 0 −(𝜇𝑎 + 𝜇𝑏 ) 0 0 𝜇𝑏 0 𝑝= 𝑝00 𝑝10 𝑝01 𝑝11 − 𝐴𝑢 1 1 1 1 1 𝑝𝑏1 ,1 luego aplicando la (3.30): p.A = B queda: ⎧ 𝑝.𝐴00 = 𝑝.𝐴10 = ⎨ −𝜆.𝑝00 𝜆.𝑝00 −𝜇𝑎 .𝑝10 𝑝.𝐴𝑢 = = 0 (4.68) +𝜇𝑏 .𝑝11 𝜇𝑎 .𝑝10 −(𝜇𝑏 + 𝜆)𝑝01 𝑝.𝐴01 = 𝑝.𝐴11 = ⎩ +𝜇𝑏 .𝑝01 +𝜇𝑏 .𝑝𝑏1 ,1 = 0 (4.70) 𝜆.𝑝01 −(𝜇𝑎 + 𝜇𝑏 ).𝑝11 𝑝00 𝑝10 𝑝01 = 0 (4.69) 𝑝11 = 0 (4.71) 𝑝𝑏1 ,1 = 1 (4.72) luego de (4.68): 𝑝01 = 𝜆 .𝑝00 𝜇𝑏 (4.73) de (4.71): 𝑝11 𝜆 𝜆2 = .𝑝01 = .𝑝00 𝜇𝑎 + 𝜇𝑏 𝜇𝑏 (𝜇𝑎 + 𝜇𝑏 ) de (4.68) y (4.74): (4.74) Cadenas de Markov ∣ 75 𝑝10 𝜇𝑏 𝜆 = .𝑝11 + .𝑝00 = 𝜇𝑎 𝜇𝑎 ( 𝜆 𝜆2 + 𝜇𝑎 (𝜇𝑎 + 𝜇𝑏 ) 𝜇𝑎 ) 𝑝00 (4.75) y de (4.69), (4.72) y (4.73): 𝑝𝑏1 ,1 𝜇𝑎 (𝜇𝑏 + 𝜆) .𝑝01 − .𝑝10 = = 𝜇𝑎 𝜇𝑏 ( 𝜆2 𝜆(𝜇𝑏 + 𝜆) 𝜆 − − 2 𝜇𝑏 𝜇𝑏 (𝜇𝑎 + 𝜇𝑏 ) 𝜇𝑏 ) 𝑝00 (4.76) y de las (4.72), (4.73), (4.74), (4.75)y (4.76): 𝑝00 )−1 ( 𝜆2 𝜆 𝜆(𝜇𝑏 + 𝜆) = 1+ + + 𝜇𝑎 𝜇𝑎 (𝜇𝑎 + 𝜇𝑏 ) 𝜇2𝑏 (4.77) Si se cumple que 𝜇𝑎 = 𝜇𝑏 = 𝜇, haciendo 𝜌 = 𝜆/𝜇 quedan: 1 1 + 2𝜌 + 32 𝜌2 (4.78) 𝜌 + 12 𝜌2 = 1 + 2𝜌 + 32 𝜌2 (4.79) 𝜌 1 + 2𝜌 + 32 𝜌2 (4.80) 𝑝00 = 𝑝10 𝑝01 = 𝑝11 = 𝑝𝑏1 ,1 = 1 2 2𝜌 1 + 2𝜌 + 32 𝜌2 (4.80) ecuaciones que para los casos lı́mites se transforman en: Cadenas de Markov ∣ 76 { a) 𝜌 ≫ 1 𝑝00 = 𝑝01 = 0 𝑝10 = 𝑝11 = 𝑝𝑏1 ,1 = 1/3 ⎧ ⎨ 𝑝00 b) 𝜌 = 1 𝑝10 ⎩ 𝑝11 ⎧ ⎨ 𝑝00 c) 𝜌 ≪ 1 𝑝10 ⎩ 𝑝11 = 𝑝01 = 2/9 = 3/9 = 𝑝𝑏1 ,1 = 1/9 = 1 − 2𝜌 = 𝑝01 = 𝜌 = 𝑝𝑏1 ,1 = 0 Por último los indicadores: longitud del sistema L, número promedio de canales que están efectivamente trabajando: 𝐻, y grado de ocupación de cada uno de ellos: 𝐻1 y 𝐻2 , quedan expresados de la siguiente forma: 2𝜌 + 25 𝜌2 + 𝑝𝑏1 ,1 ) = 1 + 2𝜌 + 32 𝜌2 (4.82) 𝐻 = 𝑝10 + 𝑝01 + 𝑝𝑏1 ,1 + 2𝑝11 2𝜌 + 2𝜌2 = 1 + 2𝜌 + 32 𝜌2 (4.83) 𝐻1 = 𝑝10 + 𝑝11 𝜌 + 𝜌2 = 1 + 2𝜌 + 32 𝜌2 (4.84) 𝐻2 = 𝑝01 + 𝑝11 + 𝑝𝑏1 ,1 𝜌 + 𝜌2 = 1 + 2𝜌 + 32 𝜌2 (4.85) 𝐿 = 𝑝10 + 𝑝01 + 2(𝑝11 ecuaciones que para los casos lı́mites se transforman en: a) 𝜌 ≫ 1 : 𝐿 = 5/3 ; 𝐻 = 4/3 ; 𝐻1 = 𝐻2 = 2/3 b) 𝜌 = 1 : 𝐿 = 1 ; 𝐻 = 8/9 ; 𝐻1 = 𝐻2 = 4/9 Cadenas de Markov ∣ 77 c) 𝜌 ≪ 1 : 𝐿 = 2𝜌 ; 𝐻 = 2𝜌 ; 𝐻1 = 𝐻2 = 𝜌 Cadenas de Markov ∣ 78 5 APLICACIONES 5.1 Aplicación comercial (“Brand switching”) Un cliente puede adquirir un televisor de alguna de las siguientes marcas: X, Y o Z. Se asume que estas alternativas cubren todas las posibilidades de compra. Con respecto al comportamiento de compra, los fabricantes de los televisores disponen de la siguiente información: * El 30% de los clientes que poseen un televisor X se mantienen leales a la marca en su próxima compra, mientras que el 40% adquiere un Y y el 30% restante, un Z. * De los clientes que actualmente poseen un televisor marca Y, el 40% compra un televisor X, el 25% vuelve a adquirir un Y y el resto uno de la marca Z. * El 20% de los clientes que poseen un Z compran un X, el 30% un Y y el resto no cambia de marca. Se desea saber: a) ¿Cuál es la probabilidad de que un poseedor de un televisor X adquiera un Z al cabo de dos compras? b) ¿Cuál es la probabilidad de que el dueño de un X compre nuevamente un televisor de la misma marca luego de tres transacciones? c) ¿Cuál será el porcentaje de participación en el mercado a largo plazo? d) ¿Cuál es el número esperado de compras que transcurrirán antes que el actualmente poseedor de un televisor X adquiera un Z? Solución: a) Se puede resumir el comportamiento de la próxima compra con la siguiente matriz de transición: Cadenas de Markov ∣ 79 𝑋 𝑌 𝑋 0, 3 0, 4 𝑃 = 𝑌 0, 4 0, 25 𝑍 0, 2 0, 3 0,3 89:; ?>=< j 𝑋V * ?>=< 6 89:; 0,4 𝑍 0, 3 0, 35 0, 5 0,25 𝑌 0,4 0,5 0,3 ?>=< v 89:; 𝑍S 0,2 0,35 0,5 (1) 𝑉1 (2) 𝑉1 = [0, 3 0, 4 0, 3] = (1) 𝑉1 .𝑃 0, 3 0, 4 0, 3 = [0, 3 0, 4 0, 3] 0, 4 0, 25 0, 35 = [0, 31 0, 31 0, 38] 0, 2 0, 3 0, 5 (2) Si vector 𝑉1 informa las probabilidades de que el dueño de un televisor X adquiera un X, Y o Z despectivamente en la segunda compra. Luego, la probabilidad de que adquiera un Z en dos transacciones es 38%. La misma información puede obtenerse de la matriz 𝑃 2 . En ella podemos observar todas las probabilidades asociadas al segundo paso para todos los estados iniciales. Ası́ la probabilidad de que el actualmente poseedor de un Y adquiera un Z en la segunda compra es 38,25%. 0, 31 0, 31 0, 38 2 La probabilidad de que el dueño 𝑃 = 0, 29 0, 3275 0, 3825 de un televisor marca Z vuelva a 0, 28 0, 305 0, 415 adquirir otro de la misma marca en dos transacciones es 41,5%, etc. b) (3) 𝑉1 = (2) 𝑉1 .𝑃 0, 3 0, 4 0, 3 = [0, 31 0, 31 0, 38] 0, 4 0, 25 0, 35 = [0, 293 0, 3155 0, 3915] 0, 2 0, 3 0, 5 Cadenas de Markov ∣ 80 Otra forma de calcular el vector V es: (3) 𝑉1 = (1) 𝑉1 .𝑃 2 0, 31 0, 31 0, 38 = [0, 3 0, 4 0, 3] 0, 29 0, 3275 0, 3825 = [0, 293 0, 3155 0, 3915] 0, 28 0, 305 0, 415 Es decir, la probabilidad de que el ahora dueño de un X compre nuevamente un televisor de la misma marca el cabo de 3 pasos es 29,3%. Al mismo resultado pudo arribarse a partir de la 𝑃 3 . 0, 293 0, 3155 0, 3915 𝑃 = 0, 2945 0, 3127 0, 3928 0, 289 0, 3128 0, 3982 3 c) Se forma un sistema de ecuaciones formado por N-1 ecuaciones extraı́das del producto matricial 0, 3 0, 4 0, 3 [𝑝(𝑥) 𝑝(𝑦) 𝑝(𝑧)] 0, 4 0, 25 0, 35 = [𝑝(𝑥) 𝑝(𝑦) 𝑝(𝑧)] 0, 2 0, 3 0, 5 y por la ecuación p(x) + p(y) + p(z) =1 ⎧ ⎨ 𝑝(𝑥).0, 3 + 𝑝(𝑦).0, 4 + 𝑝(𝑧).0, 2 = 𝑝(𝑥) 𝑝(𝑥).0, 4 + 𝑝(𝑦).0, 25 + 𝑝(𝑧).0, 35 = 𝑝(𝑦) ⎩ 𝑝(𝑥) + 𝑝(𝑦) + 𝑝(𝑧) = 1 Resolviendo este sistema de 3 ecuaciones con 3 incógnitas resulta: p(x)=0,2919 p(y)=0,3135 p(z)=0,3946 Es decir, a largo plazo los porcentajes de participación en el mercado serán 29,19%, 31,35% y 39,46?% para las marcas X, Y y Z respectivamente. Al mismo resultado pudo haberse arribado calculando una potencia de P para un número alto de transacciones: Cadenas de Markov ∣ 81 0, 2919 0, 3135 0, 3946 𝑃 = 0, 2919 0, 3135 0, 3946 0, 2919 0, 3135 0, 3946 8 d) Se modifica la matriz de transición P, convirtiendo al estado Z en un estado absorbente: 𝑋 𝑌 𝑋 0, 3 0, 4 𝑌 0, 4 0, 25 𝑍 0 0 𝑍 0, 3 0, 35 1 Esta matriz se descompone en 4 submatrices de la forma 𝑋 𝑍 1 0 𝑋 0, 3 0, 3 𝑌 0, 35 0, 4 𝑍 𝐼 𝑂 𝐴 𝑁 𝑌 0 0, 4 0, 25 Luego se procede a calcular la matriz (𝐼 − 𝑁 )−1 𝐼 −𝑁 = 1 0 0, 3 0, 4 0, 7 −0, 4 − = 0 1 0, 4 0, 25 −0, 4 0, 75 (𝐼 − 𝑁 )−1 = 2, 0548 1, 0959 1, 0959 1, 9178 El vector 𝑛 ¯ = (𝐼 − 𝑁 )−1 .1̄ nos dará el número promedio de pasos que transcurren hasta que el proceso se absorba para cada uno de los estados no absorbentes iniciales. Cadenas de Markov ∣ 82 𝑛 ¯= 2, 0548 1, 0959 1 3, 1507 𝑥 = 1, 0959 1, 9178 1 3, 0137 Luego, el número esperado de transacciones que transcurren hasta que el actualmente poseedor de un televisor X adquiera un Z es 3,1507. 5.2 Planeamiento de Personal El Departamento de Relaciones con el Personal de una firma realiza un estudio de niveles de categorı́a para proveer promociones adecuadas en el momento oportuno, controlar el pago de haberes, analizar necesidades: de contratación de personal, etc. Esta empresa tiene 20 empleados de categorı́a 3 (la mas alta), 80 de categorı́a 2 y 200 de categorı́a 1 (la mas baja de todas). En base a datos históricos se espera que el 35% de los empleados de la categorı́a 1, el 20% de la 2 y el 5% de la 3 dejen la empresa anualmente por renuncias, despidos, jubilaciones, fallecimientos, etc. Considerando las siguientes polı́ticas de personal: - mantener la misma cantidad de empleados (total y por niveles) - realizar contrataciones solamente en el primer nivel - dar promociones a los empleados una sola vez por año el gerente del Departamento encargó al grupo de Investigación Operativa de la empresa: 1. Averiguar qué cantidad de gente deberá contratarse y qué cantidad deberá promoverse a la categorı́a inmediata superior para mantener los niveles de empleados estables, anualmente. 2. Determinar el tiempo de permanencia promedio de un empleado en la compañı́a (ı́ndice de rotación del personal) Cadenas de Markov ∣ 83 3. Calcular la probabilidad de que un empleado que recién ingresa a la firma llegue a la máxima categorı́a. Solución: 1. El siguiente gráfico representa el proceso de promociones anuales de los empleados. 7654 0123 1 7654 0123 / q8 0O q q q qqq 0,20qqqqq 0,05 qq qqq q q q qqqq 7654 0123 0123 7654 /3 2K S 0,35 Todos los empleados llegarán si estado 0, que es un estado absorbente. Las probabilidades de transición a los demás estados se desconocen, pero se puede resolver el problema analizando el flujo de empleados en cada nodo. Para mantener el mismo nivel de empleados en la categorı́a, la cantidad promedio a promover - Nodo 3 a la categorı́a 3 (x) debe ser igual a la cantidad O promedio que pasan al estado 0 (y). 𝑦 y=20 . 0,05 = 1 𝑥 / GFED @ABC x=1 20 Permanecen z = 20 - 1 = 19 - Nodo 2 > }} } 𝑦 }} 𝑥 }} }}} @ABC GFED 80 3 / El número medio de empleados a promover a la categorı́a 2 (x) debe ser igual a los que se promocionan a la categorı́a 3 más los que se absorben (y) y = 80 . 0,20 = 16 x= 16 + 3 = 19 Permanecen z = 80 - 19 = 61 Cadenas de Markov ∣ 84 La cantidad media de empleados a contratar anualmente (x) debe igualar al número promedio de individuos que pasan al estado 0 más los que se promueven al estado 2. y = 200 . 0,35 = 70 x= 70 + 19 = 89 z = 200 - 89 = 111 - Nodo 1 𝑥 ONML HIJK 200 / 𝑦 19 Estos valores podemos resumirlos en el siguiente cuadro (o en su correspondiente matriz de transición): Cat. 1 2 3 1 111 19 2 61 3 3 19 0,555 7654 0123 1 1 2 3 1 0, 555 0, 95 0, 7625 0, 375 𝑃 = 2 3 0, 95 4 0 Total 70 200 16 80 1 20 0123 7654 /8 0 q qq O qqq q q 0,20qqqq 0,095 0,05 q qqq q q qq qqqq 0,0375 7654 0123 0123 7654 /3 2K S 4 0, 35 0, 2 0, 05 1 1 0,35 0,95 0,7625 2. Agrupando la matriz de transición, se procede a calcular la matriz (𝐼 − 𝑁 )−1 : 0 1 2 3 0 1 0 0 0 1 0, 35 0, 555 0, 095 2 0, 2 0, 7625 0, 0375 3 0, 95 0, 555 𝑁= 0, 95 0, 7625 0, 0375 0, 95 Cadenas de Markov ∣ 85 0, 555 𝐼 −𝑁 = 0, 95 2, 2472 0, 8989 0, 6742 −1 0, 7625 0, 0375 (𝐼 − 𝑁 ) = 0 4, 2105 3, 1579 0, 95 0 0 20 Luego, el ı́ndice de permanencia promedio en la empresa es de 3,82 años por empleado. 3, 8203 𝑛 ¯ 𝑖 = 7, 3684 20, 0 3. Para calcular la probabilidad de que un empleado que se encuentra actualmente en el estado 1 logre la máxima categorı́a, se supone al estado 3 como un estado absorbente. 0,555 7654 0123 1 0123 7654 /8 0 qq qqq q q 0,20qqqqq 0,095 qq qqq q q q qqqq 0,0375 7654 0123 0123 7654 /3 2K S 1 0,35 1 0,7625 La matrı́z de transición reagrupada en el formato 3 0 1 𝐼 0 es: 𝐴 𝑁 2 3 1 0 1 1 0, 35 0, 555 0, 095 2 0, 0375 0, 2 0, 7625 𝑁= 0, 555 0, 95 0, 7625 (𝐼 − 𝑁 )−1 = (𝐼 − 𝑁 ) = 0, 445 −0, 095 0 0, 2375 2, 2472 0, 8989 0 4, 2105 Cadenas de Markov ∣ 86 (𝐼 − 𝑁 )−1 .𝐴 = 2, 2472 0, 8989 0 0, 35 0, 03371 0, 9663 . = 0 4, 2105 0, 375 0, 2 0, 1579 0, 8421 Luego, la probabilidad de que un empleado de la primer categorı́a alcance la máxima es de 3,37%. También se puede observar que la probabilidad de lograr esa categorı́a para un empleado de la categorı́a 2 es de 15,79%. Otra ı́nformación útil es el número esperado de años que transcurren hasta alcanzar la máxina categorı́a. Para ello, se multiplica la natrı́z (𝐼 − 𝑁 )−1 por un vector unitario: 𝑛 ¯𝑖 = 2, 2472 0, 8989 1 3, 1461 . = 0 4, 2105 1 4, 2105 En promedio, un empleado de categorı́a 1 tardará 4,21 años hasta alcanzar la categorı́a 3. 5.3 Gestión de inventarios La demanda mensual de un repuesto en un proceso productivo tiene la siguiente distribución de probabilidad: 𝑑 0 1 2 ≥3 𝑝 0, 6 0, 3 0, 1 0 Si el stock inicial es de 3 unidades, y la observación del nivel de inventarios se realiza al finalizar cada mes, determinar: a. la probabilidad de que al cabo de dos meses se haya agotado el stock b. la probabilidad de que al cabo de cuatro meses haya dos o más de dos repuestos en stock Cadenas de Markov ∣ 87 c. el número promedio de meses que trancurren hasta agotar el stock d. el costo total de almacenamiento en cada ciclo de compra, si el costo de almacenamiento unitario mensual es de 10$. Solución: a. Llamaremos: S0: ninguna unidad en stock al finalizar un mes S1: una unidad en stock al finalizar un mes S2: dos unidades en stock al finalizar un mes S3: tres unidades en stock al finalizar un mes 0,6 𝑆3 𝑆2 𝑆1 𝑆0 𝑆3 0, 6 0, 3 0, 1 0 𝑆2 0, 6 0, 3 0, 1 𝑆1 0, 6 0, 4 𝑆0 1 0,6 0,3 ONML HIJK HIJK / ONML 𝑆3 GG 𝑆2 GG GG GG GG GG GG GG GG0,1 GG0,1 GG GG 0,3 GG GG GG GG 1 GG GG G# G# 0,4 HIJK ONML HIJK / ONML 𝑆2 𝑆1V 0,6 Los estados S3, S2 y S1 son transitorios, mientras que el estado S0 es absorbente. b. 𝑆3 𝑆2 𝑆1 𝑆0 𝑆3 0, 36 0, 36 0, 21 0, 07 2 𝑃 = 𝑆2 0, 36 0, 36 0, 28 𝑆1 0, 36 0, 64 𝑆0 1 Luego la probabilidad de que trancurridos dos meses se haya agotado el stock es 0,07=7% 𝑆3 𝑆2 𝑆1 𝑆0 𝑆3 0, 13 0, 26 0, 29 0, 32 𝑆2 0, 13 0, 26 0, 61 𝑆1 0, 13 0, 87 𝑆0 1 La probabilidad de que haya dos o más repuestos al cabo de cuatro meses es 0,26 + 0,13 = 0,39 (39% ). Cadenas de Markov ∣ 88 c. Se reagrupa la matriz de transición P en cuatro submatrices y se calcula la inversa de I-N 𝑆0 𝑆3 𝑆2 𝑆1 𝑆1 0 0 0 0 𝑆3 0, 6 0, 3 0, 1 𝑆2 0, 1 0, 6 0, 3 𝑆1 0, 4 0, 6 0, 4 −0, 3 −0, 1 𝐼 −𝑁 = 0, 4 −0, 3 0, 4 𝑆3 𝑆2 𝑆1 𝑆3 0, 6 0, 3 0, 1 𝑁= 𝑆2 0, 6 0, 3 𝑆1 0, 6 −1 (𝐼 − 𝑁 ) 10/4 30/16 25/32 = 10/4 30/16 10/4 10/4 30/16 25/32 1 5, 16 𝑛 ¯𝑖 = 10/4 30/16 x 1 = 4, 38 10/4 1 2, 5 La duración promedio de un lote de tre unidades es de 5,16 meses. d. El número prometido de meses que el sistema está en cada uno de los estados S3, S2 y S1 es, respectivamente, 10/4, 30/16 y 25/32, valores que obtenemos de la matriz (𝐼 − 𝑁 )−1 . Luego; el costo esperado de almacenamiento es: [ ] 10 𝑚𝑒𝑠 30 𝑚𝑒𝑠 25 𝑚𝑒𝑠 $ 1 𝑢𝑛𝑖𝑑𝑎𝑑 x + 2 𝑢𝑛. x + 3 𝑢𝑛. x x 10 4 𝑐𝑖𝑐𝑙𝑜 16 𝑐𝑖𝑐𝑙𝑜 32 𝑐𝑖𝑐𝑙𝑜 𝑢𝑛. 𝑚𝑒𝑠 = 85, 94 $ 𝑐𝑖𝑐𝑙𝑜 Cadenas de Markov ∣ 89 5.4 Planeamiento de producción A un centro productivo de una fábrica llegan piezas para someterse a un proceso de mecanizado en dos máquinas (A y B). Luego de cada etapa de elaboración se realiza, un control de calidad (CCA y CCB). La secuencia de fabricación de las piezas se muestra en el siguiente gráfico: 0,03 de otro centro / 𝐴 0,05 `abc / gfed 𝐶𝐶𝐴 0,10 / 𝐵 0,02 `abc / gfed 𝐶𝐶𝐵 0,09 / a Almacenes 0,05 / Desechos Si durante el mecanizado una pieza se estropea, se la desecha sin pasar por Control de Calidad. En los centros de inspección se puede devolver una pieza para ser reprocesada o considerarla defectuosa. Las probabilidades estimadas para cada caso se muestran en el gráfico. Los tiempos esperados para la realización de cada operación de mecanizado y de inspección y los costos asociados son los siguientes. Mecanizado A Control A Mecanizado B Mecanizado A 𝑇𝑒 (𝐻𝐻) Costo($/𝐻𝐻) 2 1200 0, 1 2000 3 1800 0, 2 2000 El costo directo de cada pieza que llega al Centro es de 3000$/pieza y el costo de oportunidad del material defectuoso es de 500$/pieza. Determinar: 1. la probabilidad de completar satisfatoriamente una pieza que entra al centro. 2. el número esperado de piezas que deben ingresar al centro para producir 1000 piezas buenas. Cadenas de Markov ∣ 90 3. los requerimientos de personal para cada pieza terminada. 4. el costo directo esperado de cada pieza terminada que sale del Centro productivo. Solución: Estado PA CCA 1. PB CCB D A Operación Procesamiento en máquina A Control de Calidad del proceso A Procesamiento en máquina B Control de Calidad del proceso B Defectuosas Almacén de piezas terminadas Los estados D y A son estados absorbentes. ~ @ABC GFED PA 0,03 0,90 ~ 0,91 0,95 / GFED 0,90 / ?>=< 0,90 / ONML HIJK @ABC HIJK 89:; / ONML CCA< PB CCB A MMM T << MMM << MMM 1 MMM0,10 << 0,02 MMM << 0,09 MMM << 0,05 MMM << MMM< & ?>=< 89:; D T 1 𝑃𝐴 𝑃 = Reagrupando: 𝐶𝐶𝐴 𝑃 𝐵 𝐶𝐶𝐵 𝐷 𝐴 0, 90 0, 10 0, 30 0, 95 0, 02 0, 91 0, 09 0, 05 0, 05 0, 90 1 1 𝑃𝐴 𝐶𝐶𝐴 𝑃𝐵 𝐶𝐶𝐵 𝐷 𝐴 Cadenas de Markov ∣ 91 𝐷 𝐴 𝑃 = 𝑃𝐴 𝐶𝐶𝐴 𝑃𝐵 𝐶𝐶𝐵 𝐷 1 𝐴 1 0, 10 0, 90 0, 02 0, 03 0, 95 0, 09 0, 91 0, 05 0, 90 0, 05 0 0, 90 0 0 0, 30 0 0, 95 0 𝑁= 0 0 0 0, 91 0 0 0, 05 0 (𝐼 − 𝑁 )−1 1, 0277 0, 925 0, 0308 1, 0277 = 0 0 0 0 (𝐼 − 𝑁 )−1 .𝐴 = 𝑃 𝐴 𝐶𝐶𝐴 𝑃 𝐵 𝐶𝐶𝐵 𝐷 0, 2661 0, 1621 0, 1419 0, 0571 1 −0, 90 0 0 −0, 30 1 −0, 95 0 𝐼 −𝑁 = 0 0 1 −0, 91 0 0 −0, 05 1 0, 9206 1, 0229 1, 0477 0, 0524 𝐴 0, 7539 0, 8378 0, 8581 0, 9429 0, 8377 0, 9309 0, 9534 1, 0477 0, 10 0 0, 02 0 𝐴= 0, 09 0 0, 05 0, 90 Por lo tanto, la probabilidad de completar satisfactoriamente una pieza que entra al proceso (probabilidad de absorción en el estado A) es 0,7539 (75,39% ). 2. El número esperado de piezas que deben entrar al proceso para producir una pieza buena es 1/0,7539=1,3264. Luego, se necesitarán 1327 piezas para producir 1000 piezas buenas. Cadenas de Markov ∣ 92 3. De la matriz (𝐼 − 𝑁 )−1 se obtiene el número de veces que una pieza que entra al centro productivo pasa por cada operación. Estados No de veces No de veces HH/pieza HH/pieza (por pieza (por pieza procesada terminada que entra) que sale terminada) (a) (b)=(a)x1,3264 (c) (b)x(c) PA 1,0277 1,3631 2 2,7263 CCA 0,925 1,2269 0,1 0,1227 PB 0,9206 1,2211 3 3,6633 CCB 0,8377 1,1111 0,2 0,2222 Estados 4. PA CCA PB CCB Costo HH/pieza Costo/pieza ($/HH) terminada terminada 1200 2,7263 3271,56 2000 0,1227 245,40 1800 3,6633 6593,94 2000 0,2222 444,4 Costo M. de O.: 10555,30 ⋅ Costo de materiales: 3000 $ pieza que entra x 1, 3264 pieza que entra piezas terminadas = 3979, 2 $ pieza terminada ⋅ Venta de material de rezago: 500 $ pieza defectuosa x 0, 2461 pieza defectuosa piezas que entra x 1, 364 pieza que entra piezas terminada = 163, 21 $ pieza terminada Cadenas de Markov ∣ 93 Costo Mano de Obra 10555, 30 Costo de Materiales 3979, 2 - Venta de Defectuosos −163, 21 Costo directo 14371.29 5.5 $ pieza terminada Analisis de fallas Una máquina de un proceso productivo puede estar en uno de los siguientes estados al final de cada dı́a de operación: 𝐸0 = Perfectamente operable 𝐸1 = Operable con deterioro menor 𝐸2 = Operable con deterioro mayor 𝐸3 = Inoperable Cuando el sistema se encuentra en alguno de los tres primeros estados pueden producirse artı́culos defectuosos durante el dı́a siguiente. Los costos esperados (debido a la producción de defectuosos) para cada uno de los estados son Estado Costo 𝐸0 0 𝐸1 1000$ 𝐸2 3000$ Cuando la máquina se encuentra en el estado 3 se la repara llevándola al estado 𝐸0 . Este trabajo toma un dı́a para completarse a un costo de 4000$. El lucro cesante diario es de 2000$. Asumiendo las siguientes probabilidades de transición Estado 𝐸0 𝐸1 𝐸2 𝐸3 𝐸0 0 7/8 1/16 1/16 𝐸1 − 3/4 1/8 1/8 𝐸2 1/2 1/2 1. Formular el problena como una cadena de Markov 2. Calcular el costo promedio esperado a largo plazo 3. Determinar el número promedio de dı́as de funcionamiento de la máquina Solución: Cadenas de Markov ∣ 94 1. 𝐸0 𝐸1 𝐸2 𝐸3 𝐸0 7/8 1/16 1/16 𝑃 = 𝐸1 3/4 1/8 1/8 𝐸2 1/2 1/2 𝐸3 1 1/16 @@ ~ @@ ~~ @@ ~ ~ @@ 3/4 ~~ @@ ~ ~~ 7/8 1/8 HIJK ONML HIJK HIJK / ONML / ONML 𝐸1 𝐸0 AA 𝐸2 A X } A` A AA } } AA AA } 1/2 } AA AA1/16 }} AA AA } 1/8 }} AA A }} 1 AAA AAA AA A }}} }~ A ONML HIJK 𝐸3 2. Calculamos las probabilidades en régimen estacionario asociadas a cada estado 7/8 1/16 1/16 3/4 1/8 1/8 = [𝑝(0) 𝑝(1) 𝑝(2) 𝑝(3)] 1/2 1/2 [𝑝(0) 𝑝(1) 𝑝(2) 𝑝(3)] 1 ⎧ 𝑝(3) = 𝑝(0) ⎨ 𝑝(0).7/8 + 𝑝(1).3/4 = 𝑝(1) ⎩ ⎧ 𝑝(0) = 2/13 ⎨ 𝑝(1) = 7/13 𝑝(0).1/16 + 𝑝(1).1/8 + 𝑝(2).1/2 = 𝑝(2) −→ 𝑝(2) = 2/13 ⎩ 𝑝(3) = 2/13 𝑝(0) + 𝑝(1) + 𝑝(2) + 𝑝(3) = 1 Cadenas de Markov ∣ 95 Costo promedio = 0.𝑝(0) + 1000.𝑝(1) + 3000.𝑝(2) + (4000 + 2000).𝑝(3) = = 1923, 08$ 3. Considerando el estado E absorbente 𝐸0 𝐸1 𝐸2 𝐸3 𝐸0 0 7/8 1/16 1/16 𝑃 = 𝐸1 0 3/4 1/8 1/8 𝐸2 0 0 1/2 1/2 𝐸3 0 0 0 1 1 −7/8 1/16 𝐼 − 𝑁 = 0 1/4 −1/8 0 0 1/2 𝐸3 𝐸0 𝐸1 𝐸2 1 1/16 7/8 1/16 1/8 3/4 1/8 1/2 1/2 −1 (𝐼 − 𝑁 ) 1 7/2 1 = 0 4 1 0 0 2 1 7/2 1 1 5, 5 (𝐼 − 𝑁 ) .1̄ = 0 4 1 x 1 = 5 0 0 2 1 2 −1 Por lo tanto, el tiempo esperado de cada ciclo de la máquina es 5,5 dı́as. 5.6 Analisis de cuentas El departamento de contadurı́a de una empresa tiene la siguiente información sobre la evolución de los créditos de un mes a otro (en porcentajes): Cadenas de Markov ∣ 96 Cuenta Corriente Cred. Documentados Morosos Cuenta Corriente 30 Créditos Documentados 10 40 Morosos Cobro Incobrables 10 10 50 50 70 30 Suponiendo que se mantienen los niveles de créditos 1. ¿Cuál es la probabilidad de que una cuenta en “Cuenta Corriente” se cobre? 2. ¿Cuántos meses transcurren en promedio hasta que se liquida una cuenta de cada uno de los dos tipos de crédito? Solución: 1. 𝐶𝐶 𝐶𝐷 𝑀 𝑂 𝐶𝐶 0, 3 0, 1 0, 1 𝐶𝐷 0, 4 0, 1 𝑃 = 𝑀𝑂 𝐶𝑂 𝐼𝑁 𝐶𝑂 𝐼𝑁 0, 5 0, 5 0, 7 0, 3 1 1 0, 7 −0, 1 −0, 1 𝐼 −𝑁 = 0, 6 −0, 1 1 𝐶𝑂 𝐼𝑁 𝐶𝐶 𝐶𝐷 𝑀 𝑂 𝐶𝑂 1 𝐼𝑁 1 𝐶𝐶 0, 5 0, 3 0, 1 0, 1 𝐶𝐷 0, 5 0, 4 0, 1 𝑀 𝑂 0, 7 0, 3 −1 (𝐼 − 𝑁 ) 1, 429 0, 238 0, 167 = 0 1, 667 0, 167 0 0 1 1, 429 0, 238 0, 167 0, 5 0 0, 950 0, 050 (𝐼 − 𝑁 ) .𝐴 = 0 1, 667 0, 167 x 0, 5 0 = 0, 950 0, 050 0 0 1 0, 7 0, 3 0, 7 0, 3 −1 Cadenas de Markov ∣ 97 La probabilidad de que una cuenta CC se cobre es de 95%. 2. 1, 429 0, 238 0, 167 1 1, 834 𝑛 ¯𝑖 = 0 1, 667 0, 167 x 1 = 1, 834 0 0 1 1 1 En ambos casos es 1,834 meses. 5.7 Estudio de confiabilidad en un sistema de lı́neas de transmisión El sistema está constituido por tres lı́neas de transmisión de energı́a o información que operan en paralelo. Cada lı́nea puede encontrarse en servicio, o fuera de servicio, ya sea por mantenimiento programado (indisponibilidad programada) o por falla, debido a la acción de un agente externo (indisponibilidad forzada). Además el régimen de operación no permite retirar una lı́nea por mantenimiento programado cuando existe alguna otra en paralelo fuera de servicio, ya sea por mantenimiento programado o por falla forzada. FUENTE 1 2 3 sentido del flujo −→ −→ −→ En estas condiciones los estados posibles son: SUMIDERO Cadenas de Markov ∣ 98 Estado 1 2 3 4 5 6 7 No de lı́neas No de lı́neas en servicio en falla forzada 3 0 2 1 2 0 1 2 1 1 0 3 0 2 No de lı́neas en manten. programado 0 0 1 0 1 0 1 y las transiciones entre los estados se pueden expresar mediante el siguiente grafo: 0123 7654 m ?1 1 ind. progr. 7654 0123 3Z 1 mant. progr. 1 falla forzada 1 falla forzada 1 reprac. 1 falla 7654 0123 5Z 1 mant. progr. 7654 0123 7 1 reprac. 1 falla forzada 1 reprac. 1 falla 7654 0123 6- 2 Z 7654 0123 64Z 1 reprac. 1 falla forzada 1 mant. progr. 7654 0123 6 Se puede observar que existen cuatro transiciones básicas: - falla forzada - reparación - indisponibilidad programada - mantenimiento Se asumirá la hipótesis de que tanto los regı́menes de falla y de indisponibilidad programada como las duraciones de las reparaciones y los mantenimientos Cadenas de Markov ∣ 99 tienen probabilidades de transición dadas por funciones de distribución exponencial: - 𝑃𝑖𝑗 (𝑡) falla forzada = (1 − 𝑒−𝜆𝑓 𝑡 ) - 𝑃𝑖𝑗 (𝑡) indisp. progr. = (1 − 𝑒−𝜆𝑝 𝑡 ) - 𝑃𝑖𝑗 (𝑡) reparación = (1 − 𝑒−𝜇𝑓 𝑡 ) - 𝑃𝑖𝑗 (𝑡) mantenimiento = (1 − 𝑒−𝜇𝑝 𝑡 ) De esta manera el sistema se puede estudiar como una cadena de Markov homogénea con parámetro t continuo. Luego las respectivas tasas de transición serán: 𝑑 - 𝑑falla forzada = (𝑃𝑖𝑗 (0))f. forz. = 𝜆𝑓 (5.1) 𝑑𝑡 𝑑 (5.2) - 𝑑indispon. progr = (𝑃𝑖𝑗 (0))ind. progr. = 𝜆𝑝 𝑑𝑡 𝑑 - 𝑑reparación = (𝑃𝑖𝑗 (0))reparación = 𝜇𝑓 (5.3) 𝑑𝑡 𝑑 - 𝑑mantenimiento = (𝑃𝑖𝑗 (0))mantenim. = 𝜇𝑝 (5.4) 𝑑𝑡 Los valores anteriores corresponden a probabilidades de transición por cable. Para evaluar las probabilidades de transición entre los siete estados definidos es necesario afectar a las expresiones (5.1) a (5.4) por el número de lineas que están en condiciones de efectuar la transición, ası́ del estado 1 al estado 2 se puede pasar por falla en cualquiera de las 3 lı́neas, luego la tasa de transición 𝑑12 será 𝑃12 = 3𝜆𝑓 , y ası́ con las demás, luego el grafo con las tasas de transición es: Cadenas de Markov ∣ 100 0123 7654 m ?1 𝑑13 =3𝜆𝑝 7654 0123 3Z 𝑑35 =2𝜆𝑓 𝑑31 =𝜇𝑝 𝑑57 =𝜆𝑓 𝑑24 =2𝜆𝑓 𝑑42 =2𝜇𝑓 7654 0123 64Z 𝑑52 =𝜇𝑝 𝑑75 =2𝜇𝑓 7654 0123 7 7654 0123 6- 2 Z 𝑑12 =3𝜆𝑓 𝑑53 =𝜇𝑓 7654 0123 5Z 𝑑12 =𝜇𝑓 𝑑46 =𝜆𝑓 𝑑74 =𝜇𝑝 𝑑64 =3𝜇𝑓 7654 0123 6 Todas las restantes tasas 𝑑𝑖𝑗 que no figuran en el grafo son nulas. Luego las probabilidades del estado permanente: 𝑃 = 𝑃1 𝑃2 𝑃3 𝑃 4 𝑃5 𝑃 6 𝑃7 se calculan de la expresión (3.3.1): 𝑃 = 𝐵.𝐴−1 con la matriz A definida en la (3.3 0), y que en este caso es: (𝑑12 + 𝑑13 ) 𝑑12 𝑑13 0 0 0 𝑑21 −(𝑑21 + 𝑑24 ) 0 𝑑24 0 0 𝑑31 0 −(𝑑31 + 𝑑35 ) 0 𝑑35 0 𝐴= 0 𝑑42 0 −(𝑑42 + 𝑑46 ) 0 𝑑46 0 𝑑52 𝑑53 0 −(𝑑52 + 𝑑53 + 𝑑57 ) 0 0 0 0 𝑑64 0 −𝑑64 0 0 0 𝑑74 −𝑑75 0 1 1 1 1 1 1 1 Cadenas de Markov ∣ 101 −3(𝜆𝑝 + 𝜆𝑓 ) 3𝜆𝑓 3𝜆𝑝 0 0 0 𝜇𝑓 −(2𝜆𝑓 + 𝜇𝑓 ) 0 2𝜆𝑓 0 0 𝜇𝑝 0 −2(𝜆𝑓 + 𝜇𝑝 ) 0 2𝜆𝑓 0 = 0 2𝜇𝑓 0 −(𝜆𝑓 + 2𝜇𝑓 ) 0 𝜆𝑓 0 𝜇𝑝 𝜇𝑓 0 −(𝜆𝑓 + 𝜇𝑓 + 𝜇𝑝 ) 0 0 0 0 3𝜇𝑓 0 −3𝜇𝑓 0 0 0 𝜇𝑝 2𝜇𝑓 0 1 1 1 1 1 1 1 Luego calculando la matriz 𝐴−1 , su 7ma. fila dará los valores de las probabilidades del estado permanente. Mediante este método pueden determinarse, además: . probabilidad de tres lı́neas en servicio: 𝑃𝑗 . probabilidad de dos lı́neas en servicio: 𝑃2 + 𝑃3 . probabilidad de una lı́nea en servicio: 𝑃4 + 𝑃5 . probabilidad de ninguna lı́nea en servicio: 𝑃6 + 𝑃7 Como ejemplo pueden calcularse los valores anteriores para los siguientes datos:𝜆𝑝 = 10, 7 indisp/cable-año; 𝜆𝑓 = 0, 4 fallas/cable-año; 𝜇𝑝 = 983, 5 manten./cableaño; 𝜇𝑓 = 190, 4 repar./cable-año. Cadenas de Markov ∣ 102 References [1] Bronson, R Investigación de Operaciones, serie Shaum; Mc. Graw Hill [2] Gallagher y Watson, Quantative Methods for Busines; Mc. Graw Hill [3] Gillett B., Introduction to Operations Research; Mc. Graw Hill [4] Hillier y Lieberman, Introducción a la Investigación de Operaciones; Mc. Graw Hill [5] Kaufman A., Métodos y Modelos de Investigación de Operaciones; C.E.C.S.A [6] Parsen, Procesos Estocásticos; Parainfo [7] Prawda J., Métodos y Modelos de Investigación de Operaciones; Limusa [8] Rau J., Optimization and Probability in System Engieneering; Van Nostran Reinhold [9] Shambin y Stevens, Investigación de Operaciones, Un enfoque fundamental; Mc. Graw Hill