Física de los Sistemas Complejos Socio-Tecnológicos
Transcripción
Física de los Sistemas Complejos Socio-Tecnológicos
Presentación Física de los Sistemas Complejos Socio-Tecnológicos © Dirk Ingo Franke E s muy probable que en 2014 no haya que explicar a nadie que hay una Física de los Sistemas Complejos, con fundamentos en Física Estadística y No Lineal [1], y que se ocupa de los sistemas de muchas partículas en interacción y su comportamiento emergente [2,3]. Siendo así, lo que requiere una explicación en el título de este número monográfico es la palabra “Socio-Tecnológicos”. Pues bien, a lo que nos referimos es a los sistemas objeto de estudio en ciencias sociales, es decir, personas o grupos de personas de distinta naturaleza, cuya interacción está mediada, en todo o en parte, por la tecnología, o que de alguna manera da lugar a fenómenos relevantes para la tecnología. Esta definición, imprecisa, debe entenderse así; no se trata de ser exactos y excluyentes sino que se pretende englobar a todo aquello que tiene que ver con las ciencias sociales, la tecnología, y sus solapamientos. No hay sitio aquí para una historia detallada de esta disciplina, que ya reclamó Epicuro en el siglo III AC, y que Adolphe Quetelet inició en su ensayo Sur l’homme et le développement de ses facultés, ou Essai de physique sociale (1835). Hoy en día, el grado de interés de los físicos está claro cuando consideramos que la Sociedad de Física Alemana, la mayor del mundo, tiene una división de Física de Sistemas Socioeconómicos (http://www.phi-soe.de), que desde 2002 tiene una reunión anual y que entrega el premio al mejor científico del campo menor de 40 años (galardón que este año ha recaído en Roger Guimerá, de la Universitat Rovira i Virgili, al que felicitamos desde aquí). Es más interesante para los lectores de la Revista de Física el repasar, aunque sea someramente, la historia del desarrollo de esta disciplina en España. La primera propuesta de intentar aglutinar a los que comenzábamos a trabajar en estas temáticas para desarrollarlas mejor y darles visibilidad partió de uno de nosotros (MSM) en las Jornadas de la Xarxa Temàtica en Dinàmiques No Lineals d’Autoorganització Espaitemporal celebradas en 2002 en Barcelona. Casi enseguida, se organizó una acción COST de la ESF llamada “Physics of Risk” (2003-2007), en cuyo comité estábamos también representados (MSM y AS). El networking europeo propiciado por esta acción permitió dar a conocer la actividad de los grupos españoles que ya trabajaban en el campo y posicionarlos de cara, por ejemplo, a las peticiones de proyectos en Europa. Esa acción fue luego seguida por otra llamada “Physics of Competition and Conflict” (2008-2012) en la que se consolidó nuestra presencia internacional. Fue de hecho el apoyo de COST el que propició la celebración de una reunión internacional en Mallorca en noviembre de 2004, en la que participaron sociólogos como Nigel Gilbert, economistas como Christophe Deissenberg, o psicólogos como Andrej Nowak, junto a 22 físicos. En esta reunión se decidió solicitar al Ministerio de Ciencia apoyo para una Red Temática, que coordinó uno de nosotros (ADG) bajo el nombre de “Aplicaciones de la física estadística y no lineal a la economía y a las ciencias sociales”. Esa Red fue clave para crear una masa crítica de físicos involucrados en estos trabajos. Tras una primera reunión en Castelldefels (Barcelona, 2005, año en el que el Granada Seminar, referencia en el mundo de la física estadística y computacional, tocaba también estos temas en su octava edición, “Modeling Cooperative Behavior in the Social Sciences”), se dio el paso de entrar en contacto con especialistas de otros campos, en particular gracias a la reunión ENDIN (“Encuentro para el diálogo interdisciplinar sobre ciencias sociales”), celebrada bajo el paraguas de la Red en mayo de 2006, de nuevo en Mallorca. Ahí entablamos relación con diversos investigadores en economía, sociología, informática… La Red fue renovándose anualmente hasta 2008 con reuniones anuales, y se organizaron también dos escuelas para estudiantes de doctorado: una sobre “Econosociofísica” (Barcelona, 2007) y otra sobre “Mathematics and Society: Cooperation, Social Networks and Complexity” (El Escorial, 2008) que fueron un gran éxito de audiencia. Los artículos de este número de la Fig. 1. Sesión de la reunión ENDIN (véase texto), Mallorca, 2006. El ponente es Ángel Arboníes, de la consultora Ángel Arboníes y Asociados. RdF • 28-3 • Julio-septiembre 2014 1 Sociofísica • Física de los Sistemas Complejos Socio-Tecnológicos. Presentación Fig. 2. Los promotores de la puesta en marcha de “FuturICT Spain”, en su presentación en Burgos en 2011. De izquierda a derecha: Albert Díaz-Guilera, Ángel Sánchez, Alex Arenas y Maxi San Miguel. Fig. 3. Reunión de Econosociofísica de 2014. Institut Català de Paleoecologia Humana i Evolució Social (IPHES), Universitat Rovira i Virgili. RdF son una muestra del tipo de actividades que proceden de esta red, incluyendo autores procedentes de otras disciplinas ya presentes en la reunión de 2006, aunque, en honor a la verdad, REF ya ha publicado trabajos sobre estos temas [4-6]. Llegamos así a 2010, cuando la UE convoca los llamados Flagships, proyectos destinados a financiar temas de gran calado con hasta 1000 millones de euros durante 10 años. Desde Suiza, el físico y hoy catedrático de sociología Dirk Helbing organiza el proyecto “FuturICT”, una idea visionaria para, aplicando las ciencias de la complejidad a los sistemas socio-tecnológicos, acelerar la innovación, monitorizar la evolución de los fenómenos sociales y, en definitiva, “simular el mundo”. Se creó un nodo español del proyecto, coordinado por dos de nosotros (MSM, AD-G), que se presentó formalmente en un evento en Barcelona en octubre de 2011. “FuturICT Spain” se conectó con la red previamente formada, organizándose workshops de “Econosociofísica” (Burgos 2011, Zaragoza 2012, Tarragona 2014, reunión a la que pertenece la imagen), así como un simposio patrocinado por la RSEF y el BBVA en la Fundación Ramón Areces sobre “Economía en un mundo complejo” [7]. Finalmente, después de la decepción de la no concesión de “FuturICT” en enero de 2012, la comunidad española decidió organizarse más formalmente para articular el trabajo en esta temática. Así, en abril de 2013 se decide crear una asociación, que se registra en septiembre del mismo año bajo el nombre “Asociación para el Estudio de los Sistemas Complejos SocioTecnológicos” (COMSOTEC, www.comsotec.org). La asociación está presidida por Alex Arenas, de la Universitat Rovira i Virgili, con Josema Galán, de la Universidad de Burgos, como vicepresidente, y próximamente se abrirá a la participación de los investigadores interesados en el campo. De esta manera, este número monográfico viene a reflejar la historia que acabamos de relatar. La selección de temas y autores está claramente marcada por los participantes en las reuniones y proyectos citados y, como siempre, aunque están todos los que son, no son todos los que están, pero los límites de espacio de la revista nos han impedido traer más visiones aquí. Pese a ello, esperamos que nuestra selección refleje la diversidad de temas que se tratan como sistemas complejos socio-tecnológicos, así como el importante papel que juega la física en el correspondiente estudio. Vaya nuestro agradecimiento a todos los que han contribuido a este número, y en especial a los autores que, sin ser físicos, se han involucrado entusiastamente en este proyecto transdisciplinar, transfronterizo y en cierta medida transgresor (Hernández et al., Lozano et al., y Cabrales y VegaRedondo). Esperamos que el lector lo aborde con espíritu abierto y lo disfrute. Referencias [1] [2] [3] [4] [5] [6] [7] C. Pérez García y A. Sánchez (eds.), Revista Española de Física 17(5) (2003). F. Guinea, E. Louis y M. San Miguel, en [1], pp. 2428. A. Sánchez, Boletin de la Sociedad Española de Matemática Aplicada 34, 176-189 (2006). A. Sánchez, Revista Española de Física 10, (4) (1996). V. M. Eguíluz, Revista Española de Física 15, 54-56 (2001) M. San Miguel, Revista Española de Fisica 26, 56-63 (2012) A. Sánchez, Revista Española de Física 26, (4), 10-14 (2012). Albert Díaz-Guilera, Maxi San Miguel y Ángel Sánchez Universidad Carlos III de Madrid 2 RdF • 28-3 • Julio-septiembre 2014 Dinámica de la comunicación humana en redes sociales N uestra sociedad vive en red, y muchos de los procesos que suceden en ella dependen de manera crucial de nuestra habilidad para intercambiar información o buscarla en dichas redes: las movilizaciones sociales, la formación de opiniones políticas, la coordinación en situaciones de emergencia, la creación de ideas innovadoras, o la eficiencia de los procesos dentro de las organizaciones son ejemplos de cómo la comunicación conforma y determina la evolución y transformación de nuestra sociedad. Aunque la investigación de estos procesos de transmisión de información ha sido tradicionalmente llevado a cabo por las ciencias sociales, la reciente disponibilidad de la huella digital de cómo nos comunicamos ha permitido estudiar dichos procesos a un nivel de descripción sin precedentes y ha abierto la puerta a su análisis por parte de otras áreas como las ciencias de la información, las matemáticas o la física, a través de su descripción como sistemas complejos [1, 2]. En este sentido, el estudio de redes sociales está viviendo una revolución debido a la existencia de estas grandes bases de datos, tal y como ha sucedido con anterioridad en otros campos como la biología o la física de partículas. Por otro lado, las nuevas plataformas digitales de comunicación han traído consigo la posibilidad de intercambiar información más rápido y más lejos que nunca, desafiando incluso la compresión de la comunicación humana que teníamos hasta ahora. Todo ello ha llevado a que numerosos grupos de investigación hayan analizado en los últimos años los patrones de comunicación humana a través de llamadas de teléfono, emails o plataformas electrónicas de sociabilidad como Facebook o Twitter. En general, el objetivo de este tipo estudios es triple: por un lado, entender mejor cómo las personas gestionamos dicha información, nuestras interacciones sociales y cómo nuestras limitaciones cognitivas, de tiempo o de recursos delimitan nuestra capacidad para interaccionar en red. Por otro lado, determinar los procesos microscópicos universales de dichos patrones temporales y sociales de interacción y encontrar la descripción matemática más simple y a la vez más eficiente de las interacciones en la red social. Y finalmente cómo utilizar este conocimiento para entender mejor procesos sociales y predecir o gestionar posibles fenómenos en nuestra sociedad. Como veremos en esta contribución, estos estudios han permitido identificar ciertos comportamientos universales y su posterior modelización mediante la utilización de técnicas de sistemas complejos, procesos estocásticos y redes complejas. Patrones de actividad humana Muchos de los modelos de actividad humana suponen que existe un tiempo típico de respuesta o entre actividades consecutivas. Esto supone que los patrones humanos pueden describirse formalmente mediante procesos de Poisson los cuales tienen una serie de ventajas desde el punto de vista computacional y analítico. En especial permite describir la interacción entre dos personas por su tasa de interacción por unidad de tiempo, dando lugar a modelos agregados de redes complejas en las que la sociedad puede describirse mediante un grafo estático [3]. Sin embargo el estudio de la actividad humana en los últimos años ha revelado que la distribución de tiempo entre eventos consecutivos es muy sesgada o que tiene cola pesada, lo cual hace que la actividad humana consista en ráfagas (bursts) de actividad con δt pequeños seguidos de largos períodos de inactividad en los δt que son largos (figura 1) [4]. Además, dichos patrones de actividad están correlacionados entre varias personas o grupos, dando lugar a la formación de complejas cascadas de eventos temporales en las redes sociales [5]. Estos descubrimientos han obligado a abandonar la tradicional visión agregada y estática de las redes sociales en favor de las llamadas redes temporales o dinámicas [6]. En dicha descripción, el tiempo añade una nueva dimensión, que conlleva la introducción de ideas como orden temporal (causalidad) o la heterogeneidad temporal de las interacciones sociales, y redefinen nuestra entendimiento de conceptos tan fundamentales en redes complejas como los caminos mínimos, la centralidad o la conectividad social (figura 2). Estos patrones temporales tienen una gran influencia en cómo se propaga la información en redes sociales. Por ejemplo, la heterogeneidad temporal de la actividad humana provoca que la información se propague más lentamente que en el caso homogéneo [5, 7, 8]. Esto es debido al hecho de que largos tiempos entre eventos δt pueden provocar que la información se ralentice al pasar de una persona a otra por la inactividad del primero. Matemáticamente, el origen de este efecto se conoce como la paradoja de la inspección o del tiempo de espera: si la distribución del tiempo entre eventos de una persona viene dada por P(δt), la distribución del tiempo entre la llegada de la información a una persona y que ésta la pueda redistribuir no es P(δt), sino —— —— ∞ P(τ) = ∫τ P(δt) / (δt) dδt, donde δt es su tiempo medio entre eventos. —— — δt ⎧ σ2 ⎧ 1+ — —— — Por tanto el tiempo medio de respuesta es τ = — donde σ 2 ⎩ δt 2 ⎩ es la desviación estándar de δt. Como P(δt) tiene una cola pesada —— —— — entonces σ ≫ δt y así τ ≫ δt⁄2. Numerosas simulaciones y observaciones empíricas han corroborado este efecto en diversas RdF • 28-3 • Julio-septiembre 2014 3 Sociofísica • Dinámica de la comunicación humana en redes sociales δt A 0 50 100 C 1e-03 1e-01 P (δtij / δtij ) B P (δti > x ) days 1e-01 1e+01 1e+03 x (hours) Fig. 1: Inhomogeneidad temporal en la actividad humana. A) patrón temporal real (negro) de llamadas por teléfono de un usuario de telefonía móvil comparado con el patrón aleatorizado en el periodo de observación (rojo). B) Distribución acumulada complementaria de los tiempos de respuesta de los participantes en una campaña de marketing viral (círculos grises). La línea negra muestra un ajuste a una distribución lognormal y la roja a una distribución exponencial (extraido de [7]). C) Distribución de probabilidad normalizada de los tiempos entre dos llamadas consecutivas entre dos usuarios de telefonía móvil (línea negra) comparada con la distribución exponencial (roja) (extraido de [5]). 10 10 10 10 150 200 3 0 -3 -6 10 -4 -2 10 10 0 10 2 δtij /δtij redes sociales y para procesos tan diversos como la propagación de información en campañas de marketing viral [7], de enfermedades en redes de contacto personal [9], caminantes aleatorios [10] o modelos de opinión como el del votante en redes temporales: la inhomogeneidad de las interacciones ralentiza la dinámica de dichos procesos. En cambio, la correlación entre la actividad de diferentes personas puede provocar la aceleración de la propagación de la información, un efecto que surge de las conversaciones en grupo dentro de una red social: una llamada a una persona puede provocar que ésta realice otra llamada a una persona diferente, provocando correlaciones entre las actividades de los individuos [5]. El equilibrio entre estas dos propiedades de la comunicación humana provoca que a pequeñas escalas de tiempo la información se propague más rápidamente que si las conversaciones en grupo no existieran, mientras que a grandes escalas temporales y sociales la información se propaga de manera más lenta que si la comunicación fuera homogénea en el tiempo. Es interesante comparar este efecto al encontrado analizando la estructura de las redes sociales: mientras que la heterogeneidad de la conectividad en redes sociales disminuye el umbral de propagación viral de la información, la heterogeneidad temporal de nuestra actividad la ralentiza. Es decir, vivimos en un mundo pequeño debido a la estructura social pero lento a causa de la estructura temporal de las interacciones [8]. Límites en la transmisión de información Otro de los resultados del estudio de los patrones de comunicación entre humanos es la existencia de ciertos límites en nuestra capacidad para comunicarnos. El tiempo, el coste o nuestras limitaciones cognitivas condicionan el número de relaciones personales que podamos mantener en una red social. En particular, el tiempo que dedicamos a nuestra red social no escala linealmente con el número de contactos: por ejemplo, el tiempo promedio por enlace tiene un máximo cuando el número 4 RdF • 28-3 • Julio-septiembre 2014 de contactos está alrededor de 25 [11]. A partir de ese número los humanos tendemos a tener cada vez relaciones más débiles, es decir les dedicamos menos tiempo. Este número recuerda al límite cognitivo humano sugerido por el antropólogo Robin Dunbar a partir del estudio del tamaño del grupo social y la capacidad de proceso de primates [12]. El llamado número de Dunbar se ha observado también en otras redes de comunicación como Twitter o Facebook. Aparte de corroborar la teoría de Dunbar, la existencia de ciertos límites en la comunicación nos obliga a revisar el papel que juegan de los hubs o personas con muchas conexiones en la estructura y dinámica de las redes sociales, ya que estos individuos tienen más enlaces débiles en proporción que el resto de los individuos de una red. Es decir, los hubs en una red tienen una conectividad más alta, pero no necesariamente una mayor facilidad para propagar información [11]. Por otro lado, debido a nuestras limitaciones para la comunicación, los humanos desarrollamos ciertas estrategias temporales para maximizar nuestra interacción social. Dichas estrategias consisten en diferentes ritmos de creación y destrucción de enlaces de manera que nuestra capacidad social (número de conexiones sociales existentes) se mantiene constante. Y estos ritmos pueden ser muy rápidos: por ejemplo, en comunicación móvil creamos (y destruimos) un enlace cada mes, de media, y destruimos otro [13]. Este descubrimiento demuestra una vez más el carácter temporal y/o dinámico de las redes sociales, en donde no sólo las interacciones tienen un patrón temporal, sino que hasta la misma red tiene una rápida evolución. Esto tiene importantes consecuencias a la hora de modelizar redes sociales, pero también a la hora de observarlas: una gran fracción de la red que observamos hoy habrá desaparecido o se habrá modificado en un futuro próximo. Aplicaciones Aparte de las consecuencias directas que tiene la manera en que nos comunicamos en la descripción y modelización de las redes sociales, el estudio de cómo se produce la transmisión de información es muy importante en muchos procesos de nuestra sociedad. Por ejemplo, mediante unos experimentos de marketing viral en 11 países europeos, en los que participaron más de 30.000 personas [7], se observó que la heterogeneidad de los tiempos de respuesta en la participación en la campaña provoca que, por debajo del punto crítico en el que la información se propaga a toda la red, la velocidad de las cascadas de propagación en redes sociales sea muy lenta, lo cual podría explicar por qué algunos rumores o informaciones quedan latentes en la red mucho tiempo después de su lanzamiento. No solamente esto, sino que incluso el carácter sub-exponencial de la distribución de tiempos de respuesta hace que sean necesarios modelos no markovianos (con memoria) para explicar la dinámica de las cascadas en Esteban Moro • Sociofísica detrimento de los modelos tradicionales basados en ecuaciones diferenciales, como el modelo de difusión de innovaciones de Bass. Del mismo modo la heterogeneidad en las interacciones sociales y la dinámica de los enlaces ralentizan también la propagación de la información, lo que demuestra la importancia de la dinámica temporal de la red social para entender cómo de conectada está nuestra sociedad [5]. La heterogeneidad de la actividad tiene también una consecuencia vital en la forma en la que se produce una movilización social: mediante el estudio de cómo se propagan las cascadas de reclutamiento en la red social para una situación crítica de emergencia en Estados Unidos [14], se observó que, si bien es posible realizar dichas tareas de movilización social en cuestión de horas o días, la posibilidad de que existan personas cuyo tiempo de respuesta sea muy grande hace que la movilización se ralentice en ocasiones hasta meses [15]. Este resultado pone de relieve el potencial riesgo de la utilización de las redes sociales para una movilización en situaciones de emergencia e implica que debemos de considerar la heterogeneidad en los patrones de comunicación en la gestión del riesgo de campañas de marketing o en la planificación de la comunicación en situaciones de emergencia. Por otro lado, otros muchos estudios han analizado la correlación entre el tipo de mensaje que se propaga en la red y las propiedades estructurales y/o temporales de los individuos que participan en esa difusión. En especial, mediante la utilización de datos provenientes de redes sociales como Facebook y/o Twitter. En estos estudios se intentan encontrar posibles predictores estructurales y temporales de la propagación exitosa de una información, lo que permitiría una aplicación directa en marketing, segmentación de clientes, campañas de adopción/ abandono de productos o servicios o comunicación política, por ejemplo. De manera general, se ha encontrado que la estructura de comunidades, la diversidad social y/o la fuerza de los enlaces influyen en la propagación viral de información en las redes sociales [16, 17]. Por ejemplo, utilizando los datos de gran parte de la red de Twitter [18], se encontró que es mucho más probable encontrar que los retweets se produzcan entre personas que pertenecen a comunidades diferentes, un resultado que corrobora la hipótesis de la fuerza de los enlaces débiles (enlaces entre comunidades) del sociólogo Granovetter [19]. O por ejemplo, que la conversación en Twitter sobre temas políticos da lugar a una red que tiene una estructura de comunidades con gran modularidad, debido a la existencia de comunidades de partidarios en redes sociales [20]. Todos estos resultados apuntan a que la propagación de información en redes sociales depende fuertemente de la estructura de comunidades alrededor de un individuo y no tanto de la cantidad de conexiones sociales que posee, poniendo en cuestión los mo- delos existentes (principalmente estáticos) basados únicamente en la conectividad social. Perspectiva A diferencia de otros procesos de propagación (por ejemplo, enfermedades o virus de ordenador), la transmisión de información en redes sociales es un proceso en el cual los individuos evalúan dicha información y deciden compartirla. Por ello, la dinámica de la comunicación humana depende fuertemente del comportamiento de los individuos, de sus patrones temporales y sociales y de su organización en comunidades o grupos. La disponibilidad de grandes bases de datos de redes de comunicación ha permitido el estudio a diferentes escalas de estos comportamientos y patrones temporales, su modelización e incluso su predicción. Dado que patrones de comunicación están correlacionados con el crecimiento económico [21], con la formación de opiniones políticas [22] o con la gestión de situaciones de emergencia [23], su estudio no sólo nos sirve para entender el comportamiento humano individual o en grupo, sino también para comprender la transformación y desarrollo de toda la sociedad. Por todo ello es necesario determinar los mecanismos universales de los patrones de la comunicación humana, mejorar la descripción de la red social utilizando grafos temporales o dinámicos y determinar hasta qué punto esos mecanismos universales impactan los procesos dinámicos que suceden en dicha red. En este sentido estamos empezando a descubrir cómo es realmente la descripción a diferentes escalas temporales y sociales de las redes sociales. Y este conocimiento, junto al de otros procesos como la movilidad humana, la toma de decisiones económicas o cómo se produce la cooperación, nos llevará a entender cómo funcionan nuestras instituciones, las ciudades o nuestra economía; en definitiva, cómo funciona nuestra sociedad. A 1 2 2 B 3 3 4 5 1 4 Fig. 2. Carácter temporal de la comunicación humana. A) Secuencia de eventos de comunicación entre 5 personas y la correspondiente red agregada de comunicación. Obsérvese como la causalidad de los eventos hace imposible la transmisión de información entre el nodo 5 y el nodo 1, por lo que la red agregada estática no es un buen modelo para describir los patrones temporales de comunicación observados [6]. B) Cada fila corresponde a la evolución durante 7 meses de las relaciones sociales de una persona (nodo rojo). El tiempo se incrementa de izquierda a derecha. Aunque ambos tienen una conectividad agregada similar (19 y 20 relaciones) el ritmo de destrucción y creación de enlaces es diferente [13]. 2 = 3 1 1 4 5 52 105 158 211 52 105 158 211 5 RdF • 28-3 • Julio-septiembre 2014 5 Sociofísica • Dinámica de la comunicación humana en redes sociales A C PACMA ICV PSC C’S ERC PPC B 0.15 0.10 y P(t fin ) CORI CIU 0.05 SI PIRAT 0.00 0 3 6 9 12 x t fin (days) Fig. 3. A) Esquema de la propagación viral de reclutamiento en una movilización social en EE. UU. Este tipo de propagación simula la estrategia ganadora en el concurso del DARPA de 2009 para encontrar 10 objetos repartidos por el país [14]. B) Probabilidad de éxito de la propagación viral para encontrar los 10 objetos. La línea punteada marca el resultado obtenido por el equipo ganador (extraido de [15]). C) Estructura de comunidades (detectadas por el algoritmo de Girvan-Newman [3]) en el grafo de retweets durante la campaña de las elecciones catalanas de 2010. Cada color corresponde a una comunidad. (extraido de [20]). Referencias D. Lazer et al., “Computational Social Science”, Science 323(5915), p. 721 (2009). [2] A. Vespignani, “Modelling dynamical processes in complex socio-technical systems”, Nature Physics 8(1), pp. 32-39 (2011). [3] R. Albert y A.-L. Barabasi, “Statistical mechanics of complex networks”, Reviews Of Modern Physics 74, pp. 47-97 (2002). [4] A.-L. Barabasi, “The origin of bursts and heavy tails in human dynamics”. Nature 435(7039), pp. 207-211 (2005). [5] G. Miritello, E. Moro y R. Lara, “Dynamical strength of social ties in information spreading”, Physical Review E 83(4), p. 045102 (2011). [6] P. Holme y J. Saramaki, “Temporal networks”, Physics reports, 519(3), pp. 97-125 (2012). [7] J. L. Iribarren y E. Moro, “Impact of human activity patterns on the dynamics of information diffusion”, Physical Review Letters 103(3), pp. 038702-038702 (2009). [8] M. Karsai et al., “Small But Slow World: How Network Topology and Burstiness Slow Down Spreading”, Physical Review E 83(2), p. 025102 (2011). [9] J. Stehle et al., “Simulation of an SEIR infectious disease model on the dynamic contact network of conference attendees”, BMC Medicine 9(1), p. 87 (2011). [10] M. Starnini et al., “Random walks on temporal networks”, Physical Review E 85, pp. 056115-056115 (2012). [11] G. Miritello et al., “Time as a limited resource: Communication strategy in mobile phone networks” Social Networks, 35(1), pp. 89-95 (2013). [12] R. I. Dunbar, “Neocortex Size As A Constraint On Group Size In Primates”, J. Human Evo. 22: 469 (1992). [1] 6 RdF • 28-3 • Julio-septiembre 2014 [13] G. Miritello et al., “Limited communication capacity unveils strategies for human interaction”, Scientific Reports 3, pp. 1950-1950 (2013). [14] G. Pickard et al., 2011. Time-Critical Social Mobilization. Science, 334(6055), pp. 509-512. A. Rutherford et al., “Limits of social mobilization”, Proc. Natl. Acad. Sci. U. S. A., 110(16), pp.6281-6286 (2013). [15] A. Rutherford et al., “Limits of social mobilization” Proc. Natl. Acad. Sci. U. S. A. 110(16), pp. 6281-6286 (2013). [16] J. Ugander et al., “Structural diversity in social contagion”, Proceedings of the National Academy of Sciences 109(16), pp. 5962-5966 (2012). [17] L. Weng, F. Menczer y Y.-Y. Ahn, “Virality prediction and community structure in social networks. Scientific Reports 3, pp. 2522-2522 (2012). [18] P. A. Grabowicz et al., “Social Features of Online Networks: The Strength of Intermediary Ties in Online Social Media”, PLoS ONE 7(1), p.e29358 (2012). [19] M. Granovetter, “The strength of weak ties”, American Journal of Sociology, 78(6), p. 1 (1973). [20] M. L. Congosto, M. Fernandez y E. Moro, “Twitter y política: información, opinion y ¿predicción?”, Cuadernos Evoca 4 (2011) [21] N. Eagle, M. Macy y R. Claxton, “Network diversity and economic development”, Science, 328(5981), pp. 1029-1031 (2010). [22] R. M. R. Bond et al., “A 61-million-person experiment in social influence and political mobilization”, Nature, 489(7415), pp. 295-298 (2012). [23] United Nations Global Pulse Using Mobile Phone Data for Development (October 2013). Esteban Moro Universidad Carlos III de Madrid, Instituto de Ingeniería del Conocimiento, Universidad Autónoma de Madrid COMPATHEVOL: Aplicando modelización y análisis de sistemas complejos al estudio de la evolución humana © IPHES vista general de los trabajos en el yacimiento de la Gran Dolina, en la Sierra de Atapuerca (Burgos) L os últimos 15 años han sido testigos de un profundo debate sobre el papel de la arqueología como disciplina científica, así como sobre su capacidad para producir conocimiento útil acerca de las dinámicas sociales. El relativismo interpretativo que dominó la disciplina durante los años 80, todavía vigente en muchos círculos académicos, ha condicionado la interpretación del pasado. Esta posición teórica, que prima la búsqueda de las particularidades frente a la de patrones y regularidades, ha dificultado considerablemente la renovación de planteamientos teórico-metodológicos con los que abordar el estudio del pasado humano. Así, desarrollos muy significativos experimentados en otras ramas del conocimiento, como los sistemas de herencia biológica (en Genética) o la identificación de procesos emergentes (en Física), han tenido una repercusión limitada en la arqueología. En los últimos años, esto ha llevado a la paradójica situación de que las contribuciones más relevantes para el estudio del pasado humano se han hecho fuera de la disciplina, de la mano de ciencias como la Biología molecular, Física, Matemáticas o Lingüística. Recientemente, diferentes instituciones académicas y de investigación arqueológica han iniciado un proceso de renovación interna, tanto teórica como metodológica [1, 2]. Dicho proceso se ha basado en dos pilares. Por un lado, se han incorporado el neodarwinismo y los sistemas complejos como marco teórico para estudiar fenómenos de largo recorrido temporal como las dispersiones humanas, la transmisión de la cultura (entendida como patrones regulares de comportamiento aprendidos y reproducidos socialmente), las interacciones de los grupos humanos con los ecosistemas, o la emergencia de la complejidad social y la cooperación. El segundo pilar es metodológico, y promueve el uso de la simulación computacional y la modelización matemática como herramientas experimentales, que permiten com- plementar el análisis directo del registro arqueológico a la hora de formular y validar hipótesis. En este segundo pilar, aunque ya desde una perspectiva completamente inferencial, también podemos incluir el tratamiento estadístico de datos arqueo-paleontológicos con el fin de reconocer patrones demográficos espacio-temporales. En el ámbito europeo en general, y en España en particular, existen todavía muy pocos grupos de investigación embarcados en esta renovación multidisciplinar de la arqueología “desde dentro”, y apenas empezamos a ver la organización de las primeras redes y comunidades científicas. Uno de estos casos “particulares” se está desarrollando en el Institut Català de Paleoecologia Humana i Evolució Social (IPHES, www.iphes.cat/). IPHES es un centro de la red pública catalana de institutos de investigación CERCA, dedicado a la investigación, docencia y divulgación científica sobre la evolución humana. Dirigido por el popular arqueólogo Eudald Carbonell, el instituto es conocido internacionalmente por: a) la importancia de los yacimientos arqueológicos (especialmente del Pleistoceno, http://es.wikipedia.org/wiki/Pleistoceno) en los que trabaja, entre los que destacan los complejos de la Sierra de Atapuerca, la cuenca del Guadix-Baza o el yacimiento de Abric Romaní; b) la vocación de investigación pluri- y transdiciplinar (en 2013, sus investigadores publicaron en 35 revistas indexadas diferentes, incluyendo Nature, PNAS, PLOS ONE, Journal of Human Evolution, Journal of Archaeological Science, Geology o Nature Physics); y c) la concepción de la tecnología como elemento transformador de la organización social y, por ello, decisiva para la singularidad de la evolución social humana. Este último punto merece un comentario aparte, especialmente en el contexto de un monográfico sobre sistemas complejos socio-tecnológicos. Para el profesor Carbonell y sus colaboradores, desde que hace unos tres millones de años unos Hominidae en África RdF • 28-3 • Julio-septiembre 2014 7 Sociofísica • COMPATHEVOL: Aplicando modelización y análisis de sistemas complejos al estudio de la evolución humana Fig. 1. Logo del Institut Català de paleoecologia Humana i Evolució Social. Fig. 2. El equipo de COMPATHEVOL frente al edificio del IPHES. De izquierda a derecha: Sergi Lozano, Magda Gómez, Javier Fernández-López, Alex Arenas, Luce Prignano e Ignasi Pastó. Samantha Jones completa el grupo. iniciaron la producción, más o menos secuencial y sistemática, de lascas de piedra que les permitieron acceder a nuevas formas de alimentación y organización social. La emergencia y subsiguiente asimilación social de diferentes tecnologías ha introducido una sucesión de reorganizaciones sociales, económicas y culturales, que han marcado la manera de relacionarnos entre nosotros y con nuestros entornos naturales [3, 4]. Se trataría, entonces, de un proceso de co-evolución entre tecnología y sistemas socio-ecológicos. La adopción de una innovación tecnológica incidiría en las interacciones entre los grupos humanos y su entorno (mejorando su adaptación a climas hostiles, por ejemplo), así como en su organización interna (nuevas formas de producir y de relacionarse). Estos cambios, a su vez, crearían las condiciones adecuadas (en forma de nuevas necesidades y posibilidades) para la emergencia y asimilación de nuevas innovaciones tecnológicas. Para abordar mejor este tipo de procesos evolutivos, e inspirada en las corrientes de renovación del estudio del pasado humano referidas más arriba, la dirección de IPHES decidió incorporar a su trabajo los conceptos y metodologías propias de la ciencia de la complejidad. Con ese fin, y en colaboración con el profesor Alex Arenas (Universitat Rovira i Virgili), en enero de 2012 empezó su andadura el grupo de investigación COMPATHEVOL 8 RdF • 28-3 • Julio-septiembre 2014 (siglas en inglés de COMPlex PAThs in Human EVOLution). Actualmente, COMPATHEVOL está formado por 7 personas doctoradas (incluyendo 2 investigadores Ramón y Cajal y una Marie Curie). En línea con la naturaleza del IPHES, se trata de un equipo pluridisciplinar (Arqueología, Historia, Física, Ciencias Sociales…) con vocación de trabajo transdisciplinar. Su objetivo es doble. Por una parte, contribuye con nuevas herramientas de análisis (matemáticas y computacionales) a las líneas tradicionales de trabajo del instituto en Arqueología, Paleontología y Prehistoria. Por otra, desarrolla líneas de investigación propias correspondientes a los periodos Tardiglaciar y Posglacial (http:// es.wikipedia.org/wiki/Posglacial), especialmente sobre el estudio de: a) procesos demográficos y socio-ecológicos de largo recorrido a partir del tratamiento estadístico de datos procedentes de yacimientos arqueo-paleontológicos; y b) dinámicas culturales mediante el uso de análisis matemático y simulación computacional, tanto en Prehistoria como en periodos históricos. La lista de proyectos en los que trabaja el grupo incluyen: a) Socio-ecología humana y resiliencia. Los proyectos Mediterranean Archaeological Landscapes: Post-paleolithic adaptations, Paleodemography and land use pattens [5] y PRETM-Prehistoric Transitions in the Mediterranean: Cultural and economic responses to climate change during the Mesolithic-Bronze Age (https://sites.google. com/a/iphes.cat/prehistoric-transitions-in-themediterranean-cultural-and-economic-responses-to-climate-change/) abordan el estudio de cómo los cambios ambientales producidos desde los capítulos finales de la última glaciación, afectaron a las últimas poblaciones de cazadores-recolectores y a las primeras de agricultores y ganaderos de la cuenca mediterránea. b)Análisis de Redes aplicado a escenarios arqueológicos. Se trata de un ámbito de creciente actividad, que proporciona múltiples posibilidades de aplicación de las metodologías propias de la Ciencia de Redes. A nivel europeo, la comunidad científica empieza a organizarse entorno a proyectos como The Connected Past (http://connectedpast.soton.ac.uk/) y, como ejemplo cercano, Production and distribution of food during the Roman Empire: economic and political dynamics - EPNet (www.roman-ep. net/). COMPATHEVOL ha iniciado varias colaboraciones en esta línea. Por una parte, estudia con el grupo del profesor Joan Bernabeu (Universitat de València), la evolución cultural y organización territorial de las primeras sociedades agrícolas de la Península Ibérica (uno de los escenarios más antiguos abordados hasta ahora) [6]. Por otra parte, analiza el surgimiento de los sistemas urbanos en Italia Central (entre Sergi Lozano, Javier Fernández-López de Pablo, Luce Prignano, Ignasi Pastó, Magdalena Gómez, Samantha Elsie Jones y Alex Arenas • Sociofísica la Edad de Bronce y la Época Arcaica) a partir de proxies demográficos de tipo arqueológico y datos sobre infraestructuras de transporte recopilados por la doctora Francesca Fulminante (University of Cambridge) [7]. c) Olas de difusión tecnológica durante la primera industrialización española. En este proyecto, desarrollado en colaboración con el doctor Marc Badia-Miró (Universitat de Barcelona) y financiado por la Fundación Ramón Areces (www.fundacionareces.es/fundacionareces/ portal.do?TR=C&IDR=1174), se estudia un fenómeno de difusión tecnológica del siglo xix a partir de registros de adopciones individuales y de datos sobre las interacciones entre agentes. Para ello, se combinan metodologías de análisis propias de la Historia Económica (básicamente macroscópicas) con aproximaciones de análisis de redes y modelización multi-agente (que permiten trabajar la emergencia de fenómenos macro a partir de dinámicas micro). La consolidación de un grupo de investigación joven también conlleva una importante tarea relacional y de networking. Al formar parte del IPHES, e incluir investigadores de disciplinas muy diferentes, COMPATHEVOL ocupa una posición intermedia a caballo entre diversas comunidades en arqueología y disciplinas afines, simulación de fenómenos sociales, diferentes aproximaciones a los sistemas complejos, etc. Aparte de los proyectos descritos más arriba, COMPATHEVOL ha establecido contactos con grupos e iniciativas con perfiles similares. En el ámbito estatal, se están planificando seminarios y otras actividades con diversos miembros del proyecto SimulPast (www.simulpast.net/), cuyo objetivo es la modelización del pasado humano. A nivel internacional, destacan los profesores James Steele (University College London) y Michael Barton (Arizona State University). El primero es un referente mundial de la aplicación del análisis cuantitativo en arqueología, el segundo es co-director del Center for Social Dynamics and Complexity (https://csdc.asu.edu/) y uno de los impulsores de iniciativas transdisciplinares como la Complex Adaptive Systems Science Concentration (https://shesc.asu.edu/graduate/complexadaptive-systems-science-concentration). Estas colaboraciones permiten al grupo identificar, participar e incluso organizar iniciativas “puente” entre comunidades de investigación. De entre las actividades lideradas desde el grupo, cabe destacar un seminario satélite en la European Conference on Complex Systems - ECCS'13 sobre “Complex Systems in Prehistory Research” (http:// compathevol.wordpress.com/), el primero de sus características en un ECCS, que contó con 45 asistentes de varios continentes (ver figura 3). Además, COMPATHEVOL co-organizó el V Workshop de Econosociofísica (http://deim.urv.cat/~alephsys/ Econosociofisica2014/), que tuvo lugar en las instalaciones del IPHES en enero de 2014. En definitiva, COMPATHEVOL fue creado en el IPHES como una apuesta transdisciplinaria en un momento de renovación del estudio del pasado humano. Un experimento que se va consolidando, poco a poco, conforme se van creando sinergias entre la arqueología y disciplinas afines por un lado, y Ciencia de la Complejidad y Ciencias Sociales Computacionales por el otro. Así, aunque el grupo se centra en el análisis cuantitativo de procesos sociales y socio-ecológicos de largo recorrido, dedica mucho esfuerzo a la identificación de socios y construcción de puentes entre las dos orillas. Cada nueva colaboración aporta nuevas formas de abordar problemas arqueológicos y históricos, y nos permite avanzar en el estudio de la evolución social humana. Figura 3. Participación internacional en el workshop “Complex Systems in Prehistoric Research”, satélite del ECCS’13. Procedencia de asistentes (puntos) y ubicación de los casos de estudio (paises sombreados). RdF • 28-3 • Julio-septiembre 2014 9 Sociofísica • COMPATHEVOL: Aplicando modelización y análisis de sistemas complejos al estudio de la evolución humana Referencias [1] [2] [3] [4] [5] C. M. Barton, “Stories of the past or science of the future? archaeology and computational social science”, en Computational Approaches to Archaeological Spaces, A. Bevan y M. W. Lake (eds.), (Left Coast Press, Walnut Creek, 2013), p. 151. (https://www.academia. edu/3651038/Stories_of_the_past_or_science_of_ the_future_Archaeology_and_computational_social_science) S. Shennan, Genes, memes, and human history: Darwinian archaeology and cultural evolution (Thames & Hudson, Londres, 2002). E. Carbonell, et al., “The emergence of technology: A cultural step or long-term evolution?”, Comptes Rendus Palevol 6: 231-233 (2007). E. Carbonell, et al., “Early hominid dispersals: a technological hypothesis for ‘out of Africa’”. Quaternary International, vol. 223, 36-44 (2010). Proyecto Ramón y Cajal del doctor Javier FernándezLópez de Pablo (RYC-2011-09363). Ver descripción aquí: http://www.idi.mineco.gob.es/stfls/MICINN/ 10 RdF • 28-3 • Julio-septiembre 2014 [6] [7] Ayudas/PN_2008_2011/LIA_RRHH/FICHERO/ RYC_2011/Area_24_Historia_Arte.pdf J. Bernabeu, A. Moreno y C. M. Barton, “Complex systems, social networks and the evolution of social complexity”, en The Prehistory of Iberia: Debating Early Social Stratification and the State, M. Berrocal, L. García Sanjuán y A. Gilman (eds.), (Routledge Nueva York, 2012), pp. 23–37. F. Fulminante, L. Prignano y S. Lozano, “Social Network Analysis and Early Latin cities (central Italy)”, en Urbanization and State Formation in the Italian Iron Age, P. Attema y J. Seubers (eds), (Groningen University Press, Groningen 31-01-2012/01-02-2013). Sergi Lozano, Javier Fernández-López de Pablo, Luce Prignano, Ignasi Pastó, Magdalena Gómez, Samantha Elsie Jones, IPHES, Institut Català de Paleoecologia Humana i Evolució Social, Àrea de Prehistoria, Universitat Rovira i Virgili (URV) y Alex Arenas, IPHES, Institut Català de Paleoecologia Humana i Evolució Social, Universitat Rovira i Virgili La Física del comportamiento humano Introducción En las últimas décadas, la ciencia ha dado pasos de gigante a la hora de describir y entender los diferentes procesos bioquímicos que dan lugar a organismos tan complejos como el ser humano [1]. Con el desarrollo de la Biología Celular y Molecular y la Informática hoy en día somos capaces de manipular el genoma o identificar las causas de muchas enfermedades genéticas [2]. En este artículo, sin embargo, no discutiremos cómo la Física ha contribuido a estos campos, sino que nos centraremos en otro aspecto que tiene que ver con el ser humano: las leyes que rigen su comportamiento no como sistema aislado, sino cuando interactúa con sus semejantes. En particular, la Física ha desarrollado desde hace décadas numerosas técnicas para el estudio de sistemas de muchos cuerpos [3]. Es por tanto natural pensar que esas mismas técnicas puedan ser usadas para el estudio de sistemas sociales formados por muchos individuos, siguiendo el espíritu de la Física Estadística cuando estudia un gas formado por muchas moléculas que interactúan entre sí. La pregunta entonces es: ¿es posible desarrollar una teoría que describa el comportamiento humano y su comportamiento colectivo asociado? Tal y como argumentaremos en esta contribución, la respuesta es que, desde una perspectiva social, el comportamiento humano es un misterio que todavía tenemos que revelar. Aunque parezca lo contrario, esta cuestión ha pasado a ser de interés para los físicos y otros científicos que tradicionalmente se han ocupado del estudio de las leyes naturales desde hace sólo unas pocas décadas [4]. Y es que la respuesta no es trivial por diversas razones. En primer lugar, tal y como argumentaremos en este artículo, no conocemos las leyes que describen el comportamiento humano. En segundo lugar, el ser humano es heterogéneo por naturaleza, o sea, no somos como las moléculas de un gas ideal. Esta heterogeneidad, si bien nos distingue a unos de los otros, también se diluye cuando alcanzamos acuerdos o consensos respecto a un determinado problema, por lo que podemos decir que tampoco somos seres rígidos en nuestras posiciones, o sea, el comportamiento colectivo de una parte del (o de todo el) sistema, resulta de la interacción entre sus componentes (individuos en este caso). ¿Cuándo se alcanza tal consenso? ¿De qué depende que se alcance? ¿Podemos anticipar el resultado de procesos colectivos sociales, como la formación, el crecimiento y la estabilización de grandes movimientos sociales o la adopción de determinados productos u opiniones? Todas estas preguntas no tienen una respuesta clara en la actualidad. Adicionalmente, aunque existen muchos modelos propios de la Física que se han aplicado al estudio de problemas de las ciencias sociales [4] (y de ahí el término sociofísica), muchas de las técnicas que tradicionalmente usamos para el estudio de sistemas naturales de muchos cuerpos fallan cuando se aplican a sistemas sociales. Un ejemplo son las teorías de campo medio, simplemente porque cada vez está más claro que el “individuo promedio” no existe [5]. A esto nos referiremos cuando estudiemos la estructura y dinámica de redes sociales online, donde mostraremos que existe un alto grado de heterogeneidad tanto en las características estructurales de la red que define la interacción entre individuos como en la dinámica de difusión de información a través de estas redes. Finalmente, ya en las conclusiones, discutimos brevemente nuestro particular punto de vista sobre cuáles son los próximos retos y cómo éstos deberían ser abordados, insistiendo en el hecho de que creemos que a través del estudio de sistemas sociales de muchos individuos podemos aprender “nueva física”, especialmente, aquella relacionada con la caracterización de sistemas que están inherentemente fuera del equilibrio [6]. La cooperación en sociedades humanas Una característica esencial de muchas especies biológicas es su capacidad de cooperar y, fruto de esa cooperación, construir comunidades; ejemplos de ello son el comportamiento gregario o las relaciones mutualistas. No obstante, en la mayoría de los entornos, la cooperación no se ve favorecida: un organismo al cooperar gasta unos recursos que puede necesitar para subsistir, mientras que el agente egoísta sale beneficiado arriesgando menos su supervivencia. Desde una perspectiva evolutiva, este argumento conlleva una progresiva disminución de los individuos cooperadores, para terminar con poblaciones formadas exclusivamente por individuos egoístas. Como respuesta a este interrogante evolutivo, ya planteado por Charles Darwin, se han ido postulando diferentes mecanismos promotores de la cooperación. Entre RdF • 28-3 • Julio-septiembre 2014 11 Sociofísica • La Física del comportamiento humano ellos, el más reseñable es la selección de parentesco, introducida por R. A. Fisher y J. B. S. Haldane hace casi un siglo y formalizada por William Hamilton [7], que explica el sacrificio de individuos en beneficio de otros con los que comparten una alta proporción de genes altruistas. En el caso del ser humano, la capacidad de cooperación es mucho mayor que en cualquier otra especie, lo que nos ha permitido construir comunidades a diferentes escalas y grados de complejidad. No obstante, la mayoría de estas comunidades se establecen entre individuos sin relación familiar, y los comportamientos cooperativos necesarios no pueden explicarse mediante la selección de parentesco, por lo que se han ido proponiendo diferentes alternativas en los últimos treinta años. Por un lado, la reciprocidad directa, propuesta por Robert Trivers [8], se basa en el beneficio que obtienen al cooperar dos personas cuando interaccionan entre ellas repetidas veces. Sin embargo, en muchas ocasiones los comportamientos cooperativos y altruistas surgen entre personas que probablemente no vuelvan a tener otro contacto, con lo que volvemos a carecer de una respuesta única para esta conducta. Según el mecanismo de reciprocidad de red propuesto por Robert Alxerod en 1983 [9] y formalizado posteriormente por Martin A. Nowak y Lord Robert M. May [10], cuando la población está dotada de una estructura de manera que cada individuo interacciona sólo en un entorno reducido, la cooperación puede verse favorecida por agrupaciones de elementos cooperadores que se ayuden mutuamente, consiguiendo una ventaja evolutiva frente a los egoístas. La metodología teórica que se ha usado con más frecuencia para analizar estas propuestas consiste en implementar en diferentes topologías de red [11] los procesos de toma de decisiones propios de la teoría evolutiva de juegos [12]. Este método ha resultado ser muy fructífero, mostrando cómo, para algunas dinámicas evolutivas, la estructura subyacente podría favorecer la cooperación a través de la reciprocidad de red. Entre los diferentes modelos tomados de la teoría evolutiva de juegos para estudiar la dinámica de la cooperación, el dilema del prisionero se ha convertido en un paradigma, estando en el centro de la mayoría de los trabajos. Planteado originalmente en 1950 por Anatol Rapoport y Albert M. Chammah en un contexto geoestratégico [13], y formalizado posteriormente por Albert W. Tucker, el dilema del prisionero abstrae matemáticamente el problema de la cooperación sobre la base del beneficio mutuo que reporta cooperar frente al provecho individual que proporciona la acción egoísta. Formalmente se define como un juego simétrico de suma no nula para dos jugadores que disponen de dos posibles acciones: cooperar o no hacerlo. Los dos jugadores deben decidir su acción de manera síncrona, esto es, sin conocer 12 RdF • 28-3 • Julio-septiembre 2014 de antemano la acción de su adversario. Si ambos cooperan, cada uno de ellos recibe un beneficio b-c, donde c representa el coste inherente a la acción cooperativa. Por contra, si ninguno de los dos coopera, no obtienen beneficio alguno, pero tampoco les supone coste. Por último, si uno coopera y el otro no, este último obtiene un beneficio b, mientras que el cooperador paga un coste c; esto es, obtiene un beneficio negativo. El dilema surge cuando un jugador debe decidir su acción puesto que, independientemente de la elección del oponente, su beneficio individual es mayor si no coopera, pero la ganancia total es mayor cuando ambos deciden cooperar. En el estudio anteriormente mencionado, Martin A. Nowak y Robert M. May encontraron que, cuando los jugadores de una población se ubican en los nodos de una red cuadrada y juegan un dilema del prisionero con todos sus vecinos, imitando en el siguiente turno la acción del vecino con mayor beneficio, la cooperación se localiza en grupos de agentes cooperadores conectados entre sí, de manera que los vínculos les reportan altos beneficios y, por tanto, resistencia a la invasión: o sea, el mecanismo de reciprocidad de red garantiza la supervivencia de los cooperadores. El modelo propuesto por Nowak y May ha sido reproducido, tanto analítica como numéricamente, con múltiples variaciones. En 2005, Francisco C. Santos y Jorge M. Pacheco [14] implementaron el modelo en un tipo de redes que reproducen ciertas características de las relaciones sociales: las redes libres de escala. Estas redes, que no sólo se encuentran en el ámbito humano sino en muchos otros escenarios, se caracterizan por una distribución de la conectividad de acuerdo a una ley de potencias, de manera que, mientras que la mayoría de los nodos están conectados a pocos vecinos, unos pocos nodos —llamados centros o hubs— cuentan con muchos enlaces [11]. Pacheco y Santos encontraron que las redes libres de escala presentan un elevado nivel de cooperación incluso en condiciones relativamente hostiles, esto es, cuando las acciones cooperativas están penalizadas con un elevado coste. Posteriores estudios han ido mostrando como la topología de la red de contactos tiene una fuerte influencia en el nivel de cooperación. Una pregunta inevitable es si los modelos anteriores se ajustan al comportamiento humano. El principal problema radica en su hipótesis inicial: la manera en la que las personas actualizan su acción, esto es, las estrategias. A falta de una base experimental, en los modelos teóricos hasta hace un lustro las estrategias de los agentes tomaban como referencia los beneficios. En 2012 se realizó un experimento a gran escala sobre dos grupos de 604 y 625 voluntarios conectados respectivamente en los nodos de una red cuadrada y otra heterogénea [15] (véase figura 1). El principal resultado de este experimento fue que no hay influencia alguna Raquel A. Baños, Carlos Gracia-Lázaro y Yamir Moreno • Sociofísica Comportamiento colectivo en grandes sistemas sociales El desarrollo de las nuevas tecnologías de la información y comunicación ha dado lugar a la aparición de numerosas plataformas online: Twitter, Facebook o Google+ son ejemplos de la aparición de nuevas formas de comunicación e interacción en nuestra sociedad. Con cerca de 1.310 millones de usuarios activos al mes en el caso de Facebook o más de 645 millones en el caso de Twitter [16], estas tecnologías han permitido apartar las limitaciones geográficas y culturales presentes en el pasado en favor de un vínculo más inmediato (en muchos casos no personal) entre individuos y un acceso sencillo y rápido a la información. Por este motivo, una parte cada vez más importante en las relaciones sociales se da a través de Internet. Junto con esta nueva forma de interacción social, las nuevas tecnologías ofrecen la valiosa posibilidad de acceder a un gran conjunto de datos de forma gratuita, que permiten el estudio de los sistemas sociales, tanto desde el punto de vista estructural —formación y evolución de redes de interacción, propiedades topológicas de los individuos dentro de su entorno más cercano, o propiedades globales del sistema— como desde el punto de vista dinámico —propagación de información o adopción de comportamientos determinados—. El gran interés y la disposición de la sociedad hacia estas nuevas formas de comunicación, y sobre todo su utilización de forma masiva para expresar ideas, sentimientos, para organizarse o llevar a cabo protestas, ha venido acompañado paralelamente de un gran interés científico por el estudio y adquisición de datos de estas plataformas. Como consecuencia un gran número de investigadores de diferentes disciplinas —Física, Sociología, Ingeniería Informática o Matemáticas— han centrado su atención no sólo en la adquisición y análisis de datos, sino también en el desarrollo de herramientas teóricas para modelar la inherente complejidad de estos sistemas. El estudio de la dinámica de difusión en redes sociales tiene una larga tradición en Sociología [17]. número de nodos número de nodos 600 400 200 300 200 100 red heterogénea red cuadrada 0 4 0 vecinos por nodo 2 4 6 8 10 12 14 16 vecinos por nodo 1 cooperación media de la red de contactos en el nivel de cooperación, lo cual a su vez abre nuevas vías de investigación en busca de mecanismos promotores de la cooperación entre personas, como el análisis de las redes dinámicas para modelar su capacidad autoorganizativa. Además, mostró que, cuando se trata de humanos, los supuestos teóricos que dieron lugar a la afirmación de que la reciprocidad de red podría explicar el alto nivel de cooperación en las sociedades humanas no se sostienen. Como dijo el gran físico Richard P. Feynman: “It doesn’t matter how beautiful your theory is, it doesn’t matter how smart you are. If it doesn’t agree with experiment, it’s wrong”, o sea, tenemos que empezar desde el principio. 0 .8 red cuadrada red heterogénea 0 .6 0 .4 0 .2 0 0 10 20 30 40 50 60 ronda La mayoría de los estudios se han desarrollado a partir del concepto de exposición a la información: se asume que un determinado comportamiento, estado o idea se transmite en la población debido a la existencia de potenciales adopters —individuos que acogen y difunden el comportamiento— que están expuestos previamente al comportamiento de otros individuos a través su red de contactos más próximos. En este sentido, el proceso de contagio, a diferencia del concepto de influencia social, es un proceso local, en el que no existe una exposición común de todos los individuos a una fuente externa, como pueden ser por ejemplo los medios de comunicación. Los distintos enfoques del problema del contagio, entre los que destacan los modelos threshold [18], modelos de propagación de epidemias [19] y modelos de difusión de rumores [20], se basan en un mecanismo común: un individuo en un estado inactivo decide adoptar un determinado comportamiento o idea en función del número de contactos activos que ya lo han adoptado previamente. Mientras que en dinámicas de epidemias y de rumores, la decisión de adoptar el comportamiento se lleva a cabo con una probabilidad p para cada contacto, en los modelos threshold dicha decisión depende de una proporción crítica de contactos que ya han adoptado dicho comportamiento, de manera que un determinado agente lo adoptará únicamente si su número de contactos activos es superior a cierto umbral. Por otro lado, las redes que describen dicha estructura de contactos sociales eran desconocidas, o poco significativas por su tamaño, carencia que fue suplida frecuentemente mediante información geográfica o perfiles de actividad de los individuos bajo estudio [21], junto con el planteamiento de modelos y sus simulaciones numéricas. Fig. 1. La estructura de la red de contactos no influye en la cooperación humana. La gráfica inferior muestra la evolución de la cooperación observada en un reciente experimento [15] realizado sobre 1.229 personas. 625 voluntarios fueron ubicados en los nodos de una red cuadrada, en la que todos ellos tenían cuatro vecinos (gráfica superior izquierda); los 604 restantes se ubicaron en una red heterogénea en la que el número de vecinos variaba de un sujeto a otro (gráfica superior derecha). RdF • 28-3 • Julio-septiembre 2014 13 Sociofísica • La Física del comportamiento humano Fig. 2. Resultados del análisis del movimiento 15M. Panel izquierdo: distribución de grado de iniciadores en función de su factor multiplicativo. Panel derecho: tamaño de las cascadas producidas (en color, tonos claros similares al amarillo indican cascadas grandes, tonos oscuros cercanos al azul indican cascadas de pequeño tamaño) en función de la participación, p, del iniciador y su conectividad estandarizada, Zk. Gracias a la cantidad de datos empíricos disponibles actualmente, se ha podido dar un paso hacia delante en el estudio de propagación de información. Una cuestión de gran importancia en los procesos de difusión es el concepto de influencia. Éste ha sido estudiado y discutido en numerosos trabajos sin que se haya alcanzado un consenso en torno a su determinación cuantitativa. El objetivo es determinar si existe un conjunto de usuarios privilegiados capaces de producir grandes cascadas. Por ejemplo, se ha observado que altas conectividades (gran número de contactos) pueden ser una condición suficiente [22, 23], aunque no necesaria: gran conectividad es en numerosas situaciones sinónimo de éxito en la difusión de una idea, puesto que a mayor conectividad existe un número mayor de potenciales adopters expuestos a ella. Sin embargo, también se observa que estos individuos caracterizados por altas conectividades —denominados hubs— actúan con igual frecuencia como cortafuegos en el proceso de difusión [23]. Es decir, no participan activamente transmitiendo la información cuando ésta ha sido producida o iniciada por otro individuo. Junto con la existencia de hubs, se presume la existencia de otro tipo de individuos [22, 24, 25], irrelevantes en cuanto a alto número de conexiones, pero capaces de suplir esta carencia con otras características, quizás topológicas o quizás de otra naturaleza, que los hacen capaces de producir grandes avalanchas de información. Éstos se conocen como hidden influentials o influyentes ocultos. Ocultos en términos de conectividad, influyentes en términos de visibilidad en la difusión. De hecho, las conectividades de estos usuarios se encuentran bastante por debajo de los niveles máximos alcanzados en la red. Una manera de cuantificar esta afirmación consiste en introducir un factor multiplicativo, r, definido para un usuario como el cociente entre el número de individuos alcanzados en tiempo t2 dividido por el número de individuos alcanzados en t1, asumien- 14 RdF • 28-3 • Julio-septiembre 2014 do que el nodo en cuestión emitió su mensaje en t0. Si dicho factor es superior a la unidad, indica que el individuo ha sido capaz de ampliar de forma significativa el número de oyentes de su mensaje. Si, por el contrario, el factor multiplicativo es inferior a la unidad, la cascada se irá frenando progresivamente hasta extinguirse. El panel izquierdo de la figura 2 muestra cómo los individuos con factor multiplicativo superior a la unidad (azul oscuro) presentan en su mayoría conectividades entre 102 y 103. Los agentes con factor menor o igual a la unidad se encuentran, sin embargo, en conectividades centradas en k = 102. Por otro lado, se ha intentado determinar qué características poseen estos influyentes ocultos en términos de diferentes métricas. Por ejemplo, se ha observado que éstos ocupan posiciones destacadas desde la perspectiva modular de la red. Aplicando algoritmos de detección de comunidades y clasificando a los individuos de acuerdo a sus valores de conectividad estandarizada —conectividad respecto al resto de individuos en su comunidad— y participación —medida del grado en el que unen comunidades distintas— se ha observado que individuos con alta participación son capaces de producir grandes cascadas. El panel derecho de la figura 2 muestra este hecho: iniciadores con bajos valores de conectividad pero partición suficientemente alta (cuadrante inferior derecho) son capaces de involucrar a una fracción importante de individuos. De todo lo anterior se deduce que hay una gran heterogeneidad tanto en las características de los usuarios como en su comportamiento. La identificación de aquellos que tienen un gran peso en la “viralidad” de la información que circula en la red es un problema abierto, de gran interés para las grandes compañías tecnológicas precisamente por su potencial práctico en casos como, por ejemplo, el diseño de campañas de marketing eficientes y económicas, o sea, el llamado marketing viral. Raquel A. Baños, Carlos Gracia-Lázaro y Yamir Moreno • Sociofísica Conclusiones Como hemos visto en los dos ejemplos que acabamos de discutir, la conclusión fundamental de todos estos estudios es que no conocemos todavía cuáles son las leyes básicas que rigen el comportamiento humano, ya sea en el mundo real como en el virtual (online). Además, creemos que hay una gran oportunidad en este campo para aplicar la metodología y el desarrollo conceptual de la Física. Por ejemplo, el estudio de fenómenos colectivos en sistemas sociales podría beneficiarse de conceptos tales como transiciones de fase, criticalidad, leyes de escala, o incluso, de la termodinámica (¿cuál es la temperatura de un sistema social?). Además, los nuevos retos que plantean el estudio de sistemas en los que un gran número de individuos interaccionan entre sí de manera dinámica, necesariamente tienen que ser abordados con el método científico que nos es muy conocido, esto es, observar el mundo que nos rodea, recopilar datos, y, en caso necesario, diseñar experimentos específicos. A través del análisis de estos datos, seguramente desarrollaremos nuevos conceptos y métodos que nos permitirán ensamblar las piezas del puzle. Más importante aún, a través de este ciclo de investigación, seguramente aprenderemos nueva Física, aquella que nos permita describir sistemas fuera del equilibrio que involucren toma de decisiones, o sea, agentes que pueden cambiar su estado de manera dinámica en dependencia de su propia decisión y del entorno que ellos observan. Referencias [1] [2] [3] [4] [5] [6] [7] [8] [9] International Human Genome Sequencing Consortium, “Initial sequencing and analysis of the human genome”, Nature 409, 860-921 (2011). Véase, por ejemplo, http://www.genome.gov/10001204. W. von der Linden, “A quantum Monte Carlo approach to many-body physics”, Phys. Rep. 220, 53-162 (1992). C. Castellano, S. Fortunato y V. Loreto, “Statistical physics of social dynamics”, Rev. Mod. Phys. 81, 591 (2009). D. J. Watts, “Everything Is Obvious: How Common Sense Fails Us”, Crown Business (June 26, 2012). J. Marro y R. Dickman, Nonequilibrium Phase Transitions in Lattice Models (Cambridge University Press, 2005). W. D. Hamilton, “The genetical evolution of Social Behaviour”, J. Theor. Biol. 7(1), 1-16 (1964). R. L. Trivers, “The evolution of reciprocal altruism”, Q. Rev. Biol. 46, 35-57 (1971). R. Axelrod, The Evolution of Cooperation (Basic Books, New York, 1984). [10] M. A. Nowak y R. M. May, “Evolutionary games and spatial chaos”, Nature 359, 826-829 (1992). [11] S. Bocaletti, V. Latora, Y. Moreno, M. Chavez y D. U. Hwang, “Complex networks: Structure and dynamics”, Physics Reports 424, 175-308 (2006). [12] G. Szabó y G. Fáth, “Evolutionary games on graphs”, Phys Rep 446, 97-216 (2007). [13] A. Rapoport y A. M. Chammah, Prisoner’s Dilemma (University of Michigan Press, 1965). [14] F. C. Santos y J. M. Pacheco, “Scale-free networks provide a unifying framework for the emergence of cooperation”, Phys Rev Lett 95, 098104 (2005). [15] C. Gracia-Lázaro, G. Ferrer A, Ruiz, A. Tarancón, J. A. Cuesta y A. Sánchez, “Heterogeneous networks do not promote cooperation when humans play a Prisoner’s Dilemma”, Proc. Natl. Acad. Sci. U.S.A. 109 (32), 12922-12926 (2012). [16] http://www.statisticbrain.com/facebook-statistics/ [17] E. M. Rogeres, Diffusion of innovations (Free Press, New York, NY, 2013). [18] D. Watts, “A simple model of global cascades on random networks”, Proc. Natl. Acad. Sci. U.S.A. 99(9), 5766-5771 (2002). [19] J. Murray, Mathematical biology (Springer-Verlag, Berlín, 1993). [20] D. J. Daley y D. G. Kendall, “Epidemics and rumours”, Nature 204, 1118 (1964). [21] M. Biggs, “Strikes as Forest Fires: Chicago and Paris in the Late Nineteenth century 1”, Am. J. Sociol. 110(6), 1684-1714 (2005). [22] R. Baños, J. Borge-Holthoefer e Y. Moreno, “The role of hidden influentials in the diffusion of online information cascades”, EPJ Data Science 2(6) (2013). [23] J. Borge-Holthoefer, A. Rivero e Y. Moreno, “Locating priviledged spreaders on an online social network”, Phys. Rev. E 85, 066123 (2012). [24] S. Gonzalez-Bailon, J. Borge-Holthoefer e Y. Moreno, “Broadcasters and Hidden influentials in Online Protest Diffusion”, Am. Behav. Sci. doi: 10.1177/0002764213479371 (2013). [25] S. Gonzalez-Bailon, J. Borge-Holthoefer, A. Rivero e Y. Moreno, “The Dynamics of Protest Recruitment through an Online Network”, Sci. Rep. 1, 197 (2011). Raquel A. Baños, Carlos Gracia-Lázaro Instituto de Biocomputación y Física de Sistemas Complejos (BIFI), Universidad de Zaragoza Yamir Moreno Instituto de Biocomputación y Física de Sistemas Complejos (BIFI), Universidad de Zaragoza, Complex Networks and Systems Lagrange Lab, Institute for Scientific Interchange, Turin, RdF • 28-3 • Julio-septiembre 2014 15 ¿Puede sobrevivir el homo oeconomicus en una red compleja?: Guía para principiantes Antonio Cabrales Fernando Vega-Redondo University College, Londres Università Bocconi © Christopher X Jon Jensen (CXJJensen) & Greg Riestenberg Introducción Este artículo pretende dar una visión somera de cómo los economistas se acercan al problema de creación de redes sociales1. Una de las características diferenciales de los modelos económicos de redes sociales respecto a los que suelen emplearse en otras disciplinas es que los economistas tienden a modelar a los individuos (a los que solemos llamar “agentes”) como entidades que pretenden conseguir la mejor opción posible, dentro de unas restricciones impuestas por la naturaleza o por la interacción con otros individuos que pretenden algo similar (lo que a veces se llama el “individualismo metodológico”). Contrariamente a lo que a veces se piensa, esto no quiere decir que los individuos sean exclusivamente egoístas, pero la falta de alineación completa entre los objetivos individuales y los de la colectividad a la que pertenece puede generar resultados socialmente indeseables, que justifican la creación de instituciones para corregirlas. Formalmente, los modelos económicos suponen que los individuos tienen “preferencias” estables: éstas ordenan de manera consistente (por ejemplo, son transitivas) los posibles resultados que se derivan de sus acciones y las de los demás participantes en la interacción estratégica considerada. Sus decisiones buscan la alternativa preferida de entre todas las posibles, sujeta a restricciones tecnológicas e institucionales, y a las acciones de otros participantes. Como todos los participantes están inmersos en el mismo problema de decisión, cada uno de ellos tiene además que anticipar las decisiones de los demás. Decimos que un conjunto de decisiones forman un equilibrio cuando todos los agentes toman la mejor alternativa dadas sus preferencias y además las decisiones de los demás participantes se anticipan correctamente. Técnicamente un equilibrio es un punto fijo de una correspondencia de respuesta óptima. Aunque hay una gran cantidad de investigación sobre cómo se puede llegar a un equilibrio2, por lo general no es algo que se explore para todos los modelos, y los que presentaremos a continuación no son una excepción. Esto es particularmente importante en situaciones para las cuales existe más de un equilibrio, algo que a veces se denomina un “problema (o fallo) de coordinación”. De hecho, el mismo enfoque metodológico que lleva a los economistas a intentar entender el comportamiento de los agentes dentro de una red social, nos lleva también a querer 1 El lector interesado puede ampliar la información en los textos de Goyal (2007), Jackson (2009) y Vega-Redondo (2007). 2 Ver, por ejemplo, los textos de Vega-Redondo (1996) o Fudenberg y Levine (1998). 16 RdF • 28-3 • Julio-septiembre 2014 estudiar la formación de la red misma desde esta perspectiva. Al fin y al cabo, la decisión de qué enlaces crear o destruir es tan discrecional como cualquier otra. Quizás esté sujeta a mayores fricciones o inercias que algunas otras decisiones (por ejemplo, comprar un billete de lotería, un libro, o una hamburguesa) pero desde luego no más que otras que son de gran relevancia económica (como, digamos, comprar una casa, hacer un doctorado, o suscribir un plan de pensiones). Este artículo no puede ni siquiera esbozar la gran riqueza de posibilidades que admite este enfoque para el estudio de los fenómenos sociales y económicos. Por ello, lo que haremos será ilustrar su potencial centrándonos en dos cuestiones de particular interés. Una de ellas es bastante abstracta pero, sin embargo, central a tantas otras: cómo podemos entender el desarrollo y mantenimiento del comportamiento cooperativo en aquellos casos en los que el comportamiento oportunista se presenta como ventajoso, al menos a corto plazo. Claramente, éste debe de ser un tema central en el estudio de sociedades avanzadas que, en buena medida, se caracterizan por altos niveles de cooperación, implícita o explícita. La segunda cuestión es mucho más concreta y de indudable actualidad. Desde hace varios años, una buena parte de las economías desarrolladas está sumida en una crisis económica de profundidad y persistencia no experimentadas desde hace mucho tiempo. La situación se ha atribuido principalmente a la quiebra parcial y “congelamiento” del sistema financiero, desencadenados tras la crisis hipotecaria asociada a los créditos subprime. Indudablemente, la crisis hipotecaria fue importante y eran de esperar consecuencias significativas sobre la economía, al menos la estadounidense. Pero las ramificaciones y extensión que ha adquirido sólo pueden explicarse como el resultado de un efecto sistémico añadido, inducido por un rápido y extenso proceso de contagio. Un análisis del problema como fenómeno de red es por tanto natural, y a ello han dedicado los economistas muchos esfuerzos recientes. Cooperación en redes sociales El dilema del prisionero como metáfora del problema Es común en la literatura económica estudiar el problema de la cooperación a través del bien conocido “dilema del prisionero”. Este es un juego donde dos agentes han de elegir de manera independiente si cooperan o no en su relación bilateral. El dilema surge del hecho de que la no cooperación (el comportamiento oportunista) es una estrategia dominante —esto es, es lo mejor para cada agente, independientemente de lo que elija Antonio Cabrales y Fernando Vega-Redondo • Sociofísica el otro—. El resultado, sin embargo, es ineficiente, en el sentido de que cuando los dos agentes cooperan obtienen un pago mayor que cuando ninguno de ellos lo hace. El dilema del prisionero es un juego extremadamente sencillo pero, como metáfora, capta de manera nítida y potente el conflicto que subyace a muchos problemas de cooperación. Una tensión similar, por ejemplo, aparece en la provisión de bienes públicos —por ejemplo, un medio público de comunicación financiado mediante contribuciones, o una escuela de calidad basada en la implicación activa de los padres—. Si los individuos en cuestión fueran a decidir de manera independiente cuánto contribuir a su dotación, sería de esperar que la mayor parte de ellos lo hicieran a un nivel ineficientemente bajo y el grupo en su conjunto sufriera por ello. La cooperación en una red fija ¿Cómo entender, por tanto, que la cooperación sea un rasgo común en tantos contextos sociales? Las instituciones, naturalmente, son una respuesta —los gobiernos, por ejemplo, tienen como tarea fundamental arbitrar mecanismos de provisión de bienes públicos—. Pero en otros casos, no son las intituciones sino las redes sociales las que nos dan una vía alternativa. Veamos, por ejemplo, cómo aborda el tema el artículo de Eshel, Samuelson y Shaked (1998), en donde se supone por simplicidad que los agentes están dispuestos de manera correlativa a lo largo de un anillo —un modelo simplificado de la red social subyacente—. El supuesto básico es que cada agente juega un dilema del prisonero con cada uno de sus dos vecinos —adoptando la misma acción en ambos casos— y disfruta de la posible cooperación de ambos (por ejemplo, su contribución a bienes públicos locales dotados bilateralmente). Una primera observación es que si los agentes son perfectamente racionales, una valoración miope de la situación por su parte no puede inducir un comportamiento cooperativo3. Supongamos, por tanto, que los agentes son algo menos “racionales” y se guían, para decidir su comportamiento, por los pagos relativos de las acciones que observan en su entorno —digamos, por ejemplo, que comparan las acciones de los dos agentes adyacentes en el anillo—. Siendo así, se supone que un agente mantiene su acción (sea cooperativa o oportunis- 3 Es conveniente hacer notar que la situación es potencialmente distinta si los agentes conciben su interacción como una relación continuada en el tiempo y juegan un equilibrio en el que la cooperación indefinida es óptima ante la amenaza (creíble) de ser “castigado” por el otro con un comportamiento no cooperativo, también indefinido. El problema con esta alternativa es doble. Por un lado, requiere una sofisticación sustancial por parte de los agentes y una continuidad sin fin previsto en su relación. Por otro lado, tenemos el hecho de que existen, además del equilibrio mencionado, muchos otros equilibrios parcial o totalmente no cooperativos. ta) si no hay un agente en su inmediato entorno que tiene un pago mayor con otra acción. Es fácil ver que, en el contexto descrito, es posible sostener un comportamiento parcialmente cooperativo en la población mediante una apropiada “distribución espacial” de cooperantes y oportunistas. Una manera trivial de hacerlo, por ejemplo, vendría dada por una situación en donde todos los agentes son cooperativos. En ese caso, ninguno de ellos tendría ninguna referencia de comparación alternativa y, por tanto, seguiría siendo cooperativo de manera indefinida. Esta configuración, sin embargo, no es muy interesante, ya que es extremadamente frágil: si sólo un individuo fuera a “mutar” a un comportamiento oportunista, su pago sería mayor y alguno de los agentes vecinos lo imitarían. Por otro lado, hay que plantear también la pregunta básica de cómo, desde condiciones iniciales menos extremas, se podría alcanzar una situación tan homogénea como la considerada. Es por todo ello que resulta más razonable postular que las condiciones iniciales se determinan de manera aleatoria y, a partir de ahí, opera un proceso de ajuste/imitación que puede llevar a la población hacia una configuración estable. Supongamos, para ser más precisos, que en un principio cada agente es cooperativo o oportunista con la misma probabilidad, y la determinación de las condiciones iniciales se hace de manera estocásticamente independiente para cada uno de ellos. En ese caso, se puede demostrar que si la población es grande, la probabilidad de que, al final del proceso, haya al menos un 60 % de agentes cooperativos se aproxima a uno. ¿Por qué es esto así? En el largo plazo, si hay al menos un grupo compacto de tres agentes cooperativos consecutivamente emplazados en el anillo, sus pagos serán mayores que los de un grupo similar de agentes oportunistas que interaccionan entre sí. Esto implica que si, efectivamente, las condiciones iniciales incluyen un grupo de agentes cooperativos como el descrito (algo que naturalmente ocurrirá con una alta probabilidad si la población es grande) la relación entre agentes cooperativos y oportunistas en la población ha de ser al menos de 3:2; es decir, la fracción de los primeros tiene que ser al menos un 60 % del total. De hecho, se obtiene una conclusión similar si las condiciones iniciales son totalmente arbitrarias (incluso partiendo de una población compuesta exclusivamente por oportunistas) pero el proceso está sujeto a un ruido persistente pero pequeño de mutación. En ese caso, en el largo plazo y durante la mayor parte del tiempo, la situación será como la descrita y al menos habrá un 60 % de agentes cooperativos, aunque la identidad de éstos naturalmente cambiará a lo largo del tiempo. La cooperación en una red flexible y siempre cambiante El modelo propuesto por Eshel, Samuelson, y Shaked (1998) es interesante, ya que clarifica de la RdF • 28-3 • Julio-septiembre 2014 17 Sociofísica • ¿Puede sobrevivir el homo oeconomicus en una red compleja?: Guía para principiantes manera más sencilla posible cómo una cierta interacción local, entre agentes relacionados a través de una red social, puede llegar a sostener comportamiento cooperativo en una población numerosa. Y ello es así a pesar de las fuertes consideraciones que pueden jugar en su contra —es decir, incluso siendo, como en el dilema del prisionero, un comportamiento claramente dominado. La idea fundamental que subyace a esta conclusión es simple: creando grupos compactos de cooperadores, éstos son capaces de disfrutar de los beneficios de la cooperación y protegerse, al menos parcialmente, de la explotación de los oportunistas. Sin embargo, el problema con el modelo descrito es triple. Por un lado, resulta que no es robusto a la consideración de otros supuestos menos estilizados sobre el comportamiento de los agentes o sobre la red social que modela su interacción. Si, por ejemplo, la información que los individuos tienen de su entorno rebasa en alguna medida la que concierne a aquéllos con los que interaccionan (es decir, si el rango espacial de su información es mayor que el de su interacción), el resultado deja de ser cierto. Por otro lado, la misma conclusión se sigue si la red social tiene una arquitectura más compleja que la del anillo, y presenta características análogas a las que se observan empíricamente (asimetrías en conectividad, centralidad, clustering, etc.). De hecho, un segundo problema con el modelo de Eshel et al. es de naturaleza empírica: recientes experimentos realizados en poblaciones que interaccionan a través del dilema del prisionero en redes fijas (Gracia-Lázaro et al. (2012)) muestran que la cooperación en redes fijas no consigue mantenerse a niveles significativamente altos cuando la interaccón se repite sucesivamente (con la misma población en posiciones fijas). Por tanto, razones de distinta índole, tanto teóricas como empíricas, llevan a plantearse si, efectivamente, un modelo con redes fijas es un buen modelo para el estudio de la cooperación en grandes poblaciones. Para abordar estos problemas, se ha desarrollado una literatura reciente que enriquece el marco teórico admitiendo que la red social misma sea el resultado de un proceso endógeno. En este enfoque, el supuesto es que los agentes determinan de manera conjunta tanto su comportamiento como sus contactos, conformando un proceso de co-evolución que modela el problema de manera mucho más realista y efectiva. La literatura que ha adoptado esta perspectiva coevolutiva es muy amplia y diversa. A modo de ilustración, cerramos nuestra discusión en esta sección con dos artículos representativos. En el primero de ellos, Eguíluz et al. (2005), una población se empareja según una red que se ajusta a lo largo del tiempo junto con las acciones elegidas por los agentes de la siguiente forma. Por un lado, en cada periodo, cada agente imita la acción que ha generado un mayor pago entre sus vecinos. Por otra parte, con una cierta probabilidad p ∈ [0, 1], cada agente destruye el enlace que le conecta al 18 RdF • 28-3 • Julio-septiembre 2014 individuo que ha imitado si éste era un oportunista —en ese caso, crea un nuevo enlace con otro agente aleatoriamente elegido en la población. Naturalmente, la evolución a largo plazo del proceso depende crucialmente de la probabilidad p considerada. Si es positiva, incluso pequeña (e.g. 1 %), los autores muestran que la fracción de agentes cooperativos en el largo plazo alcanza valores superiores al 80 %. Por el contrario, si p = 0, la proporción cae por debajo del 5 % siempre y cuando las ganancias derivadas de un comportamiento oportunista sean suficientemente altas. Es interesante también mencionar que la red que surge endógenamente para sostener una configuración cooperativa como la indicada tiene una estructura bien definida. Grosso modo, la red se organiza jerárquicamente. Por un lado, cuenta con un núcleo de agentes cooperativos densamente rodeados de otros igualmente cooperativos (y que, por tanto, disfrutan de unos pagos altos). Por otro lado, a este núcleo se conecta una interfaz de agentes cooperativos cuyos vecinos son heterógeneos y pertenecen tanto al núcleo cooperativo como, en un tercer nivel, a una “capa” periférica de agentes oportunistas. El segundo artículo, Fosco y Mengel (2011), estudia también un proceso dinámico conjunto de la red y las acciones de los agentes, pero incluye características específicas muy interesantes. Así, una primera es la distinción entre el “radio de información” (que incluye a los agentes susceptibles de ser imitados) y el “radio de interacción” (que engloba a los agentes con los que se juega el dilema del prisionero). Otro rasgo importante del modelo es que los nuevos enlaces se establecen localmente, en función de las información que los agentes tienen de su entorno en la red. Se supone, en concreto, que esta información les lleva a formar conjeturas sobre qué agentes, entre los que se encuentran próximos, les pueden reportar los mayores pagos si se conectaran a ellos. Combinando la dinámica descrita sobre la red con otra de imitación (también local) que gobierna las acciones, se conforma un proceso co-evolutivo de acciones y enlaces, que se supone también sometido a perturbaciones (“mutaciones”) muy ocasionales. El análisis se centra, por tanto, en el comportamiento a largo plazo del sistema cuando la perturbación mencionada es muy pequeña —formalmente, cuando su probabilidad tiende a cero—. La conclusión fundamental, analíticamente obtenida, es que no sólo la población es capaz de sostener asintóticamente un grado de cooperación sustancial sino que la manera en que lo consigue depende del tamaño relativo de los radios de información e interacción. Si el primero es mayor que el segundo, la consiguiente riqueza de información con la que cuentan los agentes conlleva una segmentación en dos componentes disjuntos —uno compuesto por los agentes cooperativos y otro que incluye a los oportunistas—. En contraste, si los dos radios —de información e Antonio Cabrales y Fernando Vega-Redondo • Sociofísica interacción— coinciden, entonces la red mantiene una sola componente, pero los oportunistas son relegados/marginalizados a su periferia. En conclusión, podemos resumir lo explicado más arriba de la manera siguiente. Cuando la red social cambia endógenamente (es decir, coevoluciona) junto con las acciones mismas, su arquitectura se configura para sostener un nivel de cooperación que no sería posible mantener (de manera robusta) cuando la red social se supone fija. Esta permanente adaptación de la red se cimenta sobre las propias decisiones de (des-) conexión de los individuos, cuyo objetivo es optimizar sus pagos, dada la información (local, mayor o menor) de que disponen. Esta información es una componente crucial del proceso, y afecta de manera significativa las características de la red social que prevalece en el largo plazo, algo para lo cual los experimentos de Rand, Arbesman, Christakis (2011), o Wang, Suri y Watts (2012) proveen de apoyo empírico. La estructura de la red, en cualquier caso, presenta rasgos que (en contraste, por ejemplo, con el modelo de Eshel, Samuelson, y Shaked (1998)) son robustos y coinciden con los que se observan frecuentemente en contextos sociales (véase Easley y Kleinberg [2010]). Formación de redes financieras y contagio sistémico Tal como hemos avanzado, en esta sección veremos unos cuantos ejemplos de modelos recientes que ilustran el tipo de tensiones que aparecen en redes de diversificación y riesgo (financieras, por ejemplo) y sus concecuencias sobre el bienestar social. Los tres modelos tienen algunos aspectos comunes, pero también idiosincrasias propias y por esto resulta interesante presentar los tres. Una vez presentemos los tres modelos, esbozaremos algunos aspectos manifiestamente mejorables de los mismos y posibles líneas de progreso. Blume, Easley, Kleinberg, Kleinberg y Tardos (2011) Este modelo es el más estilizado y el que abstrae más los motivos para la estructura de relaciones que une a los miembros de la red. En concreto, postula la existencia de un conjunto de jugadores V, que forman entre sí relaciones bilaterales, las cuales dan lugar a un grafo no dirigido G. Cada jugador recibe un pago a > 0 por todas las relaciones en las que participa (y se supone que existe una cota superior para el número de relaciones en las que puede participar). Una vez se forma el grafo, cada nodo quiebra con una probabilidad q, independiente entre nodos, y cada nodo quebrado tiene una probabilidad p de hacer que sus vecinos también quiebren. Los nodos que quiebran inicialmente son la raíz de una cascada, y un nodo puede quebrar bien directamente por ser la raíz, o por estar en cualquier camino a través del cual todos los nodos han sido infectados por un vecino. El pago en caso de quiebra es −b. Por tanto, si llamamos di al grado del nodo i, y ϕi a su probabilidad de quebrar, teniendo en cuenta todos los posibles caminos por los que puede llegar el contagio, más la quiebra directa, el pago de un nodo i es: πi = adi (1 − ϕi) − bϕi = adi − (b + adi) ϕi Teniendo en cuenta estos pagos, los resultados de un jugador dependen únicamente de su posición en el grafo, por lo que la estrategia de los agentes tiene que ver únicamente con la formación de la red. Los agentes proponen relaciones bilaterales a todos los agentes con los que quieren estar ligados, y los vínculos se crean si los dos afectados la proponen. Como es habitual en este tipo de problemas, el uso de conceptos estándar de equilibrio es problemático, por la multiplicidad de equilibrios que suelen presentar. En su forma más trivial este fenómeno se expresa en que los agentes pueden no proponer formar enlaces porque no tiene sentido hacerlo si se piensa que el otro no va a proponerlo al mismo tiempo. Este problema además se complica enormemente cuando hay muchos agentes en la red, porque los posibles fallos de coordinación son inmensos. En este caso la solución adoptada por los autores es proponer un concepto de equilibrio relativamente conservador (es decir, que elimina solamente equilibrios no robustos a desviaciones muy simples). En concreto, se propone enfocarse en las redes denominadas estratégicamente estables. Formalmente, una red es estratégicamente estable si (i) ningún nodo puede aumentar sus pagos borrando todos los enlaces incidentes (por tanto, apartándose de la red), y (ii) no existe un par de nodos (i; j) tal que ij no es un enlace de G (gij = 0) pero tanto i como j tendrían pagos al menos igual de elevados, y al menos uno de ellos sería estrictamente mayor si el enlace perteneciera al grafo (gij = 1). La abstracción del modelo hace muy transparente el problema de formación de redes en este caso. Los individuos a la hora de proponer enlaces tienen que sopesar que un nuevo enlace aumenta los ingresos en a si no hay contagio, pero añaden algunos caminos más para que este suceda y en ese pierdan los ingresos a y además incurran en la pérdida −b. Sin embargo, no tienen en cuenta que al crear el enlace no aumentan los ingresos de terceros no implicados directamente en él, pero sí aumentan los caminos por los que este contagio puede llegar. Y por esto no es sorprendente que uno de los resultados principales del modelo es que el óptimo social (es decir, el resultado que maximiza una función que agrega las utilidades esperadas de todos los participantes, algo que en este modelo coincide con minimizar las quiebras) se produce un poco antes de alcanzar una transición de fase que controla cómo se propagan las quiebras, mientras que los gráficos estables se RdF • 28-3 • Julio-septiembre 2014 19 Sociofísica • ¿Puede sobrevivir el homo oeconomicus en una red compleja?: Guía para principiantes encuentran más allá de esa transición de fase en un punto donde la mayoría del bienestar social ha sido destruido. Es decir, aunque las diferencias de comportamiento entre el óptimo social y el equilibrio son pequeñas, las diferencias de bienestar son muy grandes, porque ocurren cerca de una transición de fase. Aunque este modelo es muy útil para comprender los mecanismos del contagio y la tensión entre optimalidad individual y social, tiene menos detalle económico del deseable para tener confianza en que el mecanismo es relevante. Los siguientes modelos presentan dos maneras alternativas (aunque relacionadas) de mitigar este problema. Cabrales, Gottardi y Vega-Redondo (2013) En este modelo hay N empresas idénticas ex ante, y neutrales frente al riesgo, y un continuo de pequeños inversores. Cada empresa gestiona un proyecto productivo que requiere una inversión inicial I > 0 ∼ que da un retorno R aleatorio al final del periodo. Para pagar esta inversión los gestores tienen que obtener recursos emitiendo pasivos (bonos o depósitos), que obligan a pagar un retorno determinista ∼ al final del periodo, que llamamos M. Dado que R está sujeto a choques aleatorios, cuando la empresa sufre uno de estos choques puede ser incapaz de pagar las obligaciones derivadas de los pasivos y debe suspender pagos, lo que supone una pérdida de los retornos futuros que esta inversión podría generar. Esta tensión entre dificultades de liquidez temporal y retornos futuros es lo que causa pérdidas de bienestar en este tipo de modelos (y en la realidad). Un poco más precisamente, el retorno bruto de la empresa si no hay un choque (algo que tiene una probabilidad q) es el nivel “normal” R. Cuando se produce un choque, el retorno es R − L y la pérdida (L) tiene una distribución acumulada Φ(L). Las empresas se pueden beneficiar de entrar en acuerdos con otras empresas para diversificar riesgos. El acuerdo que se considera en este artículo es el intercambio de activos, es decir cada empresa cede un porcentaje 1 − α de sus acciones antes de que se realice la incertidumbre, y lo intercambia por acciones de otras empresas de igual valor. Este intercambio hace que el choque recibido por una empresa sea soportado por ésta solamente de manera parcial. A su vez, esto genera la exposición de una empresa a los choques recibidos por otras. El patrón de intercambio (que puede ser repetido, de manera que hay exposiciones directas e indirectas) entre empresas se puede formalizar como una red pesada, que se puede representar como una matriz A, definida como sigue: ... .. ... . ... ⎧a11 a12 . . . a1N a a22 . . . a2N A = ⎪ 21 ⎪ . . . a a aNN ⎩ N1 N2 20 RdF • 28-3 • Julio-septiembre 2014 ⎫ ⎪ ⎪ ⎭ donde para cada i, j,(i ≠ j), aij ≥ 0 denota la fracción de la empresa i en el proyecto de inversión gestionado por la empresa j. Por construcción se N debe satisfacer: ∑i=1 aij = 1, j = 1, 2…, N. Por tanto, cuando un choque L golpea a la empresa i, la exposición al mismo de las empresas del sistema viene dado por AeiL, donde ei es un vector unitario en la componente i. En ese caso la empresa i suspende pagos en respuesta al choque si α(R − L) + ∑ aijR < M, esto es, αL > R − M, j≠i mientras que la empresa k ≠ i suspende pagos si ⎧α + ∑ akj⎧R + aki (R − L) < M. ⎩ j≠i,k ⎩ El artículo estudia primero cómo depende el bienestar social de la estructura de la red, con particular atención a dos dimensiones: el tamaño de los componentes disjuntos, y la densidad relativa de los componentes. A grandes rasgos, cuando la distribución de probabilidad coloca una masa de probabilidad lo suficientemente alta en valores pequeños de los choques (“colas delgadas”), la mejor configuración es que todas las empresas pertenezcan a una componente completamente conectada. El objetivo principal en este caso es conseguir el mayor nivel de riesgo compartido. En el caso opuesto, en el que la distribución de probabilidad de los choques exhibe “colas gruesas” (es decir, hay una gran masa de probabilidad concentrada en choques grandes), la configuración optima implica un grado «máximo de segmentación (es decir, las componentes deben ser de mínimo tamaño posible). Esto refleja una situación en la que la prioridad es reducir al mínimo el contagio. Estos dos casos extremos, sin embargo, no agotan todas las posibilidades. Para especificaciones más complejas de la estructura de choque (por ejemplo, mezclas de colas delgadas y gruesas) son óptimas configuraciones intermedias. En cuanto a la heterogeneidad, la principal conclusión es que ésta tiende a favorecer el emparejamiento asortativo, es decir, las empresas que se enfrentan las distribuciones de choques similares deben agruparse. Eso significa, en la práctica, que algunas actividades deben ser aisladas de otras; por ejemplo, separando las actividades de banca comercial de las de banca de inversión. Como hemos dicho anteriormente, es habitual que exista un conflicto entre la eficiencia y las decisiones individuales. Y por esto el artículo estudia también si los requisitos para la optimalidad de la estructura de red del sistema son compatibles con los incentivos de las empresas individuales para establecer enlaces. En este caso se analiza la cuestión mediante el examen de los equilibrios a prueba de coaliciones (CPE, por sus siglas en inglés), en la que cualquier grupo (es decir, cualquier coalición) de empresas se puede desviar de forma Antonio Cabrales y Fernando Vega-Redondo • Sociofísica conjunta. En este caso no hay problemas dentro de cada grupo específico, donde los incentivos individuales se conjugan bien con los del grupo total, porque todos tienen las mismas preferencias respecto al tamaño. La dificultad en este caso viene de que una vez alcanzado el tamaño óptimo desde el punto de vista del grupo, sus miembros no tienen en cuenta que la reducción total del riesgo por invitar a un miembro más puede ser mayor que la suma de los impactos en los miembros actuales del grupo. Y, por tanto, en general los CPE’s tienen empresas que se encuentran en componentes ineficientemente pequeñas. Una investigación posterior (Loepfe, Cabrales y Sánchez 2013) amplía significativamente los resultados, explorando mediante simulaciones otros tipos más variados de estructuras de red, con heterogeneidades en el grado de los nodos y en su tamaño, lo que permite evaluar por ejemplo el efecto del nivel de capitalización, mucho más allá de lo que se podía hacer con el enfoque puramente analítico. Por tanto, se puede decir que las conclusiones son robustas en varias dimensiones importantes. Acemoglu, Ozdaglar y Tahbaz-Salehi (2013) Este artículo comparte con el anterior un modelo en el que las empresas necesitan inversores externos, o préstamos de otras empresas, para acometer proyectos de inversión duraderos, y estos proyectos de inversión sufren choques aleatorios de liquidez temporales, que pueden impedir satisfacer los pagos a los inversores y obligar a una suspensión de pagos frente a terceros. Como veremos, también hay en este modelo una tensión entre optimalidad social e incentivos individuales en la creación de las redes empresariales, pero la naturaleza de los mismos es diferente, por las importantes diferencias en la modelización en algunos aspectos clave. Una diferencia importante procede de un supuesto que restringe las posibles inversiones a una red subyacente. Es decir, una empresa no puede invertir en cualquier otra, sino que hay unas “oportunidades de inversión” que restringen esas posibilidades. Esta restricción se debe, por ejemplo, a problemas de información (no sería razonable invertir en sectores sobre los que los directivos de la empresa no conocen nada). Más formalmente, cada empresa j puede decidir una cantidad a prestar a la empresa k (que se denota como ljk), pero se supone que para algunos pares jk, ljk = 0, de manera exógena. Como consecuencia de las asimetrías potenciales que genera esta red subyacente, no hay intercambios de activos, como en el artículo anterior, sino contratos bilaterales entre empresas que especifican para cada par de las mismas las condiciones de devolución de los préstamos. Cada empresa anuncia un conjunto de contratos Ri = (Ri1, ..., Rin) en el que Rij (lj1, ..., ljn) es una función que especifica, para las decisiones de préstamos de j a cada empresa, el tipo de interés que i le ofrece a j para concederle un préstamos. Esta condicionalidad de los préstamos de i a las decisiones de j se explica porque los préstamos ljk tienen impacto en la probabilidad de que j no pueda atender a sus obligaciones respecto a i, y por tanto los tipos de interés que se le carguen deberán tenerlo en cuenta. La red que se crea como consecuencia de estas decisiones crediticias tiene después consecuencias para la estabilidad de todo el sistema, porque aunque la condicionalidad de los préstamos de i a las decisiones de j mitiga algo los efectos externos causados por las decisiones de vecinos directos, hay efectos indirectos que resultan más difíciles de controlar. Entre los resultados destaca que, como en el artículo anterior, la probabilidad de los choques grandes es importante para determinar si las redes tienen que ser muy grandes o estar muy conectadas, tanto desde el punto de vista individual, como desde el de la eficiencia colectiva. Pero en términos de la estructura final de la red las conclusiones son notablemente diferentes. Dado que la red subyacente es en principio arbitraria, hay una variedad inmensa de estructuras de negocio posibles por lo que el artículo se limita a mostrar los orígenes de la discrepancia entre eficiencia y equilibrio, y a apuntar varias formas distintas que pueden adoptar éstas. Un primer resultado en esta línea demuestra que si solamente hay tres empresas, que están restringidas a organizarse en una cadena, y solamente la primera está expuesta a choques, la cadena de préstamos se forma en equilibrio, si y solamente si, esto es eficiente. La razón de que en este caso no haya discrepancias entre eficiencia y equilibrio es que las condiciones de los préstamos de la empresa 3 a la 2 hacen que 2 tenga en cuenta que hacer un préstamo a 1 tiene consecuencias sobre la solvencia de 3, y solamente lo va a hacer si el coste extra de la financiación de 2 compensa el riesgo extra incurrido por 3 a través de 1. El siguiente resultado muestra que con más de tres empresas puede darse un exceso de conexiones. Esto tiene lugar en un entorno en el que las conexiones posibles tienen forma de círculo (la empresa 1 puede prestar solamente a la 2, la 2 sólo a la 3,... y la n sólo puede prestar a la 1). Los autores prueban que hay un rango de parámetros para los que el círculo efectivamente se forma en equilibrio, pero que este equilibrio no es socialmente eficiente. El problema es que aunque la empresa 1 puede “disciplinar” a la 2 para que no haga préstamos excesivos a 3, no tiene manera de impedir que otras, más alejadas en la cadena, efectúen esos préstamos, y éstas no internalizan su efecto en la solvencia de 1. Pero las posibles ineficiencias no acaban ahí. También es posible probar para otro tipo de estructura que las redes de equilibrio están infraconectadas. Por ejemplo, esto puede pasar en un RdF • 28-3 • Julio-septiembre 2014 21 Sociofísica • ¿Puede sobrevivir el homo oeconomicus en una red compleja?: Guía para principiantes entorno en el que las conexiones posibles forman un doble círculo (la empresa 1 puede prestar a la 3 y la 4, a las que también puede prestar la empresa 2; las empresa 3 y la 4, a la 5 y la 6;... y las empresas n − 1y n, a la 1 y la 2). En este entorno se demuestra que para algunos valores de los parámetros es eficiente que se forme un doble círculo, y sin embargo en equilibrio solamente se forma un círculo con las empresas pares, y otro con las impares. En este caso, las empresas no tienen en cuenta que su diversificación crediticia disminuye su probabilidad de quiebra y esto a su vez mejora la solvencia de terceras empresas no implicadas en la transacción. Limitaciones y extensiones Aunque los modelos anteriores son útiles para avanzar en nuestra comprensión de los problemas generados por los efectos externos de creación de redes empresariales, tienen algunas limitaciones. Desde nuestro punto de vista, la más importante es que, en su estado actual, no tienen mecanismos para reproducir las redes financieras reales. Como se puede ver, por ejemplo, en Battiston et al. (2012), o Denbee et al. (2011), las redes empresariales en el mundo real tienen estructuras con características muy concretas. Y, sin embargo, Blume et al. (2011) estudian redes aleatorias, Cabrales, Gottardi, y Vega-Redondo (2013) redes simétricas (Loepfe, Cabrales, y Sánchez 2013, estudia redes asimétricas, pero no en términos de creación de red), y las asimetrías en Acemoglu, Ozdaglar y Tahbaz-Salehi (2013), surgen solamente como consecuencia de restricciones exógenas. Es posible que para conseguir modelos con resultados más realistas haya que estudiar aspectos diferentes en la creación de redes. Por ejemplo, estos modelos abstraen de problemas informacionales, que seguramente son cruciales para la banca tanto comercial como de inversión, y además sabemos por el trabajo de Guimerà et al. (2002) que los problemas de flujos informativos pueden dar lugar a redes empresariales muy polarizadas. Otro problema adicional es que todos los modelos discutidos son esencialmente estáticos y convendría estudiar extensiones dinámicas. Algo que complica esa extensión es que los economistas suelen insistir en que si el problema es explícitamente dinámico los agentes tomen decisiones que sean óptimas en ese contexto, lo cual obliga a utilizar herramientas de optimización dinámica. Esto hace que el análisis, ya de por sí difícil de un sistema complejo, dé lugar a un desafío analítico y computacional. Este aspecto dinámico (y las dificultades asociadas al mismo) es probablemente uno de los que se beneficiaría en mayor medida de la fertilización cruzada entre la física y la economía. References [1] D. A. Acemoglu y A. Tahbaz-Salehi, “Systemic Risk and Stability in Financial Networks”, mimeo (2013). 22 RdF • 28-3 • Julio-septiembre 2014 [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] S. Battiston, M. Puliga, R. Kaushik, P. Tasca y G. Caldarelli, Scientific Reports 2, 541 (2012). Blume, L., D. Easley, J. Kleinberg, R. Kleinberg y E. Tardos, Proc. 12th ACM Conference on Electronic Commerce (2011). A. Cabrales, P. Gottardi y F. Vega-Redondo, UC3M Working papers Economics 13 (2013). E. Denbee, C. Julliard, Y. Li y K. Yuan, mimeo (2011). D. Easley y J. Kleinberg, Networks, Crowds, and Markets (Cambridge University Press, Cambridge, 2010). V. M. Eguíluz, M. Zimmermann, C. J. Cela-Conde, y M. San Miguel, American Journal of Sociology 110, 977-1008 (2005). I. Eshel, L. Samuelson, y A. Shaked, American Economic Review 88,157ˆae“179 (1998). C. Fosco y F. Mengel, Journal of Economic Dynamics and Control 35, 641-658 (2011). D. Fudenberg y D. K. Levine, Theory of Learning in Games (Cambridge MA: MIT Press, 1998). S. Goyal, Connections: An Introduction to the Economics of Networks (Princeton University Press, Princeton, 2007). C. Gracia-Lázaro, A. Ferrer, G. Ruiz, A. Tarancón, J. A. Cuesta, A. Sánchez, y Yamir Moreno, Proceedings of the National Academy of Sciences of the USA, 109: 12922ˆae“12926 (2012). R. Guimerà, A. Díaz-Guilera, F. Vega-Redondo, A. Cabrales y A. Arenas, Physical Review Letters 89(24):248701 (2002). M. O. Jackson, Social and Economic Networks (Princeton University Press, Princeton, 2009). Loepfe, L., A. Cabrales, y A. Sánchez, PLoS ONE, 8: Artículo número: e77526 doi:10.1371/journal. pone.0077526 (2013). Rand, D. G., S. Arbesman, y N. A. Christakis, Proceedings of the National Academy of Sciences of the USA, 108, 19193– 19198 (2011). F. Vega Redondo, Evolution, Games and Economic Behavior (Oxford University Press, Oxford, 1996). F. Vega-Redondo, Complex Social Networks, Econometric Society Monograph Series (Cambridge University Press, Cambridge, 2007). Wang J., S. Suri y D.J. Watts, Proceedings of the National Academy of Sciences of the USA, 109, 14363-14368 (2012). Economía Artificial Métodos de inspiración social en la resolución de problemas complejos La complejidad de la Economía exige un paradigma nuevo y complementario: Modelado basado en agentes A los lectores sin conocimientos de Economía les resultará sorprendente el escaso valor práctico de los modelos económicos para guiar a los responsables de tomar decisiones de políticas de empresa, de un país o de una región. Las predicciones de uno de los tipos de modelos, los econométricos con inferencia estadística desde datos históricos (sin teoría VAR o desde ecuaciones estructurales), son muy dispares excepto en el muy corto plazo. El otro, basado en el equilibrio general dinámico y estocástico utilizado por bancos y agencias gubernamentales [1, 2], ha resultado inútil para explicar la crisis actual, recurriéndose a recomendaciones por analogía histórica o relatos cualitativos verbales. En cuanto a los modelos de crecimiento, señalar que, después de considerar la contribución de los distintos factores productivos, queda a largo plazo un residuo por explicar no menor del 30 %, que podemos interpretar como una “medida de nuestra ignorancia” [3]. El rigor de los modelos de crecimiento se quiebra para explicar este residuo, dando paso también a explicaciones verbales. ¿Por qué esta situación? Porque el rigor formal de estos modelos sacrifica las características de los agentes, que son de racionalidad limitada, estratégicos y heterogéneos. Porque en la generación de riqueza no sólo hay que considerar los factores tangibles de producción, sino los intangibles: externalidades, organización del intercambio, rutinas organizativas, inteligencia colectiva, capacidad directiva, capacidad de emprender y la palanca institucional. En resumen, porque la dimensión social de la Economía le confiere una complejidad que escapa a los métodos constructivistas, axiomáticos del formalismo matemático. “Se necesita una nueva aproximación con métodos diferentes y también criterios diferentes que sea aceptable… el pensamiento económico necesita dirigirse a cuestiones que plantea el mundo real más que simplemente a crear más ecuaciones matemáticas” [4]. Esa nueva aproximación es la de la Economía Experimental (EE), desarrollada en los últimos cincuenta años, y su extensión, la Economía Artificial (EA) con agentes software (Modelos Basados en Agentes, ABM). Lo que caracteriza esta forma de modelar (ABM) es la representación explícita en un modelo de las entidades y las interacciones en un sistema como elementos individuales (agentes) e interacciones entre ellos, típicamente con el objetivo de entender los comportamientos globales que se producen a partir de estas unidades constituyentes [5]. Es precisamente este tipo de modelado uno de los aspectos que ha despertado el interés de la Física Estadística, con gran tradición en el estudio de fenómenos colectivos a partir de la interacción de elementos individuales, en las Ciencias Sociales. Dependiendo del caso de estudio, los agentes se representan con una intencionada simplicidad, y muchas metodologías comunes de la Física resultan de utilidad contribuyendo a entender en estos contextos diferentes patrones y comportamientos agregados [6]. En otros casos, los agentes incluyen aspectos de mayor complejidad como incentivos, aprendizaje, confianza, reputación, intencionalidad y un largo etcétera. El análisis y la interpretación de los comportamientos emergentes en estas situaciones suponen un importante desafío científico, frecuentemente interdisciplinar. En [7, 8] se exponen argumentos en favor de ABM en Economía que complementan los anteriores y los que hacemos a continuación. Heterogeneidad El hombre es el único ser vivo capaz de transformar su mundo de una forma consciente. Esta capacidad transformadora conduce a la especialización y a la variedad. Las diferencias entre capacidades del individuo con su entorno se ven potenciadas a su vez por el intercambio, la otra facultad genuina del hombre. Especialización e intercambio constituyen el generador de riqueza, como ya señalara A. Smith y su amigo D. Hume. De modo que la esencia de la actividad económica reside en la heterogeneidad individual de los agentes y en su capacidad de intercambio. Los resultados de la EE. “La Ley de la Inteligencia Colectiva” En uno de los primeros experimentos de intercambio realizados por Chamberlin, estudiantes que desconocían el modelo de mercado se dividían en un grupo de compradores que recibía una cartulina con su precio de reserva, extraído aleatoriamente de una demanda, y otro grupo, vendedores, que recibía cartulinas con el coste marginal o coste de producción, extraído aleatoriamente de una curva de oferta. Sin RdF • 28-3 • Julio-septiembre 2014 23 Sociofísica • Economía Artificial. Métodos de inspiración social en la resolución de problemas complejos mostrar la cifra de sus cartulinas, compradores y vendedores negociaban su compraventa, vis a vis. El resultado no mostraba estabilidad de precios y cantidades intercambiadas. V. Smith [9] rediseña el experimento. Todas las ofertas y pujas se hacen públicas en un tablón (o a gritos) y además el experimento se repite varias veces con los mismos participantes. Estas modificaciones de la institución introducen aprendizaje en los participantes y conducen al equilibrio que predice el mercado de forma rápida y precisa. El mercado resulta ser una heurística de inspiración social y resuelve problemas de escasez y elección entre múltiples agentes: inteligencia colectiva. ¿Qué nos indican estos resultados? a) Sobre la racionalidad individual. Los individuos toman decisiones de forma racional (racionalidad procedimental) pero también de forma fast and frugal (racionalidad sustantiva) de Simon [10], López et al. [11], Gigerenzer y Selten [12]. b) Sobre la racionalidad colectiva. El sistema, la subasta doble continua (CDA de su acrónimo en inglés), exhibe equilibrio e inteligencia colectiva. Racionalidad constructiva (la que conlleva el modelo de mercado competitivo de nuestros libros de Economía) y ecológica (social), la que resulta del experimento. La primera encuentra el equilibrio resolviendo el artefacto de oferta y demanda y asumiendo que hay equilibrio. La segunda genera equilibrio desde el comportamiento de los agentes y las reglas institucionales, verificando la dinámica social del intercambio: micro-motivos del mercado [13]. La buena nueva que nos traen la EE y la EA es que la complejidad social del intercambio impersonal (no tanto del personal) no sólo es abordable sino exportable a la resolución de problemas nphard (complejidad computacional): constituye la base de un conjunto de métodos de inspiración socioeconómica (la sabiduría de las masas), más allá de las heurísticas de inspiración biológica (redes neuronales, algoritmos y lógica genética). Y lo hace con gran valor práctico en el mundo de la gestión de empresa: métodos predictivos [14], gestión del conocimiento, selección de ideas y nuevos productos, marketing, gestión de riesgos y problemas de asignación de recursos, aspecto que ilustramos en este artículo. Economía artificial en la subasta doble continua Para ilustrar los avances de la EA nos centraremos en la CDA, porque, siendo una de las instituciones de mercado más frecuente en mercados reales, ha sido muy estudiada, tanto desde el punto de vista experimental como computacional. Sus resultados con humanos muestran una eficiencia altísima y una convergencia al precio de equilibrio muy rápida. Además, la CDA resulta especialmente interesante para ejemplificar la influencia de fijar la 24 RdF • 28-3 • Julio-septiembre 2014 Institución dentro del marco conceptual, comportamiento de los Agentes-Institución-Entorno (A, I, E) que define cualquier mercado [15]. La I hace referencia a las reglas de intercambio y a cómo se cierran los contratos; la E incluye los recursos, conocimientos y valores propios de los agentes; la A, el comportamiento propio de los agentes que operan en el mercado. La CDA incluye dos tipos de agentes en el mercado, los compradores y los vendedores. Cuando se modela este tipo de subasta se asume que cada uno de los agentes vendedores posee una unidad de un bien que se considera indistinguible del bien que poseen los otros. Los compradores desean obtener cada uno una unidad del bien con el que se comercia en el mercado. Las decisiones de los compradores y de los vendedores dependen de ciertos valores privados e individuales de cada agente. Cada comprador tiene un precio de reserva r conocido por él, de acuerdo a una función de demanda desconocida para los participantes de la subasta. El precio de reserva representa el valor, medido en términos monetarios, que recibiría el comprador si obtuviese el bien. El beneficio alcanzado por un comprador que consigue una unidad del bien a un precio p será consecuentemente r-p. Análogamente, cada agente vendedor asume que tiene un coste c asociado a la obtención del bien que posee. El beneficio que obtendría el vendedor que consigue comerciar con el bien a un precio p en la subasta sería por tanto p-c. Desde el punto de vista de la institución, la subasta funciona de la siguiente forma: Cualquier comprador puede enviar una puja por una unidad del bien, sin más que identificarse y ofrecer un precio. Cualquier otro comprador puede subir ese precio. De forma equivalente, cada vendedor puede hacer una oferta identificándose y estableciendo su precio de venta. Cualquier otro vendedor puede mejorar la oferta estableciendo un precio menor. Si las pujas y ofertas se emparejan o cruzan, la transacción tiene lugar y ambos, comprador y vendedor, abandonan el mercado anulando todas las ofertas o pujas que hubiesen tenido lugar hasta el momento. En el caso de que puja y oferta se emparejen, el precio al que se produce la transacción será precisamente la coincidencia. Por el contrario, si en el proceso ambos precios no casan exactamente, sino que se cruzan, entonces el precio de transacción será igual al primero de los dos al que se hubiese producido. Después de esto, la subasta continúa con los agentes restantes. El proceso se repite durante varias rondas de una duración establecida. Uno de los resultados pioneros en EA sobre CDA es el llevado a cabo por Gode y Sander [16, 17]. En su trabajo analizaron el comportamiento de la institución cuando los agentes que participan tienen el mínimo posible de inteligencia para participar en ella. Crearon una subasta artificial Cesáreo Hernández, José Manuel Galán, Adolfo López-Paredes y Ricardo del Olmo • Sociofísica (simétrica) regida por las reglas de la CDA e incluyeron agentes software zero-intelligence (agentes ZI-C) sujetos a una restricción presupuestaria. El funcionamiento básico de estos agentes consiste en que cada cierto tiempo un agente comprador o vendedor de forma aleatoria realiza una puja o una oferta. Un vendedor propone un precio entre su coste y un valor máximo (típicamente el máximo valor de reserva del mercado) siguiendo una distribución uniforme. Los compradores, por el contrario, realizan sus pujas eligiendo valores de forma aleatoria entre su precio de reserva y cero. Estas restricciones se incluyen para eliminar la posibilidad de que los agentes incurran en pérdidas. Durante la dinámica del proceso, cada comprador compara su puja con el estado actual del mercado. Si la puja es mayor que la mejor oferta hasta el momento (la más baja), entonces acepta esa oferta y la transacción del bien ocurre al precio fijado y la subasta continúa en una nueva iteración. Si la puja del comprador está por debajo de la mejor oferta o si no ha habido ninguna oferta todavía pero la nueva puja está por encima de la mejor puja hasta el momento, entonces la puja se convierte en la mejor puja en el mercado. En cualquier otro caso y siguiendo las reglas de la subasta, el agente no lanza ninguna puja al mercado. El proceso es análogo en el caso de los vendedores. Si definimos eficiencia de asignación del mercado como el beneficio total de todos los agentes del mercado dividido entre el máximo beneficio total que se podría haber obtenido [18], la eficiencia de estas subastas jugadas por agentes ZI-C era cercana al 100 %. Las conclusiones del trabajo resultan tremendamente sugerentes. La disciplina impuesta por la institución potencia la mano invisible de Adam Smith y puede generar racionalidad agregada o colectiva, no sólo desde la racionalidad individual, sino también desde comportamientos poco inteligentes a escala individual. No es necesario aprendizaje, inteligencia o búsqueda de beneficio para obtener resultados de distribución globalmente eficientes. Sin embargo, pese a que la eficiencia del mercado es muy robusta al comportamiento individual, Cliff y Bruten [19] demostraron que la convergencia al precio de equilibrio observada experimentalmente con humanos es más exigente en términos de comportamiento individual. Estos autores desarrollaron los agentes Zero-Intelligence-Plus (ZIP) en un intento de identificar los mecanismos mínimos de complejidad para explicar el comportamiento humano en mercados sencillos. Para ello, diseñaron agentes que se comportan de forma adaptativa, modificando el margen de beneficio en función de la información sobre las transacciones que se han producido en el ciclo anterior de intercambio. Posteriores trabajos [20] desarrollaron modelos de selección de estrategias para la CDA en el que los agentes software forman creencias a partir de los datos del mercado, tanto de precios de pujas y ofertas como de las frecuencias de ocurrencia. Los agentes entonces eligen la acción que en función de los datos maximiza el beneficio esperado: son los agentes Gjerstad y Dickhaut (GD). Los resultados muestran una rápida convergencia y máxima eficiencia. De forma muy interesante y probablemente inspirados por los famosos torneos computacionales de Axelrod en el dilema del prisionero repetido [21], investigadores en Santa Fe propusieron una serie de torneos en los que agentes computacionales enviados por los participantes tomaban el rol de compradores y vendedores en una CDA simplificada [22]. Sus resultados mostraron convergencia al equilibrio competitivo y una eficiencia cercana al máximo. Sin embargo, a nivel individual, una sencilla estrategia, el agente Kaplan, era capaz de batir a algoritmos mucho más sofisticados en términos de reglas de aprendizaje y uso de la información. Este agente, diseñado por Kaplan de la Universidad de Minnesota, posee un algoritmo simple, no adaptativo, no predictivo, no estocástico y no optimizador. Se trata de un agente que tiene un comportamiento parásito, en el sentido de que espera sin hacer pujas ni ofertas, deja que otros hagan la negociación, y solamente cuando los precios de puja y oferta se acerquen, salta y roba el trato aceptando una orden que le resulte interesante. En el caso de compradores, estos agentes sólo hacen pujas para aceptar una oferta existente, cuando la fracción de tiempo para acabar la ronda es menor que un tiempo determinado, i. e. el tiempo se acaba; o cuando la mejor oferta sea menor que el mínimo precio al que se negoció en la ronda anterior, i. e. la oferta es jugosa; o bien cuando la mejor oferta es menor que el máximo al que se negoció en la ronda anterior y el ratio de la diferencia entre puja-oferta y la mejor oferta es menor que un parámetro, y el beneficio esperado es mayor que un porcentaje, i. e. puja y ofertas están cercanas (es el momento de robar el trato). Un aspecto muy interesante de la estrategia es que, en términos evolutivos, sería capaz de invadir muchas otras, pero, al ser una estrategia que depende de agentes activos en el mercado, no es colectivamente estable. Este resultado ha dirigido parte de la investigación en CDA a sustituir el análisis de teoría de juegos a partir de las acciones atómicas que cada agente en el mercado puede realizar, muy difícil en este caso, por el análisis de la estabilidad de poblaciones de agentes que siguen una determinada estrategia adaptativa como las resumidas. Es decir, considerando las reglas GD, ZIP o Kaplan como el conjunto de estrategias posibles en el juego. Esta aproximación junto con las aproximaciones adecuadas para utilizar la dinámica del replicador ha permitido caracterizar equilibrios de Nash de RdF • 28-3 • Julio-septiembre 2014 25 Sociofísica • Economía Artificial. Métodos de inspiración social en la resolución de problemas complejos Fig. 1. Estructura de la subasta doble continua jugada por agentes software con reglas heurísticas de decisión sobre tres estrategias de negociación en la subasta (DG, Kaplan y ZIP). Adaptado de [25]. poblaciones en este contexto [23] o analizar distribuciones de beneficio en función de la estrategia de los agentes. Los trabajos de Gode y Sunder demostraron que la eficiencia global del mercado es muy robusta a la inteligencia de los agentes, pero el reparto del excedente del mercado es sensible a las estrategias [24]. Esta línea de trabajo se ha enriquecido al incorporar heurísticas en la decisión de los agentes para tratar de entender las implicaciones que tiene su uso en contextos económicos. Gigerenzer [12], muy influenciado por el trabajo de Simon, considera que las decisiones humanas están basadas en heurísticas y en la habilidad para utilizarlas en contraposición a una estructura lógica maximizadora y consistente. El uso de algunas de las heurísticas por parte de agentes software en CDA ha sido analizado y comparado [25], en particular el uso de “imitación” como heurística de base social frente a takethe-best, como heurística de base de aprendizaje individual a partir de experiencias pasadas (véase figura 1). Sobre la base de decisiones construida a partir de los algoritmos más utilizados en la CDA, una estrategia de imitación se basa en cambiar de estrategia con cierta probabilidad si los beneficios obtenidos por el agente son inferiores a la media del mercado, y seleccionar la estrategia de la población que haya tenido un beneficio medio más alto. Take-the-best, por el contrario, está basado en un sistema de creencias del agente en función de qué hubiese pasado si hubiese utilizado una estrategia diferente a la que utilizó. Los resultados muestran que la heurística Take-the-best da mejores resultados individuales a los agentes. Pero lo que es más relevante, mientras que el mercado puede colapsar dependiendo de la distribución de agentes que siguen cada estrategia, la utilización de heurísticas frugales sobre las estrategias facilita la convergencia tanto en precios como en eficiencia. 26 RdF • 28-3 • Julio-septiembre 2014 Este mismo marco de trabajo se ha utilizado para tratar de obtener luz sobre los dos modelos de ajuste de mercado clásicos que existen en la literatura económica: el modelo walrasiano y el marshalliano [26]. De forma sucinta, el modelo de Marshall considera que el mercado se ajusta en cantidades del producto en respuesta a la diferencia entre el precio demandado y el precio ofertado, mientras que Walras postuló que el ajuste se produce en precios como consecuencia de un exceso o escasez de demanda a un precio dado. La pregunta tiene un interés limitado en el caso de entornos tradicionales en los que la oferta tiene una pendiente positiva y la demanda una pendiente negativa, ya que en estos casos existe un único equilibrio y es estable bajo los dos modelos de ajuste. Esto no ocurre en situaciones en las que la oferta tiene pendiente negativa o la demanda pendiente positiva, ya que puede haber equilibrios estables bajo un modelo, pero inestables bajo otro. Los resultados con agentes artificiales en este tipo de entornos muestran que los agentes GD reproducen el modelo marshalliano, resultado compatible con experimentos realizados con humanos. Sin embargo estos resultados no son robustos en agentes con otras estrategias de aprendizaje. De los modelos basados en agentes a los sistemas multiagente Una crítica muy común a los modelos económicos y sociales en general, y a los basados en agentes aplicados en estos dominios, es que la representación de los procesos y la abstracción de los mecanismos son demasiado estilizadas. Dependiendo de la aplicación del modelo, incluso cuando se relajan las hipótesis de racionalidad, homogeneidad o interacciones globales, la abstracción puede ser excesiva, para obtener conclusiones que vayan más allá de pistas o intuiciones sobre lo que ocurre en el sistema objetivo que pretendemos entender. Cesáreo Hernández, José Manuel Galán, Adolfo López-Paredes y Ricardo del Olmo • Sociofísica Cuando, como en el caso de la CDA, modelamos humanos como agentes artificiales, estamos obligados a simplificar sus motivaciones, objetivos y reglas de actuación. No dejamos de estar haciendo modelos teóricos en Economía con los que verificar o falsar nuestras hipótesis. Sin embargo, las conclusiones de estos modelos no sólo son útiles en el campo del modelado. La programación basada en mercados mediante sistemas multiagente (MAS) utiliza los resultados de los modelos de la EA no con el objetivo de explicar o predecir los procesos en los que se inspiraron, sino de aplicar modelos y mecanismos con propiedades interesantes (e. g. convergencia, estabilidad, etc.) para diseñar o controlar sistemas reales (aunque con frecuencia se utilizan los términos ABM y MAS como sinónimos existen matices que los diferencian: ambos son sistemas computacionales formados por agentes software pero mientras que los ABM suelen tener una vocación explicativa respecto a un fenómeno y es un término más utilizado en ciencia, los MAS suelen tener un objetivo orientado a la resolución de un problema ingenieril, y se trata de un término más habitual en tecnología e ingeniería). Este enfoque se basa en resolver un problema de asignación de recursos, uno de los leitmotivs de la economía, construyendo una sociedad artificial con los recursos y sus posibles usos y dotando a los agentes de esta población de las motivaciones y comportamientos utilizados en los modelos económicos. Se trata de crear una metáfora de mercado para resolver problemas de ingeniería u organización por ejemplo. La intuición que subyace a la aproximación es la mano invisible de Adam Smith, la capacidad autorreguladora bajo ciertas condiciones que tienen los mercados libres para encontrar soluciones globalmente eficientes, a través de los precios, cuando los individuos que participan del mercado buscan su interés individual propio. Esta aproximación se ha utilizado para resolver problemas de programación de aterrizajes y despegues en aeropuertos [27], optimización de transporte de mercancías [28], gestión de tramos de la red de ferrocarriles [29], determinar programas de producción en talleres [30], o, como ilustramos a continuación, el problema de asignación de recursos a una cartera de proyectos (véase figura 2), un problema np-completo [31]. Sea una organización que quiere realizar diversos proyectos, todos ellos diferentes, cada uno con sus objetivos, rentabilidad esperada, prioridades, necesidades, fechas comprometidas, etc. Al mismo tiempo, la organización dispondrá de un fondo de recursos, tanto personales como materiales, para tratar de acometer parte de los proyectos que están disponibles en la cartera. Los recursos también son individuales, cada uno con sus destrezas y eficiencia en cada una de ellas. La metáfora de mercado representa el intercambio/la asignación entre proyectos y recursos. Cada uno de los proyectos será representado por un agente artificial al que se dotará de una cantidad de riqueza que está dispuesto a utilizar para maximizar su utilidad, ser completado a tiempo y con el menor coste posible, y para ello demanda recursos durante determinadas franjas de tiempo (slots), los necesarios para realizar el proyecto. Por otro lado, los recursos también serán representados por agentes artificiales que intentan maximizar su beneficio, es decir, extraer la cantidad máxima de riqueza a los proyectos y para ello estarán dispuestos a vender sus slots temporales al proyecto que esté dispuesto a pagar más. Fig. 2. Estructura del sistema multiagente. RdF • 28-3 • Julio-septiembre 2014 27 Sociofísica • Economía Artificial. Métodos de inspiración social en la resolución de problemas complejos El sistema para coordinar el proceso de adquisición, como en un mercado real, es el sistema de fijación de precios de los bienes, en este caso los recursos. Típicamente se utilizan subastas como instituciones para obtener los precios de equilibrio que vacían el mercado y maximizan la utilidad y beneficio de cada agente. Una posible opción sería utilizar la subasta mencionada en la sección anterior, la CDA. Sin embargo, las propiedades específicas del problema sugieren otras opciones. Primero, los bienes que se subastan no son equivalentes entre sí y, segundo y más importante, los bienes presentan a menudo complementariedad, es decir, para ciertos agentes el valor de un recurso en un determinado tiempo depende también de si se obtiene o no otro recurso en otro instante de tiempo. Mientras que estos problemas de complementariedad no pueden surgir cuando se subasta una única cantidad de un bien, relajar esta hipótesis puede hacer que no exista un conjunto de precios de equilibrio y que, por tanto, no podamos resolver el problema. La aproximación habitual es permitir, entonces, que los agentes pujen de forma simultánea por varios bienes en lo que se conocen como subastas combinatorias. Dentro de las diferentes subastas aleatorias posibles, en nuestro caso utilizaremos una subasta iterativa de fijación de precios. De forma sucinta el proceso es como sigue (para una explicación más detallada véase [32, 33]). Cada actividad está asociada a un tipo de habilidad y cada recurso posee un conjunto de habilidades y una determinada eficiencia en cada una de ellas. A mayor eficiencia del recurso menor duración es requerida para completar cada tarea. Los proyectos tienen relaciones de precedencia de fin a comienzo de tal forma que una tarea no se puede comenzar hasta que se hayan acabado las precedentes. Los recursos tienen una tasa de coste propia. Hay un agente proyecto por cada proyecto en el sistema, y cada uno solicitará el conjunto de slots de los recursos que le permitan conseguir sus objetivos a coste mínimo. El coste total del proyecto será la suma del precio de los slots de los recursos más una penalización adicional en caso de que el proyecto se entregue con retraso permisible. Para poder hacer la puja, los agentes proyecto utilizan un algoritmo de programación dinámica que evalúa las posibles combinaciones de slots que permiten la consecución del proyecto [34]. Dado que la propuesta de actividades de los agentes proyecto es descentralizada y cada uno buscando su propios objetivos, frecuentemente el resultado de todas las propuestas resulta en programas incompatibles (i. e. solicitan algún recurso en el mismo instante de tiempo) y globalmente no óptimos. Las reglas de la subasta que reducen las inconsistencias parten de un precio mínimo de cada slot temporal. Cuando un agente recurso recibe más de una oferta por alguno de los slots, 28 RdF • 28-3 • Julio-septiembre 2014 eleva su precio, mientras que los slots sin demanda bajan su precio hasta que se alcance el precio mínimo. Una vez ajustados los precios por parte de los agentes recurso, los agentes proyecto rehacen sus programas locales de acuerdo a la nueva información de precios, para de nuevo maximizar sus beneficios individuales. La subasta continúa indefinidamente hasta una condición de parada. Este procedimiento es similar al algoritmo de optimización del subgradiente [35]. Esta aproximación multiagente no jerárquica presenta ciertas ventajas en la resolución de problemas de asignación. Es muy flexible y robusta a cambios en el número de agentes de ambos tipos, la comunicación entre los agentes es mínima y permite encontrar en general soluciones muy satisfactorias a partir de la solución iterativa de problemas locales, lo cual es muy interesante en muchos problemas aplicados. Conclusiones En este artículo hemos explicado por qué los modelos económicos tienen limitaciones para establecer políticas de crecimiento, para explicar desde micro-motivos la dinámica social de los mercados, o para diseñar instituciones económicas. Una alternativa es la EA, con ABM, porque permite controlar y calibrar los experimentos, al ser los agentes artificiales, aumentando así la capacidad de la EE. Hemos ilustrado algunas de las aportaciones que desde EA han contribuido a entender la dinámica social de las CDA y mostrado que el equilibrio y la eficiencia se alcanzan en condiciones mucho más variadas que las exigidas en la teoría económica del mercado competitivo. Variando elementos del triplo (A, I, E) que componen el modelo, se han obtenido resultados sobre los efectos de: i) distintos tipos de aprendizaje de los agentes; ii) de su inteligencia e iii) de la variación en el mix de los que participan en el mercado. Los experimentos permiten obtener también conclusiones sobre los efectos de variaciones en el entorno de la CDA y en particular hemos clarificado la disputa del mecanismo walrasiano o marshaliano de dinámica de los mercados hacia el equilibrio. La conclusión tal vez más relevante para los lectores de la Revista, es que la EA genera soluciones a un problema de alta complejidad y exhibe inteligencia colectiva (racionalidad ecológica). De modo que una selección adecuada del triplete (A, I, E) deviene en una herramienta de inspiración social potente y en todo caso complementaria a las heurísticas de inspiración biológica. Los fundamentos teóricos que proporciona la EA con la programación basada en mercados en sistemas multiagentes se pueden aplicar a muchos problemas de gestión de la empresa, como en el ejemplo de la asignación de slots en una cartera de proyectos. La nueva aproximación AE es el solape técnico Cesáreo Hernández, José Manuel Galán, Adolfo López-Paredes y Ricardo del Olmo • Sociofísica del paradigma de la capacidad de coordinación espontánea de A. Smith, D. Hume y H. Hayek. Finalmente concluimos que la EA revitaliza los modelos constructivistas, alimentando con sus resultados el perfil de los agentes en la institución adecuada. ¿Se puede pedir más? Agradecimientos Este trabajo se deriva de la participación de sus autores en el proyecto de investigación financiado por el Ministerio de Ciencia e Innovación con referencia CSD2010-00034 (SimulPast CONSOLIDER-INGENIO 2010) y el proyecto Application of Agent-Based Computational Economics to Strategic Slot Allocation cofinanciado por EUROCONTROL-SESAR Joint Undertaking (SJU) y la Unión Europea como parte del programa SESAR. Referencias [1] F. E. Kydland y E. C. Prescott, “Time to Build and Aggregate Fluctuations”, Econometrica 50, 1345-1370 (1982). [2] J. Fernández-Villaverde, “The econometrics of DSGE models”, SERIEs, Spanish Economic Association 1, 3-49 (2010). doi: 10.1007/s13209-009-0014-7. [3] R. M. Solow, “Technical Change and the Aggregate Production Function”, The Review of Economics and Statistics 39, 312-320 (1957). [4] G. Soros, Entrevista en http://ineteconomics.org/george-soros-why-we-needrethink-economics-0 (Institute for New Economic Thinking, 2013). [5] L. R. Izquierdo, J. M. Galán, J. I. Santos y R. del Olmo, “Modelado de sistemas complejos mediante simulación basada en agentes y mediante dinámica de sistemas”, EMPIRIA. Revista de Metodología de Ciencias Sociales 16, 85-112 (2008). [6] M. San Miguel, “Fenómenos Colectivos Sociales”, Revista Española de Física 26, 56-63 (2012). [7] M. Buchanan, “Economics: Meltdown modelling. Could agent-based computer models prevent another financial crisis?” Nature 460, 680-682 (2009). doi: 10.1038/460680a. [8] J. D. Farmer y D. Foley, “The economy needs agent-based modelling”, Nature 460, 685-686 (2009). doi: 10.1038/460685a. [9] V. L. Smith, “Experimental Economics: Induced Value Theory”, American Economic Review 66, 274-279 (1976). [10] H. A. Simon, Models of bounded rationality (MIT Press, Cambridge, MA, 1982). [11] A. López-Paredes, C. Hernández y J. Pajares, “Towards a New Experimental Socio-economics. Complex Behaviour in Bargaining”, Journal of Socioeconomics 31, 423-429 (2002). [12] G. Gigerenzer y R. Selten, Bounded Rationality: the Adaptive Toolbox (MIT Press, Cambridge MA, 2002). [13] V. L. Smith, Rationality in Economics: Constructivist and Ecological Forms (Cambridge University Press, Cambridge, UK, 2008). [14] K. J. Arrow et al., “The Promise of Prediction Markets”, Science 320, 877-878 (2008). doi: 10.1126/science.1157679. [15] V. L. Smith, “Microeconomic Systems as an Experimental Science”, American Economic Review 72, 923-955 (1982). [16] D. K. Gode y S. Sunder, “Allocative Efficiency of Markets with Zero-Intelligence Traders Market As A Partial Substitute for Individual Rationality”, Journal of Political Economy 101, 119-137 (1993). [17] D. K. Gode y S. Sunder, “Lower Bounds for Efficiency of Surplus Extraction in Double Auctions”, en D. Friedman y J. Rust (eds.), The Double Auction Market: Institutions, Theories, and Evidence, Santa Fe Institute Series in the Sciences of the Complexity, Proceedings Volume XV, (Addison-Wesley, New York, NY, 1993). [18] V. L. Smith, “An Experimental Study of Competitive Market Behavior”, Journal of Political Economy 70, 111-137 (1962). [19] D. Cliff y J. Bruten, “Zero is not enough: On the lower limit of agent intelligence for continuous double auction markets”, Tech. Rep of HP Laboratories, 97-141 (1997). [20] S. Gjerstad y J. Dickhaut, “Price formation in double auctions”, Games and Economic Behavior 22, 1-29 (1998). [21] R. M. Axelrod, The Evolution of Cooperation (Basic Books, New York, 1984). [22] J. Rust, J. H. Miller y R. Palmer, “Behaviour of trading automata in computerized double auctions”, en D. Friedman y J. Rust (eds.), The double auction markets: Institutions, theories and evidence (Westview Press, 1993), pp. 155-198. [23] W. E. Walsh, R. Das, G. Tesauro y J. O. Kephart, “Analyzing complex strategic interactions in multi-agent systems”, AAAI-02 Workshop on Game-Theoretic and DecisionTheoretic Agents (2002), pp. 109-118. [24] M. Posada, C. Hernández y A. López-Paredes, “Strategic Behaviour in Continuous Double Auction” en C. Bruun (ed.), Advances in Artificial Economics. The Economy as a Complex Dynamic System. Lecture Notes in Economics and Mathematical Systems 584 (Springer, Heidelberg, 2006), pp. 31-43. [25] M. Posada y A. López-Paredes, “How to choose the bidding strategy in continuous double auctions: Imitation versus take-thebest heuristics”, Journal of Artificial Societies and Social Simulation 11, 6 (2008). [26] M. Posada, C. Hernández y A. López-Paredes, “Testing marshallian and walrasian instability with an agent-based model”, Advs. Complex Syst. 11, 249-260 (2008). RdF • 28-3 • Julio-septiembre 2014 29 Sociofísica • Economía Artificial. Métodos de inspiración social en la resolución de problemas complejos [27] S. J. Rassenti, V. L. Smith y R. L. Bulfin, “A Combinatorial Auction Mechanism for Airport Time Slot Allocation”, The Bell Journal of Economics 13, 402-417 (1982). [28] D. P. Bertsekas, “The Auction Algorithm for Assignment and Other Network Flow Problems: A Tutorial”, Interfaces 20, 133-149 (1990). [29] D. C. Parkes y L. H. Unga, “An auction-based method for decentralized train scheduling”, Proceedings of the fifth international conference on Autonomous agents (ACM, New York, NY, 2001), pp. 43-50. [30] M. P. Wellman, W. E. Walsh, P. R. Wurman y J. K. MacKie-Mason, “Auction Protocols for Decentralized Scheduling”, Games and Economic Behavior 35, 271-303 (2001). doi: 10.1006/game.2000.0822. [31] M. R. Garey, D. S. Johnson y R. Sethi, “The Complexity of Flowshop and Jobshop Scheduling”, Mathematics of OR 1, 117-129 (1976). doi: 10.1287/moor.1.2.117. [32] J. A. Arauzo, J. M. Galán, J. Pajares y A. López-Paredes, “Multi-agent technology for scheduling and control projects in multi-project environments. An auction based approach”, Inteligencia Artificial 13, 12-20 (2009). doi: 10.4114/ia.v13i42.1042. [33] J. A. Arauzo, J. Pajares y A. López-Paredes, “Simulating the dynamic scheduling of project portfolios”, Simulation Modelling Practice and Theory 18, 1428-1441 (2010). doi: 10.1016/j.simpat.2010.04.008. [34] J. Wang, P. Luh, X. Zhao y J. Wang, “An optimization-based algorithm for job shop scheduling”, Sadhana 22, 241-256 (1997). doi: 10.1007/BF02744491. [35] X. Zhao, P. B. Luh y J. Wang, “Surrogate Gradient Algorithm for Lagrangian Relaxation”, Journal of Optimization Theory and Applications 100, 699-712 (1999). doi: 10.1023/A:1022646725208. Cesáreo Hernández, Adolfo López-Paredes INSISOC, Área de Organización de Empresas, Universidad de Valladolid, Escuela de Ingenierías Industriales, [email protected], [email protected] José Manuel Galán y Ricardo del Olmo INSISOC, Área de Organización de Empresas, Universidad de Burgos, [email protected], [email protected] Calidad a la medida Fabricación de cámaras, componentes y sistemas de vacío a la medida de sus necesidades. Suministro de componentes standard de vacío. Soldadura Electron Beam Welding y Brazing. Ingeniería y asistencia técnica. TRINOS Vacuum-Projects, S.L Parque Empresarial Táctica c/ Velluters, 17 46988 Paterna (Valencia) España Tlf: (+34) 96 134 48 31 Fax (+34) 96 134 48 30 [email protected] Anz. ESP.indd 1 30 RdF • 28-3 • Julio-septiembre 2014 17.03.2010 13:13:41 Infraestructuras para Big Data: ¿Un marco para modelos cercanos a la realidad? “Pensar es olvidar diferencias, es generalizar, abstraer.” Jorge Luis Borgxes, Funes el memorioso Introducción Durante mediados del siglo xix en California ocurrió un hecho curioso: se encontró oro en la orilla del río Americano, afluente del río Sacramento y muy pronto toda California se vio invadida por gran cantidad de personas que trataban de hacer fortuna sacando oro de sus ríos [1]. La manera de sacar el oro del río era tan simple como recoger el barro que arrastraba el río con cedazos y cribarlo, buscando las preciadas pepitas. Posteriormente a la gente no le bastaba con el barro que arrastraba el río de manera natural, y empezó a generar más barro artificialmente, a triturar vetas de cuarzo en la montaña y canalizarlo hasta cribas mecanizadas. Todo esto para, literalmente, buscar en toneladas de tierra, durante largas jornadas de trabajo, unas pepitas de oro que como máximo llegaban a un par de centímetros. A mediados del siglo xx, Jorge Luis Borges público un cuento corto llamado “Funes el memorioso” [2]. En este relato cuenta la historia de Funes, un hombre que, a causa de un golpe en la cabeza de joven, es capaz de recordar todo con tal lujo de detalles que el mismo hecho o el mismo objeto en diferentes momentos son para él cosas independientes: “No sólo le costaba comprender que el símbolo genérico ‘perro’ abarcara tantos individuos dispares de diversos tamaños y diversa forma; le molestaba que el perro de las tres y catorce (visto de perfil) tuviera el mismo nombre que el perro de las tres y cuarto (visto de frente)”. Para Funes esto es una maldición, recordar tanto detalle y a la vez sacar alguna infor- mación útil de tantos datos es una labor interminable. Esto causa que Funes sea incapaz de pensar, su memoria a la vez que infinita era un total basurero. Hay quien dice que el siglo xxi será el siglo del “Big Data”. Se ha venido a llamar “Big Data” a aquellos conjuntos de datos para los que, debido a su gran dimensión, variedad, o rapidez de generación, no sirven las herramientas tradicionales de adquisición, procesado o análisis [3]. En concreto, son conjuntos de datos de gran volumen, que pueden proceder de una toma de datos en continuo, y de fuentes heterogéneas localizadas en millares de sitios dispersos. Las etapas de adquisición y procesado requieren por ello de recursos de computación adecuados, cómo redes de comunicación de gran capacidad, sistemas de almacenamiento de datos masivos, y servidores de procesado especializados. Pero sobre todo la dificultad para el uso de Big Data reside en el análisis: generar “modelos” para tratar de extraer “conocimiento” a partir de estos datos requiere del uso de técnicas, en muchos casos “clásicas”, pero que aplicadas directamente en este contexto requieren una gran cantidad de recursos y sin garantía de obtener el resultado deseado (o obtenerlo en un tiempo razonable)[4]. Un resultado que además en general no es fácil de asimilar y transformar en información útil. En este artículo se muestra cómo el avance de las técnicas de computación en los últimos años ha permitido definir una infraestructura adecuada para abordar problemas de Big Data, y se propone una técnica para aprovechar esta infraestructura para construir modelos cercanos a la realidad en problemas difíciles de abordar de otra forma. RdF • 28-3 • Julio-septiembre 2014 31 Sociofísica • Infraestructuras para Big Data: ¿Un marco para modelos cercanos a la realidad? La avalancha de datos La increíble evolución en número y capacidad de los sistemas de adquisición de datos en los últimos años tiene una raíz tecnológica: la mejora en el diseño y fabricación de estos sistemas electrónicos, integrando sensores, procesadores y red, aumentando sus prestaciones y reduciendo a la vez su consumo, tamaño y coste. Un ejemplo cercano a todos es el de los “smartphones”, que pueden integrar sensores que eran relativamente sofisticados hace unos años, cómo cámaras de alta resolución o receptores GPS, y también otros más sencillos, de aceleración, o el propio micrófono, y además capaces de transmitir esta información digitalizada a la red de diversas formas (4G, Wifi). Esta evolución de la microelectrónica, y más recientemente de la nanotecnología, permite contar hoy en día con todo tipo de sensores para medidas físicas y químicas, y cada vez más también biológicas, con buena resolución y fiabilidad y a un coste cada vez menor. Sensores ideados en un principio para una función específica, cómo los sensores de gases que incorporan los motores de los coches para mejorar su rendimiento, o sensores de consumo eléctrico, pueden integrar su información fácilmente y casi en tiempo real en la red. En la idea inicial de un “Internet of Things” todos estos sensores ubicuos se auto-identificarían a la red y proporcionarían de forma autónoma un gran volumen de datos, útil para entender diferentes modelos físicos, sociales o económicos, para sistemas complejos de modelar. En iniciativas cómo las “Smart Cities” se integran este tipo de sensores y otros similares cómo sensores de paso, de presencia, o estaciones medioambientales, con otros más complejos cómo redes de cámaras, con el propósito de optimizar un modelo de uso de recursos urbanos. El primer reto viene dado por la integración de esta información: la agencia norteamericana de investigación de mercados ABI Research estima que en 2020 podría haber 30.000 millones de dispositivos conectados [5]. La utilidad que tiene asignar una identificación única de todos los objetos es poder hacer una planificación de recursos en la “industria” de la manera más precisa posible, controlando las “materias primas”, seleccionando los “productos” a demanda de los “clientes” y gestionando los “residuos” de la mejor manera [6] (el entrecomillado es propio, y se argumenta en la última sección del artículo). Por otra parte, y especialmente en el ámbito de la investigación, continúa el desarrollo de detectores y sensores cada vez más complejos para lograr medidas de gran precisión. Detectores cómo los empleados por el experimento CMS [7] del Large Hadron Collider (LHC) del CERN, integran más de 75 millones de canales de lectura, y registran más de 1000 colisiones por segundo, lo que resulta en un volumen de datos muy elevado (los detectores de LHC han almacenado más de 100 32 RdF • 28-3 • Julio-septiembre 2014 Petabytes=100.000 Terabytes=100 millones de Gigabytes, en dos años de operación, y esta cifra se incrementará un orden de magnitud en los próximos años). Una evolución similar ocurre en Astronomía, con los enormes flujos de datos de los nuevos telescopios, y también en Observación de la Tierra, con el despliegue creciente de satélites y de aviones de observación dotados de nuevos sistemas de teledetección de todo tipo cada vez con mayor resolución y cobertura espacial y temporal. Pero quizás la mayor avalancha de datos va a venir unida a nosotros mismos. Dejando a un lado la “traza digital” de nuestra actividad en internet, en nuestro móvil y en nuestras tarjetas de pago, que pueden considerarse sistemas “heterodoxos y no suficientemente controlados” de adquisición de datos, la otra clave va a ser el desarrollo de la medicina personalizada, gracias al desarrollo de los nuevos chips genómicos, el uso cada más extendido y sistemático de equipos de adquisición y análisis de imagen médica, y la incorporación a la vida diaria de los sistemas de tele-asistencia. Los sistemas de adquisición para este caso son muy diferentes. Los equipos de imagen médica, normalmente manejados en hospitales y por personal especializado, son cada vez más precisos y complejos, aportando en un solo examen una gran cantidad de información (por ejemplo en un TAC). Los sistemas de secuenciación genómica, hasta ahora relativamente complejos, están en plena evolución: empiezan a estar disponibles chips de bajo coste conectables directamente a un sistema sencillo de adquisición, que podría ser un teléfono inteligente o una tableta. De la misma forma los sistemas de tele-asistencia incorporan no sólo cámaras y micrófonos de conversación del paciente con el personal sanitario, sino también conexión para sensores básicos (tensión, temperatura, pulsaciones, ritmo cardíaco) y no tan básicos (cámaras para detección de melanomas). Aunque se trata de medidas sencillas, la monitorización de cientos de miles o millones de pacientes, y el interés de analizar correlaciones y contar con sistemas de alarma ante epidemias, hace de este campo uno de los mayores retos en el campo de Big Data. En conjunto el diseño, operación, explotación, protección y preservación de datos personales es un área muy compleja por la importancia de la privacidad de dichos datos [8]. Por último destacar la importancia creciente en este contexto de las “redes sociales”, reflejada por ejemplo en los cientos de millones de mensajes anuales en Twitter o los cientos de Terabytes diarios procesados por Facebook, son canales que proporcionan igualmente información sobre nuestra actividad y entorno. Infraestructuras para “Large Data” El crecimiento exponencial de los recursos informáticos en los últimos cuarenta años, anticipado Luis Cabellos y Jesús Marco • Sociofísica en la ley de Moore [9], ha permitido crear infraestructuras capaces de abordar los problemas condicionados por un gran volumen de datos (“Large Data”). Hoy en día la explotación de un sistema de almacenamiento de información con un tamaño del orden de Petabytes ocupa menos de un rack estándar, y no conlleva ninguna dificultad. La razón hay que buscarla por un lado en la evolución de la capacidad y precio de los discos magnéticos y por otra parte en la mejora de los sistemas de conexión en red que permiten transferir información a velocidades que superan los 10 Gbit/s. Los sistemas de ficheros de alto rendimiento cómo GPFS o Lustre permiten ofrecer al usuario áreas de trabajo de varios Petabytes con un rendimiento superior al proporcionado por sistemas de disco local. Por otra parte el análisis o procesado de estos grandes volúmenes de datos se realiza normalmente en clusters de servidores de alto rendimiento, interconectados entre sí y conectados a los sistemas de almacenamiento descritos. Estos servidores con varios procesadores y múltiples núcleos por procesador, superan fácilmente los 300 Gigaflops (300.000 millones de operaciones por segundo), e interconectados por redes de baja latencia permiten construir supercomputadores que llegan a superar los 10 Petaflops (10.000 Teraflops) y agregan hasta 500.000 núcleos de procesado. Sin embargo un supercomputador puede no ser la mejor solución para un problema de Large Data: principalmente por razones de escalabilidad y por la ventaja de poder compartir recursos distribuidos, la evolución de las plataformas de almacenamiento y procesado de datos “hacia” la red en los últimos años ha sido imparable y el ejemplo más claro en los últimos años es justamente el caso ya citado de los sistemas de adquisición, procesado y análisis de datos de los experimentos del Large Hadron Collider (LHC) del CERN. La tecnología “Grid” permite que el usuario acceda a recursos de computación y almacenamiento independientemente de donde estén ubicados, utilizando el mismo certificado digital para definir su identidad y permiso de uso. Así la Infraestructura Grid Europea, EGI.eu [10] integra recursos de centros de computación de toda Europa, conectados en muchos casos por red de fibra oscura con canales de 10Gbit/s, y ha mostrado su capacidad y potencia en el almacenamiento y procesado de los más de 100 Petabytes de datos de colisiones en LHC, una contribución clave para lograr el reciente descubrimiento del bosón de Higgs [11]. Debe resaltarse sin embargo que el problema de almacenamiento, procesado y análisis de datos de LHC no integra la V de variedad para poder ser considerado un problema completo de Big Data: el formato de los diferentes tipos de datos de LHC es relativamente homogéneo, y esto lo simplifica sig- nificativamente. De hecho la infraestructura Grid es especialmente adecuada para el problema que más recursos consume: la simulación o procesado independiente de datos similares procedentes de miles de millones de colisiones. Pero no lo es tanto para abordar tareas de análisis interrelacionado de estas colisiones. Sólo si en esta infraestructura el acceso concurrente desde los servidores de computación al sistema de almacenamiento está bien resuelto, es posible alcanzar la potencia efectiva necesaria [12]. Y es justamente este aspecto el que ha requerido en los últimos años del desarrollo de una nueva infraestructura adaptada para Big Data gracias a la incorporación de un nuevo entorno y nuevas técnicas. Fig. 1. mapa de recursos de EGI.eu, actualizado en febrero 2014. Técnicas para una infraestructura de Big Data En la última década han ido surgiendo nuevos modelos y técnicas de computación para poder dar solución al tratamiento de Big Data. El ejemplo más conocido es MapReduce de Google [13], basado en redefinir los problemas mediante dos pasos, un proceso que aplica una función de transformación a los datos de entrada (MAP) seguido de una función de agregación sobre los datos transformados (REDUCE). Por ejemplo, si quisiéramos contar el número de palabras en un repositorio de datos, podemos definir un proceso de transformación que convierta cada fichero en el repositorio en el número de palabras que contiene dicho fichero, y el proceso de agregación sería básicamente sumar todos los números producidos en el paso anterior. Esta idea no es nueva pero si lo ha sido el lograr una implementación efectiva y a gran escala mediante una infraestructura que da soporte directo a esta técnica para optimizar al máximo la ejecución. En el caso de MapReduce, los datos de entrada y el resultado de aplicar la función de transformación son independientes entre sí, y RdF • 28-3 • Julio-septiembre 2014 33 Sociofísica • Infraestructuras para Big Data: ¿Un marco para modelos cercanos a la realidad? pueden dividirse en bloques de datos que pueden calcularse independientemente. Además el proceso de agregación no necesita aplicarse de manera simultánea a todos los datos intermedios, puede aplicarse también en bloques a los datos transformados. De este modo un problema ejecutándose sobre una estructura de tipo MapReduce tiene la facilidad de poder distribuirse entre múltiples recursos de computación, logrando una tolerancia a fallos y una escalabilidad casi sin límite, facilitando la incorporación de más recursos a medida de que el tamaño de entrada crece, además de eficiencia en el manejo de los recursos, permitiendo seleccionar dinámicamente la carga de trabajo de cada elemento de computación. Además, y en paralelo, las técnicas de virtualización y la mejora del acceso a los recursos en Internet han permitido la aparición de un nuevo entorno especialmente adecuado para Big Data: la computación en la nube o Cloud Computing. El término Cloud hace referencia a catálogos de servicios de computación, desde el simple procesado o almacenamiento de datos, al acceso a base de datos o a clusters de alto rendimiento. Todos estos servicios de computación se dicen que están en Cloud porque se acceden por parte de los usuarios a través de Internet, sin que el usuario tenga que saber su situación física. Esta existencia virtual de recursos de computación hace que sea fácil de escalar los recursos según los necesite el usuario de manera casi inmediata y de manera transparente (sin conocimiento de los recursos físicos reales que dan el servicio). Teóricamente se busca cambiar la orientación de la inversión del usuario final en recursos de computación: en vez de gastar en despliegue y mantenimiento de infraestructuras completas permanentes para poder resolver un problema de Big Data, el cliente solo gasta por los recursos consumidos. El Grid, en un nivel abstracto, trata de comparar los recursos de computación con una red de distribución eléctrica en la que los usuarios acceden de forma unificada a recursos de generación distribuidos, tanto de computación cómo de almacenamiento: se trata de proporcionar estos recursos compartidos a los hogares bajo demanda y luego facturar por lo gastado. Pero en la práctica lo que realmente se transporta son los datos, y en este sentido la computación en la nube ofrece una solución más directa: es el cliente el que hace llegar los datos a los recursos de computación, y después se le retornan resultados. El equivalente a las plantas eléctricas en la computación en la nube serían los centros de computación de acceso público [14]. Cloud permite por ello varios niveles de acceso por parte de los usuarios finales. Se puede ofertar software completo ya preparado para funcionar, como puede ser un programa de gestión de nominas o un sistema de gestión de bases de datos. 34 RdF • 28-3 • Julio-septiembre 2014 También puede ofrecerse plataformas preparadas para que el cliente lo use directamente, como por ejemplo todo lo necesario para desplegar una página web, o incluso una infraestructura MapReduce completa. O en el nivel de entrada, Cloud ofrece directamente servidores virtuales o hardware virtual, donde el usuario tiene que desarrollar completamente de cero su aplicación. La nueva infraestructura Cloud FedCloud [15] del proyecto europeo EGI-Inspire es un buen ejemplo de este contexto, e indica un camino de evolución para muchos de los centros de computación de investigación. Una faceta a tener en cuenta en Big Data es que también los datos a tratar están en Internet. Por esto la computación Cloud aparece como un medio natural donde tratar los problemas de Big Data, mediante una definición de flujo de trabajo donde se deben unir los puntos de entrada de datos con los recursos de computación para poder obtener los resultados. Pero en realidad el hecho de tener al alcance de la mano recursos virtualmente ilimitados de computación no garantiza la solución a los problemas de Big Data. Es igual que si mañana tuviéramos 1.000 ordenadores en el despacho: la infraestructura por sí sola no resuelve el problema. Simulando la realidad Planteemos un problema “sencillo” que podemos considerar de BigData, y que permite entender la complejidad y a la vez el potencial de estas aplicaciones: recientemente se han publicado las estadísticas del tiempo que los ciudadanos emplean en desplazarse a su trabajo en diferentes ciudades del mundo. ¿Cómo podemos mejorar la calidad de vida de estas personas, reduciendo este tiempo? Una respuesta directa es la mejora de la movilidad, es decir analizar los patrones de los desplazamientos, tanto espaciales cómo temporales, y los medios (transporte público, coches particulares individuales o compartidos, etc.). La información empieza a estar disponible hoy en día en muchas ciudades y además ya se usa. Bien en un entorno “instrumentado”, tipo Smart City, que centraliza la información de cámaras y sensores sobre las vías de comunicación, la información meteorológica, de contexto (día festivo, acontecimientos sociales, etc.), situación y ocupación de los medios de transporte público, etc, o bien en un contexto “espontáneo”, cómo es el de los conductores que a través de su aplicación instalada en su Smartphone proporcionan su situación al operador de dicha aplicación a cambio de obtener una propuesta de recorrido optimizada, que evite atascos y minimice el tiempo de desplazamiento. Pero imaginemos que queremos ir más allá. ¿Por qué no intentar mejorar la calidad de vida cambiando el horario de trabajo, o incluso cambiando el lugar de residencia? En ese caso entran en juego más factores. El primero, y Luis Cabellos y Jesús Marco • Sociofísica muy importante, el respeto a la información personal. ¿Es posible hacer este análisis sin recopilar información personal tan detallada, sin invadir la privacidad de la persona? Si la respuesta es no, ¿qué precio en la “privacidad” está dispuesto a pagar el ciudadano a cambio de contar con una propuesta de escenario que puede mejorar su calidad de vida? Y en todo caso, ¿no está ya esta información en su “huella” digital y puede ser obtenida por terceros incluso sin contar con su autorización? El ejemplo de los análisis de consumo a partir de la información de uso de las tarjetas de crédito es un ejemplo de ello: no solo se conoce que gastamos, sino dónde, cuándo, y en que secuencia lo hacemos, y aunque esta información sólo se puede utilizar una vez anonimizada, la información de cientos de miles de usuarios procesada con los medios actuales proporciona un conocimiento extra que vale mucho dinero (auténticas “pepitas de oro”). Por eso quizás debamos revertir la argumentación y decir: ¿no es mejor que el ciudadano sea consciente de que esta huella digital ya existe, y se aproveche de ello para beneficiarse el mismo y la sociedad en su conjunto? Pero volvamos a la parte “técnica”. Una posible solución es generar un modelo de la realidad basado en agentes, agentes que incluyen en particular a los propios individuos, caracterizados por sus “sensores”, que estos pueden activar o no en base a su interés: desplazamientos mediante la información del smartphone, hábitos de consumo mediante sus medios de pago, intereses mediante aplicaciones de valoración, redes de contactos, estado físico mediante ropa con sensores [16] etc. Sobre este modelo de agentes, que pueden interaccionar entre sí, y no sólo por coincidir en el uso de una capa de recursos, se pueden plantear hipótesis, cómo “que me supondría ir en un medio público de transporte y dejar el coche en casa”, o “y si alquilamos una vivienda en esta zona”, que se pueden valorar en términos económicos pero sobre todo de calidad de vida, si el modelo es suficientemente realista permitiendo describir un comportamiento realista para los agentes y detallado para los recursos en los que se mueve. ¿Es posible implementar y ejecutar un modelo de simulación con cientos o millones de agentes con una resolución suficiente tanto temporal y espacial (por ejemplo diez minutos y diez metros) como de patrones de comportamiento y de interacción con una capa de recursos (por ejemplo el equivalente a la información que nos proporciona Google en esa escala de diez metros y en todos los niveles: físico-geográfico-urbano-meteorológico, actividades y negocios)? Y la pregunta clave, ¿podremos primero crearlo y luego validarlo, comprobar su fiabilidad, a partir de las medidas que disponemos o que los ciudadanos o la sociedad quieran proporcionar? Técnicamente estamos convencidos de que es posible. Nuestra experiencia con componentes es- calables tales cómo bases de datos noSQL implementadas sobre clusters de servidores nos indica que es posible manejar para millones de personas los millones de registros que corresponden a la actividad de una persona en un año y realizar su integración con sistemas de información espacial. El problema es la dificultad de completar un modelo fiable, dado el grado de complejidad subyacente por las interacciones entre todos los agentes, y la necesidad de contrastarlo con información real para validarlo. La solución pasa pues por cambiar el paradigma tradicional en el desarrollo de aplicaciones [17], poniendo el foco en el flujo de datos y en la manipulación de los mismos, usando procedimientos que se definan directamente por sus objetivos y restricciones temporales, y trabajando sobre representaciones espaciales muy cercanas a la realidad. Además la ejecución secuencial debe ser reemplazada por una ejecución concurrente. Formalmente hablaríamos de sistemas multiagente (Multi Agent Systems, MAS [18]), en los que los agentes “son entidades inteligentes, equivalentes en términos computacionales a un proceso del sistema operativo, que existen dentro de cierto contexto o ambiente, y que se pueden comunicar a través de un mecanismo de comunicación interproceso, usualmente un sistema de red, utilizando protocolos de comunicación” [19]. La conexión con el entorno de la Internet of Things es directa, definiendo agentes para cada objeto conectado. El modelo de predicción estaría basado en la simulación del comportamiento de los agentes, y su validación en la comparación con los datos reales. Además el sistema sería por definición escalable y distribuido y podría implementarse en la infraestructura Cloud. La información generada por este sistema de agentes se procesaría de hecho en esta misma infraestructura de forma distribuida aprovechando las técnicas Cloud de tipo MapReduce. Conclusiones El volumen y variedad de los datos en formato digital que recogemos y almacenamos cada vez a mayor velocidad y podemos procesar y transmitir a través de la red va a continuar creciendo de forma exponencial en los próximos años. Son datos que reflejan no solo gran parte de los procesos físicos, químicos, geológicos y biológicos de la Tierra y del Universo, también de toda nuestra actividad social y económica: somos miles de millones de personas conectadas en red que no solo consumimos información, también la generamos. Explotar esta información es un nuevo “El Dorado”: el World Economic Forum estima que debería considerarse incluso una nueva clase de recurso económico. Durante la fiebre del oro, la mayoría de la gente apenas ganó para recuperar lo invertido. Solo unos pocos de estos buscadores de fortuna se hiRdF • 28-3 • Julio-septiembre 2014 35 Sociofísica • Infraestructuras para Big Data: ¿Un marco para modelos cercanos a la realidad? cieron millonarios: los que desarrollaron técnicas más modernas de extracción de oro más allá de la simple criba del fango de los ríos. Con la explotación del Big Data puede ocurrir algo similar: podemos a tener acceso a ingentes cantidades de datos, muchos de ellos casi en tiempo real, que pueden conducir a un flujo continuo de información y conocimiento, pero solo las empresas y las instituciones que dediquen un esfuerzo a desarrollar las herramientas necesarias para un eficiente tratamiento de estas grandes cantidades de datos serán capaces de explotar ese conocimiento y “hacerse de oro”. Y debe realizarse con las infraestructuras adecuadas para obtener el resultado lo más rápido posible: una información valiosa ahora mismo puede que al cabo de un par de minutos ya no sea tan importante y al cabo de un par de horas resulte hasta molesta. Y para concluir, una reflexión: si sabemos que toda esta información está ya en gran parte en posesión de terceros, ¿por qué no aprovecharla para el beneficio de la sociedad y no sólo de unos pocos? Por ejemplo, podríamos construir mejores modelos económicos, no solo de optimización de recursos, también de análisis del propio modo de producción. Uno de los impulsores de la iniciativa FuturICT, Dirk Holbing, insistía recientemente [20]: “Un gran desafío ha emergido de forma silenciosa: la transformación de nuestra sociedad de servicios en una sociedad de la información y el conocimiento…las tecnologías de la información y la comunicación son las que conducen la próxima revolución industrial. ¿Cómo cambiará nuestra economía y nuestra sociedad? ¿Cómo podemos transformar esta ocasión en una oportunidad para todo el mundo?¿Cómo podemos reducir los riesgos?” La respuesta no es simple, ¿y si decidiéramos en un momento dado orientar toda esta información y conocimiento para promover modelos sólo en interés de unos pocos? Pero, ¿no está esto pasando ya? Referencias [1] [2] [3] Kevin Starr, “California: A History”. Random House LLC, 2007 Jorge Luis Borges, “Funes el memorioso”. Colección Ficciones. Editorial Sur, 1944. “Mastering Big Data: CFO Strategies to Transform Insight into Opportunity”. FSN Publishing Limited and 36 RdF • 28-3 • Julio-septiembre 2014 [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] Oracle Corporation, 2012 (http://www.oracle.com/ us/solutions/ent-performance-bi/business-intelligence/mastering-big-data-cfo-strategies-1853061.pdf) Adam Jacobs, “The Pathologies of Big Data”. ACM Queue 7. Julio 2009. “More Than 30 Billion Devices Will Wirelessly Connect to the Internet of Everything in 2020”, ABI Research, 2013 (https://www.abiresearch.com/press/ more-than-30-billion-devices-will-wirelessly-conne). “The Evolution of Internet of Things”. Casaleggio Associati. 2011. (http://www.casaleggio.it/internet_ of_things) El detector CMS: http://cms.web.cern.ch/ José Antonio Carrillo et al., “Big Data en Entornos de Defensa y Seguridad”, Documento de Investigación del Instituto Español de Estudios Estratégicos (IEEE) , 2013. Gordon Moore, “Cramming more components onto integrated circuits” Electronics Magazine, 1965 European Grid Infrastructure, EGI, http://www.egi.eu http://www.isgtw.org/feature/higgs-history-and-grid Iban Cabrillo, Luis Cabellos et al., “Direct exploitation of a top500 supercomputer in the analysis of CMS data”, Proceedings of CHEP2013, J. Phys.: Conf. Ser. vol.513 In Press Jeffrey Dean, Sanjay Ghemawat, “MapReduce: simplified data processing on large clusters”. Communications of the ACM. Enero 2008. Paul McFedries, “The Cloud Is The Computer”. IEEE Spectrum 2008. EGI.eu FedCloud: http://www.egi.eu/infrastructure/ cloud/ Michael Fitzpatrick, “Japan’s tech startups bet on wearables”, U.S. CNNMoney. Abril 2014 Victor Bret,”The Future of Programming. A History Lesson”. Dropbox’s DBX conference Julio 2013. Jacques Ferber y Jean-François Perrot, “Les systèmes multi-agents: Vers une intelligence collective”, Inter Editions, Paris, 1995. http://es.wikipedia.org/wiki/Sistema_multi-agente Dirk Holbing, discurso aceptación Doctor Honoris Causa TU Delft, Febrero 2014 http://www.futurict. eu/sites/default/files/docs/newsletters/FuturICT%20 Newsletter%20Q1%202014.pdf Luis Cabellos y Jesús Marco Instituto de Física de Cantabria (IFCA), CSIC-Universidad de Cantabria, E39005, Santander Movilidad y transporte: un viaje a través del espacio, de la ciudad al mundo © Rainer Ebert Introducción Cuando uno piensa en redes de transporte viene inmediatamente a la mente los diagramas que se pueden encontrar en las estaciones de metro mostrando las líneas y sus conexiones. Esos mapas son abstracciones, no necesariamente realistas en cuanto a la verdadera localización de las estaciones, pero en las que los usuarios se pueden orientar con cierta facilidad. A pesar de la complejidad de estos mapas en términos de número de líneas, normalmente marcadas en distinto color, y de la cantidad de estaciones, resulta intuitivo encontrar el trayecto más conveniente entre dos estaciones y dónde se deben realizar las conexiones. Es, además, relativamente sencillo decidir cuáles son las estaciones con mayor centralidad en la red y dónde se puede esperar que haya un mayor tráfico de viajeros. Estas representaciones gráficas explotan el concepto matemático de red o grafo que permite una caracterización rigurosa de numerosos sistemas complejos. Los elementos básicos del sistema se pueden representar como nodos, mientras que las interacciones aparecen como links o conexiones. Dichas conexiones pueden tener distinta intensidad e incluso pueden ser direccionales, en vez de recíprocas. El análisis de la estructura de la red permite una mejor comprensión de la organización global del sistema, ver si existen o no zonas especialmente conexas (comunidades) y estudiar la capacidad de transporte global (ver, por ejemplo, [1, 2, 3] para revisiones recientes). En este trabajo, nos centraremos en las redes de movilidad y transporte. Pasaremos desde las redes de movilidad en ambientes urbanos, tal y como se pueden observar gracias a las nuevas tecnologías de la información, a redes de conexión entre ciudades y, más en concreto, a un análisis de la red de transporte aéreo. Estos resultados forman parte de un contexto mucho más amplio, pero dan una idea del estado actual de esta disciplina. Movilidad urbana y estructura de las ciudades Entender cómo la gente se mueve dentro de una ciudad y, por lo tanto, caracterizar cómo las ciudades se organizan espacialmente en términos de transporte y uso del suelo es una cuestión de gran importancia para los investigadores en urbanismo, ingeniería civil y arquitectura, siendo, además, un desafío para la ciencia de los sistema complejos [4]. Hace diez años era difícil estudiar estas cuestiones en detalle debido a la falta de datos fiables, pero hoy en día los dispositivos electrónicos (TIC) generan una gran cantidad de información geolocalizada y en tiempo real. Estos datos han impulsado un renovado interés en el estudio de las ciudades y las dinámicas urbanas, incluyendo los patrones de movilidad. Varias fuentes de datos han sido utilizadas, entre ellas, la localización de billetes de dólar [5], dispositivos GPS en coches [6], dispositivos RFID para el transporte público [7], así como los datos procedentes de las redes sociales como Twitter [8] o Foursquare [9]. Una fuente de información muy relevante es el uso de teléfonos móviles [10] que nos permiten estudiar los patrones de movilidad individuales con una alta resolución espacial y temporal [11] o la detección automática de usos urbanos [12]. En este trabajo analizaremos cómo estos datos permiten estudiar la movilidad urbana con especial atención en las ciudades españolas. Los datos de teléfonos móviles pueden ser agregados espacialmente, permitiendo así obtener el número de usuarios que utilizan su teléfono móvil en un área en particular de la ciudad o en toda la ciudad. El número de usuarios se puede representar en función de la hora del día y del día de la semana, como se puede ver en la figura 1, para seis ciudades [13]. En general, el uso de teléfonos es mayor durante los días de la semana que en los fines de semana, exceptuando en horario nocturno, donde sucede al contrario. Para todas las ciudades observamos dos picos de actividad, uno a mediodía (las 13:00 h durante el fin de semana) y otro a las 18:00 h (20:00 h durante el fin de semana). Esta información permite también investigar la distribución espacial de los usuarios en la ciudad y, por extrapolación, de toda la población, así como también la variación en el tiempo del número de usuarios en cada zona. En el primer caso, esto nos lleva a identificar zonas de la ciudad donde la gente se concentra (hotspots o centros de actividad) y nos permite caracterizar cada ciudad por el número de dichos puntos que presenta. En los casos extremos, se podría pensar en ciudades monocéntricas, en las que toda la actividad se concentra en un solo punto, o policéntricas donde aparecen muchos de estos puntos repartidos por toda el área urbana. Naturalmente, el número de centros de actividad depende del tamaño de la ciudad: no es lo mismo Madrid o BarceloRdF • 28-3 • Julio-septiembre 2014 37 Sociofísica • Movilidad y transporte: un viaje a través del espacio, de la ciudad al mundo 0 5 10 Horas 15 3.1 1.6 3 2 1 20 o o o o o oo o o o o o o o o ooooo o oo ooo o o o o o o o oo o o o o o o o o oo ooo oo oo oooo o oo o oo ooo 0 5 0.5 o o oo o o o o o o o o o o o o o o o o o o oo o oo o o o o o o ooo o o o oo o o o oo o o o o o o o o oo o o o o o o o o o o o o o o ooo oooooo o oooo 0 Fig. 1. Número de usuarios de teléfonos móviles en seis áreas metropolitanas españolas según la hora del día y el día de la semana. 5 10 Horas 15 4.5 2.7 0.9 Número usuarios (x 104) 1.5 Mon Tue Wed Thu Fri Sat Sun o o oo o o ooo o 10 Horas 15 3.3 2.2 1.1 30 Mon Tue Wed Thu Fri Sat Sun 20 10 20 20 Mon Tue Wed Thu Fri Sat Sun 6 4 2 o o oo o ooo o o o o o oo o o o oo o o o o o o o o o ooo o o o oo oo o oo o o o o o o o o o o o o o o oo o o o o o o oo o ooo ooo o oo oo o oo o o oo ooo ooo 0 5 10 o Horas 15 20 na con millones de residentes que ciudades con 10.000 habitantes. El coste de los viajes dentro de la zona urbana tanto económico como en tiempo es muy diferente y eso justifica que la actividad se divida de forma desigual. De hecho, el número de centros cambia con la escala de la ciudad de forma no lineal, que se puede ajustar con una ley de potencias con un exponente cercano a 1/2 [13]. Si uno se fija en la evolución temporal de estas propiedades se puede estudiar, también, cómo la población se concentra o se aleja del centro geográfico de la ciudad a lo largo del día. Es decir, nos permite observar cómo las ciudades “respiran”, identificando la existencia de un ritmo urbano común a todas las ciudades. Estos movimientos permiten, además, definir un coeficiente de dilatación urbano que caracteriza las diferentes propiedades de cada ciudad en términos de organización interna. Los datos se pueden usar para identificar el tipo de actividad más común en áreas urbanas específicas [12]. Por ejemplo, un área en la que la probabilidad de encontrar usuarios es mayor durante los días de la semana, por la noche y los días de fin de semana se puede definir como una zona residencial. Por el contrario, una zona donde la gente está en su mayoría utilizando su teléfono móvil de las 9:00 a las 19:00 h entre semana es probablemente un área de negocio. Matrices origen-destino Hasta ahora nos hemos centrado más en la organización de las ciudades que en la movilidad, aunque estos dos temas están claramente relacionados. Los datos geolocalizados se pueden utilizar para detallar las trayectorias individuales: se considera que 38 RdF • 28-3 • Julio-septiembre 2014 o o 0 5 o o o o oo oo o o o o o o oo o o o o o o o o o ooo o o o o o o o o o oo o o o oo o o oo o oo o o oo o o o o oo 10 Horas 15 5.4 3.6 1.8 20 Zaragoza o o o o oo o o oo ooo o o o o o o o ooo ooo o o o ooo ooo oooo Valencia o o ooo o o o o Porcentaje de la población Número usuarios (x 104) Palma 2.5 o o o o ooo o o o Porcentaje de la población o o ooo o oo o o o o o o ooo oo oo o o o ooo o o o o o oo o o o o o o o o o o o o o ooo o o oo o o o o oo ooo o o 3.9 2.6 1.3 3 2 1 o oo o oo o o o o oo o o o o o o o o o oo o o o o o o oo o oo oo o o o oo o ooo o o o o o o o o o oo o o o o o o o oo ooo o ooo o o o o o oo o o o o oo Mon Tue Wed Thu Fri Sat Sun 0 5 o o o ooo o o o 10 Horas o o o 15 4 2.7 1.3 Porcentaje de la población o o o o Mon Tue Wed Thu Fri Sat Sun Número usuarios (x 104) 4.7 Número usuarios (x 104) o o o o o o oo o o o Madrid Porcentaje de la población 5 o o o o o ooo o Porcentaje de la población 10 Mon Tue Wed Thu Fri Sat Sun Bilbao o o o ooo o o o Número usuarios (x 104) 15 oo o ooo o Porcentaje de la población Número usuarios (x 104) Barcelona 20 un usuario realiza un viaje cuando dos registros consecutivos proporcionan diferentes ubicaciones. Por ejemplo, registros de telefonía móvil muestran que la distribución de los viajes sigue una ley de Levy [11]. Aunque la gente viaja por diferentes razones, la mayoría de estos movimientos se refieren a desplazamientos casa-trabajo. Estos desplazamientos generan redes de relaciones socio-económicas que son el vector de las dinámicas sociales y económicas, tales como brotes epidémicos, los flujos de información, el desarrollo de la ciudad y el tráfico [14]. Comprender las propiedades esenciales de estas redes y reproducirlas con exactitud es un tema crucial para las instituciones de salud pública, los responsables políticos, el desarrollo urbano, los planificadores de infraestructura, geomarketing, etc (ver por ejemplo refs. [15, 16, 17]). Los datos geolocalizados, tales como registros de teléfono móvil, se pueden utilizar para extraer las trayectorias individuales y, más en particular, para extraer tablas de origen-destino. La idea principal es identificar las posiciones más frecuentes visitadas por un usuario, y, en función de la hora de la visita, clasificarlos como “casa”, “trabajo” y “otros”. Las posiciones de los usuarios se identifican mediante las torres de telefonía móvil, y se pueden agregar fácilmente usando una cuadrícula regular o límites administrativos como municipios o distritos. La figura 2 muestra una comparación entre las matrices origen-destino de los municipios de España extraídos del Censo 2011 y los obtenidos de los datos de móviles [18, 19]. Es interesante observar que las dos matrices son muy similares, aunque la tabla de origen-destino de los registros de teléfono móvil subestima ligeramente la pro- Bruno Campanelli, Maxime Lenormand, Pablo Fleurquin, José J. Ramasco y Víctor M. Eguíluz • Sociofísica Modelización A parte del análisis de los datos, es interesante decir algo sobre la modelización de las redes de movilidad, lo que permite entender mejor los mecanismos que contribuyen a formarlas. Este desafío es objeto de una intensa actividad científica [17]. Los modelos más sencillos se inspiran en la ley de la gravedad de Newton. Si Tij es el número de viajeros entre dos unidades geográficas (ciudades, municipios, regiones…) i y j, este modelo asume que es proporcional al producto de las “masas” de cada unidad geográfica (población, o PIB) a un cierto exponente por una función de decreciente con la distancia dij: Tij ∝ Piα Pjγ f (dij).(1) Esta aproximación suele dar problemas cuando las zonas geográficas elementales son muy diferentes (ver [14] y las soluciones propuestas allí). Una posible solución pasa por usar el método de simulación de Monte Carlo para generar una red de desplazamientos [20]. El modelo toma como entrada el número de personas que entran y salen de cada unidad geográfica y genera la matriz de flujos entre las dichas unidades. En el algoritmo, las personas deciden dónde trabajan siguiendo una regla clásica que consiste en un compromiso entre las ofertas de trabajo y la distancia a los puestos de trabajo. El único parámetro β del modelo modifica la influencia de la escala geográfica. Se ha mostrado que una ley exponencial f(d) = e−βd da mejores resultados que una ley potencial f(d) = d−β [21]. Otra alternativa se propone en el modelo de radiación [22]. En este modelo, el flujo de commuters entre dos unidades geográficas es una función de la población de ambas unidades y la población accesible en un círculo en la distancia entre las dos unidades. Más recientemente se ha propuesto un modelo con fuerte relación con la Mecánica Estadística, en el que los viajeros son considerados discernibles, sus diferentes trayectos origen-destino computados y, aplicando un principio de máxima entropía, se pueden generar redes de movilidad [23]. el SARS, etc., [14, 26]. Otro aspecto dañino que se propaga también por estas redes son los retrasos aéreos. Los retrasos en los vuelos afectan a los pasajeros y a las compañías: mientras que los primeros pierden la paciencia y oportunidades de negocio u ocio, las segundas sufren pérdidas debido al aumento de los costes de operación y disminuye su reputación. Estos problemas dan lugar a daños económicos de decenas de miles de millones de dólares al año [27] y se espera que puedan empeorar si el tráfico se incrementa en las próximas décadas. En esta sección incluiremos resultados de una serie de trabajos de modelización de la propagación de retrasos [28, 29, 30]. El objetivo es entender mejor cómo funcionan las redes de transporte aéreo y cómo se pueden optimizar los procesos para reducir el impacto de los retrasos. Modelización de la propagación de retrasos aéreos El modelo se basa en una simulación de agentes tomando las aeronaves como elementos básicos. Cada uno de ellos sigue las operaciones programadas en los planes de las compañías a lo largo del día. Esta información se puede extraer de datos públicos en Estados Unidos (http://www.bts. gov) y de datos de Eurocontrol en el caso europeo. Además de los planes de operaciones, es necesario incorporar otros factores como la conectividad de pasajeros y tripulaciones entre vuelos: consideramos que dos vuelos F y F’ de la misma aerolínea pueden conectarse si la salida programada de F’ cae dentro de una cierta ventana temporal Δt de la llegada programada de F al mismo aeropuerto. Como probabilidad de conexión usamos la fracción de pasajeros conectando en cada aeropuerto, proveniente de datos, modulada por un parámetro α, que nos permite explorar distintos escenarios. Finalmente, si un aeropuerto está congestionado, los retrasos se pueden transmitir a vuelos de todas las compañías. Para implementar este último ingrediente en el modelo se usa un sistema de colas: cada vez que un vuelo llega, entra en cola para servicio. Los vuelos en cola se atienden siguiendo un principio de prioridad por entrada en la cola, una vez listos pueden despegar siguiendo su horario, y se asume que la capacidad del aeropuerto se corres(a) Movilidad entre ciudades: transporte aéreo (b) 10−1 10−2 10−2 Viajeros (Censo) Cambiamos ahora de escala y de modalidad. Pasamos a ocuparnos del tráfico aéreo ya que, aunque mantendremos elementos provenientes de datos reales, queremos mostrar cómo se construye un modelo con poder predictivo. Los sistemas de transporte aéreo se han descrito también como redes donde los nodos representan aeropuertos y los enlaces vuelos directos [24, 25]. Además de estudiar su topología y evolución, estas redes son relevantes porque son el medio por el que se propagan enfermedades infecciosas como la gripe, Fig. 2. Comparación entre tablas de origen-destino. Los datos provienen del Censo de 2011 y de los registros de teléfonos móviles (septiembrenoviembre de 2009) a nivel municipal. (a) Comparación entre los flujos no nulos (los valores se han normalizado con el número total de viajeros). Los puntos se refieren a los valores encontrados en cada municipio y la línea roja es la diagonal y = x. (b) Distribución de distancias recorridas por los viajeros, contando sólo personas que viven y trabajan en municipios diferentes. Los cuadrados rojos representan los datos del Censo y los triángulos azules los datos de móviles. 10−3 10−3 10−4 PDF porción de pasajeros de larga distancia (distancia de trayecto de más de 100 km). 10−4 10−5 10−5 10−6 10−6 10−7 10−6 10−5 10−4 10−3 10−2 10−1 Viajeros (Móviles) Censo Móviles 101 102 103 Distancia (km) RdF • 28-3 • Julio-septiembre 2014 39 Sociofísica • Movilidad y transporte: un viaje a través del espacio, de la ciudad al mundo Fig. 3. Comparación de la evolución temporal del tamaño del cluster gigante de aeropuertos congestionados obtenido a partir de datos reales y de simulaciones. ponde con el número de operaciones programadas por hora modulado por un factor β. Los dos únicos parámetros del modelo son α y β. En realidad podrían ser diferente en cada aeropuerto pero en la práctica les mantenemos iguales en todo el sistema excepto si se trata de simular el efecto del mal tiempo sobre un aeropuerto i, que puede bajar su capacidad temporalmente βi < β ≤ 1. Resultados de la simulación Para comparar las predicciones del modelo con datos reales, calculamos la evolución temporal del cluster de aeropuertos congestionados. Definimos un aeropuerto como congestionado cuando el retraso promedio en una hora por vuelo de salida es superior que el promedio anual de los vuelos retrasados (29 minutos en los EE. UU. en 2010). Esta es una definición arbitraria pero, como se puede ver a continuación, da buenos resultados para medir la congestión a nivel global. La red de aeropuertos se construye con conexiones directas entre aeropuertos durante cada día, una red por día, y permite evaluar si los aeropuertos congestionados forman o no grupos conectados. En los datos de EE. UU. para 2010 se observa que la mayor parte de los días el sistema no desarrolla un cluster conexo significativo (mayor que dos o tres aeropuertos). Sin embargo, en ciertas fechas el cluster puede llegar a abarcar un tercio de toda la red. La principal característica del sistema en términos de congestión parecer ser una dinámica rápida en escalas de horas y una muy baja memoria en cuanto a los aeropuertos implicados en el cluster congestionado más grande. En primer lugar, consideramos un día de operaciones normales, es decir, sin perturbaciones externas como huelgas o mal tiempo. El modelo se simula tomando los retrasos iniciales de los datos, fijando β = 1 y ajustando α. Este ajuste se hace trazando la evolución del tamaño del cluster gigante hora a hora, como se puede ver en la figura 3, y buscando el valor de α tal que el área bajo la curva de las predicciones del modelo se corresponda con el observado en los datos. El modelo reproduce el tamaño del cluster en el pico, pero además es capaz de predecir la evolución del cluster mayor en todas las demás horas. Esto 40 RdF • 28-3 • Julio-septiembre 2014 funciona en días con gran congestión en la red —el 12 de marzo de 2010— como en aquellos en que no hubo gran retraso promedio —19 de abril de 2010—. De hecho, fijando α en el valor medio anual, el modelo es capaz de adelantar la presencia o no de un cluster gigante significativo con casi un 70 % de precisión. En el área del transporte aéreo existe una discusión sobre cuál es el papel de los distintos elementos de las operaciones en la propagación de retrasos. Como se ve en la figura 3, las conexiones de tripulación y pasajeros son según nuestro modelo el mecanismo más dañino para la multiplicación y transmisión de retrasos en la red. El modelo sirve además para evaluar la calidad de la programación diaria a escala de red o de compañías. En la figura 4, retrasamos una cantidad fija de tiempo una fracción de los vuelos seleccionados al azar. Para un retraso suficiente, sea cual sea la programación del día, se puede llegar a tener un colapso a nivel de red. Sin embargo, el hecho de que la curva que se muestra en la figura esté desplazada hacia valores mayores del retraso el 19 de abril, muestra que la programación de ese día estaba mejor diseñada que la del 12 de marzo. Cambiando las programaciones, se puede minimizar el volumen bajo esas curvas y buscar, por tanto, combinaciones óptimas para evitar en la medida de lo posible la propagación de retrasos. Conclusiones Hemos presentado resultados recientes en redes de movilidad y transporte. El objetivo ha sido mostrar las distintas escalas del problema: desde movilidad en áreas urbanas y cómo las nuevas tecnologías ayudan para caracterizar las ciudades, hasta el transporte aéreo. Hemos mostrado tanto resultados empíricos u observacionales como un modelo. En ambos casos se ve que las teorías y conceptos provenientes del estudio de los sistemas complejos tienen un gran potencial para describir sistemas reales de notable importancia económica y social. Más aún, no solamente se pueden usar a un nivel descriptivo, sino que pueden llevar a la creación de modelos con capacidad predictiva sobre el comportamiento de dichos sistemas sociotécnicos. 19 Abril 2010 TTamaño amaño clusterr mayor mayor o aeropuertos α = 0.1 Retraso R etraso inicial i i i l FFracción racción ió vuelos l retrasados Referencias [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] A. Barrat, M. Barthelemy y A. Vespignani, Dynamical processes on complex networks (Cambridge University Press, 2008). M. E. J. Newman, Networks: An introduction (Oxford University Press, 2010). R. Cohen y S. Havlin, Complex networks: structure, robustness and function (Cambridge University Press, 2010). M. Batty, The new science of cities (MIT Press, 2013). D. Brockmann, L. Hufnagel y T. Geisel, Nature 439, 462 (2006). R. Gallotti, A. Bazzani y S. Rambaldi, International Journal of Modern Physics C 23, 1250061 (2012). C. Roth, S. M. Kang, M. Batty y M. Barthelemy, Public Library Of Science ONE 6, e15923 (2011). B. Hawelka, I. Sitko, E. Beinat, S. Sobolevsky, P. Kazakopoulos y C. Ratti, arXiv:1311.0680 (2013). A. Noulas, S. Scellato, R. Lambiotte, M. Pontil y C. Mascolo, Public Library Of Science ONE 7, e37027 (2012). J. P. Onnela et al., Proceedings of the National Academy of Sciences of the United States of America 104, 7332 (2007). M. C. González, C. A. Hidalgo y A. L. Barabasi, Nature 453, 779 (2008). V. Soto y E. Frías-Martínez, Proceedings of the 3rd ACM International Workshop on MobiArch (ACM, Nueva York, 2011), pp. 17-22. T. Louail et al., Scientific Reports 4, 5276 (2014). D. Balcan, V. Colizza, B. Goncalves, H. Hu, J. J. Ramasco y A. Vespignani, Proceedings of the National Academy of Sciences of the United States of America 106, 21484 (2009). A. De Montis, M. Barthelemy, A. Chessa y A. Vespignani, Environment and Planning B: Planning and Design 34, 905 (2007). J. Ortúzar y L. Willumsen, Modeling Transport, (John Wiley and Sons Ltd, Nueva York, 2011). M. Barthelemy, Physics Reports 499, 1 (2011). TTamaño cluster cluster mayor aeropuertos Bruno Campanelli, Maxime Lenormand, Pablo Fleurquin, José J. Ramasco y Víctor M. Eguíluz • Sociofísica 12 Marzo 2010 α = 0.1 Retraso inicial Fracción vuelos retrasados [18] M. Tizzoni et al., Public Library of Science Computational Biology 10, e1003716 (2014). [19] M. Lenormand et al., Public Library of Science ONE 9, e105184 (2014). [20] F. Gargiulo, M. Lenormand, S. Huet y O. Baqueiro Espinosa, Journal of Artificial Societies and Social Simulation 15, 6 (2012). [21] M. Lenormand, S. Huet, F. Gargiulo y G. Deffuant, Public Library Of Science ONE 7, e45985 (2012). [22] F. Simini, M. C. Gonzalez, A. Maritan y A. L. Barabasi, Nature 484, 96 (2012). [23] O. Sagarra, C. J. Pérez-Vicente y A. Díaz-Guilera, Physical Review E 88 , 062806 (2013). [24] A. Barrat, M. Barthelemy, R. Pastor-Satorrasy A. Vespignani, Proceedings of the National Academy of Sciences of the United States of America 101, 3747 (2004). [25] R. Guimerà, S. Mossa, A. Turtschi y L. A. N. Amaral, Proceedings of the National Academy of Sciences of the United States of America 102, 7794 (2005). [26] M. Tizzoni et al., BMC Medicine 10, 165 (2012). [27] Joint Economic Committee of US Congress, “Your flight has been delayed again: Flight delays cost passengers, airlines and the U.S. economy billions”. [en línea] (http://www.jec.senate.gov) (22 de mayo de 2008). [28] P. Fleurquin, J. J. Ramasco, y V. M. Eguíluz, Scientific Reports 3, 1159 (2013). [29] P. Fleurquin, J. J. Ramasco, y V. M. Eguíluz, “Datadriven modeling of systemic delay propagation under severe meteorological conditions”, en Proceedings of the 10th USA/Europe Air Traffic Management R&D Seminar (Chicago, EE. UU., 2013). [30] P. Fleurquin, J. J. Ramasco, y V. M. Eguíluz, Transportation Journal 53, 330-344 (2014). Fig. 4. Tamaño del cluster más grande en función de la fracción de los vuelos retrasados (escogidos al azar) y el retraso inicial. Bruno Campanelli, Maxime Lenormand, Pablo Fleurquin, José J. Ramasco y Víctor M. Eguíluz, IFISC, CSIC-UIB, Palma de Mallorca RdF • 28-3 • Julio-septiembre 2014 41 Dinámica de opiniones y consenso: un problema de física estadística H ay un interés reciente, y creciente, en la aplicación de las técnicas de la física estadística para explicar la evolución y los cambios de opinión en una sociedad [7]. El motivo son las similitudes que aparecen con los típicos sistemas de física estadística. Una sociedad se puede pensar como un gran número de agentes que interaccionan entre sí. Los agentes de alguna manera son las unidades microscópicas y queremos explicar en función de ellas los cambios globales de opinión o tendencias que puedan observarse colectiva, macroscópicamente. Es precisamente esta conexión micro-macro, la explicación de fenómenos macroscópicos en términos de las propiedades microscópicas, el objetivo de la física estadística, aunque tradicionalmente las unidades microscópicas de esta disciplina sean átomos, moléculas, espines, etc., gobernados por una función hamiltoniana, y las propiedades macroscópicas que uno quiera explicar vayan desde los potenciales termodinámicos al coeficiente de difusión, la viscosidad, etc. Los “agentes” pueden ser personas, colectivos, grupos sociales o empresas, aunque en problemas de formación de opinión lo más extendido es identificar a las unidades microscópicas como individuos. Las opiniones que un individuo pueda tener sobre unos determinados temas no son necesariamente estáticas, sino que pueden evolucionar debido a una serie de factores internos y externos como, por ejemplo, los debates que uno tenga con conocidos y la influencia de la publicidad. Como resultado de esta evolución, se puede llegar o no a una situación de consenso, entendida como una alta fracción de los individuos coincidiendo en la misma opinión. Asimismo, como consecuencia de la influencia de la publicidad, ésta puede hacer que los individuos cambien mayoritariamente su opinión o no. Para analizar el proceso de formación de opinión se han introducido una variedad de modelos inspirados, como decíamos, en la física estadística. En esos modelos, la opinión que tiene un individuo se trata como una variable dinámica que evoluciona de acuerdo con algunas reglas, normalmente un mapa determinista en tiempo discreto, aunque se suele añadir algún elemento estocástico. Los modelos se dividen 42 RdF • 28-3 • Julio-septiembre 2014 en dos grandes grupos: modelos discretos en los que la opinión sólo puede tomar un número finito de valores (incluso sólo dos) y modelos continuos en los que la opinión es una variable real en un intervalo cerrado. Los modelos discretos aparecen de una manera natural cuando nos enfrentamos a una elección entre varias posibilidades (qué partido político votar, Mac vs. Windows o Linux, beber vino o cerveza, etc.) mientras que los modelos continuos se aplican a un único tema (por ejemplo, legalizar el aborto) en el que las opiniones pueden cambiar continuamente desde “completamente a favor” a “completamente en contra”. Importantes modelos continuos fueron introducidos por Deffuant y colaboradores [1, 2] y Hegselman y Krause [3]. Ambos grupos de modelos incorporan el mecanismo de “confianza limitada” por el cual sólo pueden interaccionar (y por tanto conseguir que la opinión de uno haga modificar la del otro) aquellos individuos cuyas opiniones no difieran en demasía. Esto quiere reflejar el que es imposible que un tertuliano de extrema derecha haga cambiar la opinión de un oyente de izquierdas. Las opiniones evolucionan debido a un proceso de discusión en unos grupos de debate. Dentro de un grupo de la interacción, cuyos participantes deben satisfacer entre sí el criterio de confianza limitada, se produce un acercamiento de las opiniones de los participantes hacia el valor promedio. La diferencia principal entre el modelo de Deffuant y colaboradores y el de Hegselman-Krause radica en la identificación de los grupos de debate. Mientras que en el primer modelo dos individuos cualesquiera pueden interaccionar (debatir, dialogar) independientemente de la distancia física entre ellos, en el segundo, el debate se produce dentro de un grupo definido por la proximidad geográfica de sus componentes (un club, el ámbito familiar, etc.), de manera que una persona se siente afectada por todos los integrantes del grupo. Los modelos predicen que, dependiendo del intervalo de confianza que permite la interacción, el sistema o bien alcanza un consenso perfecto o bien se separa en un pequeño número de subgrupos que (siendo internamente perfectamente homogéneos) mantienen distintas opiniones entre sí, de manera que no es posi- Raúl Toral • Sociofísica El modelo introducido por Serge Galam [10, 11] quiere identificar mecanismos por los que una opinión, que es inicialmente minoritaria, puede convertirse en mayoritaria después de un cierto tiempo. Galam fue motivado a este estudio por la constatación de que las votaciones que se hacen en el seno de los diferentes comités de los partidos políticos siempre acaban arrojando una abrumadora mayoría hacia una de las opciones, aunque al inicio del proceso la opción finalmente ganadora no tenía ni de lejos la aprobación de la mayoría de los miembros del partido. Esto le da al proceso un aspecto poco democrático (las llamadas mayorías a la búlgara) que, en su opinión, no refleja la discusión profunda (y verdaderamente democrática) que se da en los partidos. Hay otros ejemplos (todos de principios de los años 2000) analizados por Galam en los que una opinión, aunque fuera inicialmente minoritaria, puede llegar a ser mayoritaria: el rechazo a tratados europeos en Irlanda, el voto negativo en Francia sobre la Constitución Europea, el cambio de opinión que se produjo en España sobre la autoría de los atentados del 11-M (aquí es necesario considerar, además, la existencia de unos medios de comunicación que adoptaban partido por una u otra opción), etc. El ingrediente básico en el modelo de Galam es la discusión organizada en pequeños grupos. Cada persona tiene una opinión inicial que puede verse alterada como resultado de dicha discusión. El punto clave del modelo es que, como resultado de la discusión, el grupo entero adopta una única opinión. Para pA(t+1) = ∑ak ∑ ⎧k pA(t)j (1– pA(t))k–j j k+1 k=1 — ⎩ j=⎡ — ⎣ 2 M M ⎡ ⎣ Modelo de Galam de formación de consensos simplificar las cosas, podemos pensar que hay dos opciones, A y B. La regla de adopción de una opción u otra por parte del grupo es una simple regla de mayoría: gana la opción que inicialmente tenía el mayor número de seguidores. ¿Qué pasa en caso de empate en el grupo? Entonces entra en juego un elemento de inercia social. Hay un sesgo hacia una de las dos opiniones, digamos A, correspondiente generalmente a la resistencia a los cambios o reformas. Por tanto, en caso de empate dentro del grupo, la decisión preferida (la que está en contra del cambio implicado en el proceso de decisión) es adoptada por todo el grupo. En la versión original de Galam, las personas se redistribuyen aleatoriamente en nuevos grupos y el proceso de discusión empieza de nuevo. Si definimos pA(t) como la proporción de personas que tienen la opinión favorecida A en el tiempo t y hay una probabilidad ak de que la gente se reúna (aleatoriamente) en grupos de tamaño k=1,...,M, es posible establecer una relación de recurrencia con el resultado de la interacción a un tiempo t+1. La probabilidad de que una persona tenga la opinión A dependerá de que en el grupo de tamaño k haya un número j de agentes con esa opinión que sea, bien mayoritario, o igual a la mitad si A es la opinión preferida en caso de empate, lo que dice que j puede valer j=[(k+1)/2],...,k, siendo [x] la parte entera por defecto del número real x. La relación de recurrencia es ⎧ ⎩ ble la interacción entre subgrupos, una situación de polarización de las opiniones. Esta transición entre consenso y polarización comparte muchas de las características de un cambio de fase termodinámico, siendo posible definir parámetros de orden, exponentes críticos, etc. Es posible relajar el resultado poco realista de un perfecto consenso dentro de un subgrupo introduciendo reglas adicionales que incorporan elementos estocásticos en la evolución de las opiniones. Como consecuencia de ello, se identifica una nueva transición entre estados polarizados y estados de desorden en los que no se aprecia la formación de grupos de opinión bien definidos [20, 21, 22]. Es imposible resumir en un corto espacio todo el trabajo que se ha realizado en los, digamos, últimos diez o quince años sobre modelos de formación de opinión. Hemos decidido aquí fijar nuestra atención en dos modelos discretos que han sido propuestos recientemente, y en los que hemos contribuido con diversas publicaciones. El primero es el modelo de Galam de formación de consensos y cambios de opinión, y el segundo hace referencia al fenómeno de resonancia estocástica en sus diferentes versiones en un sencillo modelo de presión social. (1) Resulta que para un amplio rango de distribuciones de tamaños de grupos de discusión ak, esta relación tiene tres puntos fijos: dos estables en pA = 1 y pA = 0 y uno inestable en pA = pc. Sea p = pA(0) la proporción inicial de partidarios de la opción A. El análisis de los puntos fijos de la relación de recurrencia nos indica que si p > pc la recurrencia tiende al punto fijo pA= 1 (consenso en A), mientras que si p < pc tiende a pA= 0 (consenso en B). Si definimos un parámetro de orden ρ = ⟨pA(t→∞)⟩ como el promedio sobre realizaciones del proceso de discusión de la fracción de personas que van a adquirir la opinión A, después de muchas discusiones, la predicción de este análisis sencillo es que ⎧ ρ(p) = 1, si p > pc, ⎨ 0, si p < p c. ⎩ El valor de pc puede determinarse a partir de los números ak. Si resulta que pc<1/2, entonces para pc<pA(0)<1/2 se da la situación paradójica de que una opinión inicialmente minoritaria puede ser la ganadora asintóticamente. Es interesante cuantificar la velocidad de la aproximación a este punto fijo en función del tamaño de la población N. En el modelo original de Galam se obtiene una dependencia logarítmica con N del número de iteraciones necesarias para que surja el consenso (en una u otra opción). Un RdF • 28-3 • Julio-septiembre 2014 43 Sociofísica • Dinámica de opiniones y consenso: un problema de física estadística crecimiento logarítmico es moderado y Galam llega a calcular que, suponiendo una iteración por día, una población de millones de habitantes puede alcanzar un consenso casi completo en una semana, lo que está de acuerdo con el cambio de opinión generalizado observado en los ejemplos anteriores. El modelo de Galam recoge, posiblemente en su versión más sencilla posible, un mecanismo de umbrales ya considerado por Granovetter [15] y Schelling [23]. En general, en un mecanismo de umbrales es necesario que la fracción de personas que hace que un individuo cambie de opinión sea mayor que un nivel de tolerancia intrínseco del individuo. Como es obvio, hay muchas simplificaciones en este modelo de Galam. Quizás la más importante sea la introducción de una reorganización aleatoria de los grupos de discusión. En otras palabras, que todos tienen la misma probabilidad de interaccionar (discutir) entre sí, lo que en física llamaríamos una hipótesis de campo medio, aunque es cierto que Galam combina este mecanismo de redistribución de las personas con una interacción que es puramente local, porque se produce en grupos de discusión de un tamaño reducido. Ha habido muchas extensiones y modificaciones del modelo de Galam. Queremos aquí mencionar el trabajo de Stauffer [24], que considera que las personas se pueden mover libremente en un retículo bidimensional que contiene más nodos que personas. De esta manera se forman grupos naturales de vecindad en los que las personas discuten. Modelos que incluyen movilidad de las personas fueron también analizados en Chopard y Galam [8, 9]. Otra variante, considerada también por Galam y analizada por Stauffer y Sá Martins [12, 25] incluye la presencia de “inconformistas” (contrarians, en la notación original), un tipo de personas que podríamos calificar de “tocapelotas” cuya opinión es siempre contraria a la mayoría. La inclusión de un número suficiente de este tipo de individuos lleva a empates técnicos entre las dos opiniones, algo que, en opinión de Galam, explica que se hayan producido resultados cercanos al 50 % en muchas elecciones entre dos opciones, a pesar de que éste es un evento que tiene una muy baja probabilidad. En el sencillo análisis de campo medio reflejado en el mapa (1), no hay dependencia explícita con el tamaño de la población. En Tessone [26] estudiamos mediante simulaciones numéricas las consecuencias de las reglas de discusión de Galam cuando consideramos una población de tamaño finito N. Nuestro resultado se puede resumir en una ley de escala para la fracción final ρ de partidarios de la opción A en función de p, la fracción inicial, como ρ(p, N) = f((p–pc)N–1/2), siendo f la función de escala. Esto implica que hay una región de valores de p de tamaño N–1/2, donde los resultados del consenso pueden diferir de lo que obtenemos en el límite N→∞. La segunda modificación al análisis de campo medio incorporada en Tessone [26] se 44 RdF • 28-3 • Julio-septiembre 2014 refiere a la consideración de la movilidad limitada de las personas. Esto lo hacemos introduciendo modelos de vecindad donde los ámbitos de discusión se modifican en cada iteración para simular el hecho de que uno no discute siempre con las mismas personas, aunque se mantiene localizado en una cierta región geográfica. La conclusión principal de este modelo de vecindad es que la ley de escala se modifica como ρ(p, N) = f(pNα), siendo α un exponente que depende del tamaño medio de los grupos de discusión y de los detalles del proceso de cambio de los ámbitos de discusión. Si fuéramos a analizar esta ley de escala con las reglas usuales de la física estadística, lo primero que haríamos sería tomar el límite termodinámico N,V→∞, siendo V el volumen total del sistema, manteniendo constante el cociente V/N. Si hiciéramos esto, obtendríamos que el valor crítico pc que separa la tendencia media a alcanzar el consenso en A o en B, escala como pc ~ N–α, por lo que al aumentar N el punto crítico tiende a pc=0, o, en otras palabras, desaparece la transición puesto que siempre se verifica que p>pc. De la misma manera, el tiempo necesario para alcanzar el consenso resulta que, en vez de logarítmicamente, escala como T ~ N β, siendo β ≈ 1.6, por lo que, estrictamente hablando, el tiempo en alcanzar el consenso diverge en el límite termodinámico o, dicho de otra manera, nunca se alcanzaría el consenso. Sin embargo, hay que recalcar que al analizar la dinámica de sistemas sociales, esta manera de proceder es incorrecta. No se debe tomar el límite termodinámico. Hay que tener en cuenta que el número de agentes involucrados en un problema de interés en las ciencias sociales nunca puede ser del orden del número de Avogadro, la referencia en problemas de física estadística. Valores realistas de N están, generalmente, en el rango de centenas, miles o, quizás a lo sumo, millones. No es sólo que el límite termodinámico no esté justificado, es que el tomarlo puede hacer que obtengamos resultados incorrectos. En el modelo de Galam, podemos predecir, incorrectamente, que la opinión preferida siempre es la consensuada, independientemente de la fracción inicial de partidarios. Es cierto que una auténtica transición de fase requiere de las singularidades matemáticas que sólo se dan en el límite termodinámico, pero es posible observar en sistemas finitos auténticos cambios de comportamiento que pueden bien pasar por transiciones de fase, sin serlo. Esto, que siendo la excepción, ocurre en algunos problemas de física estadística (un ejemplo lo tenemos en el modelo de seno de Gordon en una dimensión analizado en [4]) es un fenómeno común en el estudio de sistemas sociales [29]. Resonancia estocástica en formación de opinión Uno de los resultados más sorprendentes de la física estadística de los últimos años es el descubrimiento de que es posible inducir orden en un sistema ma- Raúl Toral • Sociofísica — . x = x – x3 + A sin(Ωt)+√2Dξ(t).(2) En ausencia de ruido, si la amplitud del forzamiento no es lo suficientemente grande, no es posible modular transiciones entre los dos estados estables x=–1,+1. En ausencia de forzamiento, el término de fluctuaciones induce transiciones estocásticas entre los dos estados estables con un tiempo característico de salto entre transiciones, el tiempo de Kramer, τK ~ eΔV/D, siendo ΔV, la altura de la barrera del potencial que separa los dos estados estables. Cuando incluimos fluctuaciones y una pequeña modulación podemos tener una resonancia si se da la condición de que medio periodo del forzamiento sea del orden del tiempo de Kramer. Parece intuitivo pensar, y efectivamente es el caso, que un valor muy pequeño de las fluctuaciones tendrá un efecto inapreciable, mientras que un valor muy grande hará que la dinámica esté dominada por el ruido y sea imposible establecer ninguna regularidad en el movimiento. Es para valores intermedios de la intensidad D del ruido cuando se observan unos saltos entre estados estables altamente sincronizados con el forzamiento externo. Éste es el fenómeno conocido como resonancia estocástica [32]. Hay otros interesantísimos ejemplos de transiciones de fase hacia un estado ordenado inducidas por fluctuaciones [6, 14], pero esto no nos concierne en el presente artículo. Es posible obtener un resultado análogo en modelos sencillos de dinámica de opinión discreta. Podemos entender los dos estados estables, ±1, como las dos posibles opiniones que tenga un individuo sobre un tema. Necesitamos, primero de todo, una dinámica que conduzca a esos dos estados estables, por ejemplo, la dinámica del modelo de Galam. Sin embargo, es posible todavía simplificar más la modelización y considerar una dinámica simple de mayorías. Por ello entendemos que cada persona puede tener una opinión (las llamaremos ±1, en vez de A y B, como antes) y que dicha opinión evoluciona mediante la interacción con un conjunto de vecinos con los que debate. La regla es de mayoría: una persona adopta la opinión sostenida por la mayoría de su entorno (en caso de empate, no modifica su opinión). Esta sencilla regla lleva, cuando no hay ningún otro ingrediente más, a que toda la población adopte eventualmente una única opinión (se supone que la población no se puede separar en dos o más grupos inconexos). Que la opinión de consenso final sea +1 o –1 depende de la condición inicial y del orden particular en que se produzcan los debates entre individuos. Si llamamos si(t)=±1 a la opinión que tiene la persona i=1,...,N, en el tiempo t, la iteración es tal que en el tiempo t+δt adoptamos la regla de evolución dada por el mapa: ⎡ ⎢ ⎣ croscópico aumentando el desorden microscópico. El primer ejemplo de este contraintuitivo fenómeno se formuló independientemente en 1981 por dos grupos de investigadores liderados, respectivamente, por Benzi [5] y Nicolis [18] sorprendentemente con la misma aplicación a la comprensión del origen del periodo observado en los ciclos glaciares. En su versión más sencilla (hay un amplio artículo de revisión en Gammaitoni [13]), se considera un sistema biestable sujeto a un forzamiento periódico de amplitud A y frecuencia Ω y fluctuaciones en forma de ruido blanco de intensidad D. El modelo concreto es si(t+δt) = signo ⎡ ∑ sj(t) (3) ⎢j∈n(i) ⎣ donde n(i) denota la vecindad de i, el conjunto de vecinos con los que debate. Se pueden tomar redes de interacción (o estructuras de vecindad) más o menos complicadas o realistas, pero para el fenómeno que queremos estudiar es suficiente considerar la red cuadrada en la que que cada nodo tiene cuatro vecinos (los cuatro nodos más próximos en la red). Los resultados son cualitativamente similares en otros tipos de redes. δt no hace más que fijar la escala temporal. Puesto que la anterior regla se aplica a una sola persona a la vez, seleccionada al azar entre todas las posibles, tomaremos δt=1/N, que indica que el tiempo se mide en debates por persona. El ingrediente del forzamiento externo lo podemos asimilar, sin ninguna dificultad, a la presencia de publicidad. La publicidad es un elemento que nos quiere impulsar a tomar una determinada opción (beba Pepsi Cola o Coca Cola) y para ello invierte unos recursos que podemos tomar representativos de la amplitud del forzamiento. También admitimos que la publicidad viene dada por una función estrictamente periódica de frecuencia Ω. Ciertamente, las campañas publicitarias no son continuas en el tiempo pero una modelización mediante una función periódica es suficiente para el fenómeno de resonancia que queremos estudiar. Por todo ello, consideramos la siguiente regla adicional Con probabilidad |A sin(Ωt)|, adoptar si(t+δt) = signo [sin(Ωt].(4) Por último necesitamos el ingrediente de las fluctuaciones. Éstas las entendemos como términos adicionales impredecibles en la dinámica. Pueden responder, por ejemplo, a un elemento de libre albedrío donde uno actúa independientemente de lo que le dicte su entorno o la publicidad. Por tanto, la última regla del modelo es Con probabilidad η, adoptar un valor aleatorio: si(t+δt) = +1 o si(t+δt) = –1(5) Cada una de estas tres reglas (3-4-5) son el equivalente de los distintos términos considerados en RdF • 28-3 • Julio-septiembre 2014 45 Sociofísica • Dinámica de opiniones y consenso: un problema de física estadística el modelo (2) de resonancia estocástica: biestabilidad, forzamiento periódico y ruido. La amplitud del forzamiento A se toma suficientemente pequeña, de manera que empezando, por ejemplo, en el estado si(0)=+1, para todo valor de i=1,...,N, es tal que no se consigue hacer que una fracción mayoritaria adopte nunca el valor –1, lo que podríamos denominar como publicidad subliminal o subumbral. Como el mecanismo que lleva a la resonancia estocástica es genérico, se ha podido demostrar [17] que estas reglas para nuestro sencillo modelo de dinámica de opiniones son tal que se obtiene una resonancia para un valor adecuado de la intensidad de las fluctuaciones, medida aquí por el parámetro η, la probabilidad de tomar una opción de manera aleatoria. Es importante resaltar que la respuesta de la población a la publicidad se cuantifica por el porcentaje de personas que adoptan una u otra opinión, relacionado con la respuesta 1 N promedio m(t) = — ∑ si(t), una clara invitación a N i=1 considerar que si(t) son variables de espines de un modelo de Ising y m(t) la magnetización. Una de las maneras de cuantificar la respuesta es la de ajustar m(t) = m0 sin(Ωt+ϕ) y observar cómo depende la amplitud m0 de los distintos parámetros y factores (por ejemplo, la estructura de la red de conectividades). El resultado de Kuperman [17] implica un máximo, una resonancia, de m0 cuando se estudia su variación con respecto a η. Hay otras maneras de considerar elementos de aleatoriedad en este modelo. Mencionaremos aquí tres modificaciones recientes que hemos introducido en el modelo anterior, todas ellas conducentes a un efecto similar de resonancia estocástica: (i) interacciones competitivas, (ii) efecto del tamaño de la población, (iii) efecto de la diversidad en las acciones individuales. De las tres, nos centraremos con más detalle en la tercera, pero mencionamos ahora brevemente las dos primeras. (i) Interacciones competitivas. Notemos que el efecto principal de la regla estocástica (5) es el de impedir que la población llegue a un consenso total. Hay otras maneras de conseguir el mismo efecto y es la de hacer que algunas personas intenten hacer lo contrario de lo que hacen otras. Este mecanismo está bien asentado en la dinámica social (urjo a los lectores a que analicen en qué momento han tomado una decisión sencillamente porque era la contraria a la que sostenía una persona a la que tienen una tirria especial). Esto lo modelamos introduciendo una matriz de interacciones κij, que inicializamos a: ⎧ κij = 1, con probabilidad 1–η, ⎨–κ, con probabilidad η . ⎩ siendo κ>0 una constante. La regla de evolución de las opiniones (3) se modifica a: ⎡ ⎢ ⎣ si(t+δt) = signo ⎡ ∑ κij sj (t) .(3’) ⎢j∈n(i) ⎣ 46 RdF • 28-3 • Julio-septiembre 2014 y no es necesario incluir ahora la regla (5) estocástica. El efecto desordenador se mide con el parámetro η, que es así el equivalente a la intensidad de las fluctuaciones. Si η=0, tenemos el modelo original que alcanza un consenso completo, mientras que, a medida que aumenta η, se va haciendo cada vez más imposible conseguir un estado en el que una gran mayoría comparta la misma opinión. Los ingredientes esenciales de la resonancia estocástica siguen presentes en este modelo y no es de extrañar que se encuentre que la respuesta a la publicidad tenga un máximo para un valor intermedio de η. A este efecto le llamamos “Divide y vencerás” [34]. La introducción de un pequeño número de interacciones competitivas entre las personas hace que sea más fácil la penetración de un mensaje publicitario. (ii) Efecto del tamaño de la población. En física estadística, es bien sabido que las fluctuaciones relativas en un sistema macroscópico disminuyen con el tamaño del sistema y, en general, escalan como N–1/2, siendo N el número de constituyentes. Si no insistimos en tomar el límite termodinámico y consideramos sistemas finitos, podemos controlar la intensidad relativa de las fluctuaciones variando el tamaño. Como la resonancia estocástica se asocia a un valor óptimo de la intensidad de las fluctuaciones, resulta que es posible obtener una respuesta óptima variando el tamaño del sistema. Este es el mecanismo de la resonancia inducida por tamaño descubierta en [19] y generalizado a otros efectos ordenadores de las fluctuaciones [33]. La verdad es que no necesitamos explicar mucho más. Otra vez tenemos todos los ingredientes presentes en nuestro sencillo modelo de formación de opiniones: biestabilidad, forzamiento y fluctuaciones (inducidas por tamaño finito). No es de extrañar, pues, que se observe un máximo de la respuesta m0 como función de N manteniendo todos los otros parámetros fijos [27]. Otra vez, este resultado indicaría que es más fácil influir con una publicidad no demasiado intensa sobre las poblaciones que no son ni muy grandes ni muy pequeñas. (iii) Efecto de la diversidad en las acciones individuales. Cuando consideramos sistemas de muchos constituyentes en un problema típico de física estadística, la hipótesis usual es que son idénticos. Desde un punto de vista fundamental, los átomos y moléculas que constituyen un sistema físico no son sólo idénticos, sino indistinguibles. Esta suposición es claramente incorrecta al considerar sistemas sociales. No sólo la red de interacciones es distinta de un agente a otro (algo ya bien establecido y estudiado en la literatura) sino que los propios agentes han de ser considerados distintos. A nuestro entender, esto es algo que todavía no se ha tenido en cuen- Raúl Toral • Sociofísica . C N xi = xi – xi3 + ai + — ∑ (xj – xi) + A sin(Ωt).(4) N j=1 donde no es necesario añadir términos explícitos de ruido ξi(t). Para ser más concretos, los parámetros ai se generan de una distribución gaussiana de media 0 y varianza σ2. La desviación típica σ es una medida de la diversidad de la población. Si σ = 0, la población es completamente homogénea y, debido al término de acoplamiento y en ausencia de forzamiento, todos los sistemas alcanzan durante la evolución dinámica el mismo estado estable. Si el forzamiento es suficientemente débil, no puede hacer que las unidades salten de un es1 N tado a otro y la variable colectiva x(t) = — ∑ xi(t) N i=1 sencillamente oscila alrededor del punto estable determinado por la condiciones iniciales (supongamos que es +1) con una pequeña amplitud proporcional a A. A medida que σ aumenta habrá una fracción de las unidades (aquellas que tengan un valor grande y negativo de ai), para las cuales el forzamiento externo, cuando toma valores negativos, es ahora suficiente para hacerlas saltar al punto estable –1. Si el acoplamiento es suficientemente grande, esas unidades “estirarán” de las otras haciéndolas adoptar también el valor –1, de manera que eventualmente una fracción mayoritaria de unidades haya pasado de +1 a –1. Cuando en el próximo semiperiodo, el forzamiento favorezca a aquellas unidades que tienen un valor de ai suficientemente grande y positivo, entonces una fracción mayoritaria saltará de –1 a +1, obteniéndose así una sincronización óptima con el forzamiento externo. Éste es, en pocas palabras, el mecanismo de resonancia inducida por diversidad presentado en [28]. Volvamos ahora a nuestro modelo de formación de opinión e introduzcamos la diversidad en la forma de una preferencia individualizada: cada persona, independientemente de la opción que adopte en un momento dado, tiene una preferencia intrínseca por una de las dos opciones. Denominamos θi∈(–1,1) a la preferencia de la persona i. Si θi > 0 quiere decir que esa persona prefiere la opción +1. Cuanto mayor sea θi mayor será la preferencia por esa opción, y similarmente para opción –1 con θi < 0. Modificamos ahora la regla de evolución de tal manera que la presión ejercida por el entorno o por la publicidad tiene que ser suficientemente fuerte como para hacerme ir en contra de mi preferencia. Concretamente, la regla de interacción entre vecinos pasa a ser: ⎡ ⎢ ⎣ ta en toda la consideración que requiere. Desde luego esta diversidad aparece también en otras aplicaciones recientes de la física estadística. Piénsese, por ejemplo, en el fenómeno de sincronización. El pionero trabajo de Kuramoto [16] sobre sincronización de osciladores incorpora el que cada oscilador pueda tener una frecuencia distinta. Si estudiamos la sincronización de la actividad neuronal, es obvio que no todas las neuronas son iguales: tienen diferente forma y volumen, diferente número de dendritas, diferentes potencial de acción, etc. De hecho, hay toda una variedad de ecuaciones adecuadas para describir la actividad de tal o cual neurona. Desde un punto de vista físico, se puede modelar la diversidad utilizando las mismas ecuaciones dinámicas y variando los parámetros intrínsecos de cada constituyente (caso de las frecuencias en el modelo de Kuramoto), variando la red de conectividades (aceptando que algunos sistemas están más conectados que otros) o, incluso, tomando diferentes ecuaciones para la dinámica de cada uno de los sistemas, la llamada diversidad estructural (por ejemplo, mezclando osciladores lineales y no lineales). Obviamente, lo más sencillo es tomar las mismas ecuaciones para cada sistema, una red regular de conectividades y variar de sistema en sistema un parámetro de las ecuaciones. Esto es lo que se denomina el ruido congelado. Aunque no podamos detallar cuál es el efecto de un término de ruido congelado en las ecuaciones, sí podemos comprender intuitivamente que lo que hace es aumentar las fluctuaciones y, por tanto, disminuir la homogeneidad del sistema en su conjunto. Retomemos nuestro sencillo modelo (2) de resonancia estocástica y consideremos ahora que tenemos muchas unidades biestables acopladas, pero cada una de las unidades tiene una preferencia distinta por cada uno de los dos estados, ±1. Esto se consigue añadiendo un tér. mino constante de la forma: xi (t) = xi – xi3 + ai. Si el parámetro ai > 0 hay una preferencia por el estado estable de valor positivo (no está situado ahora exactamente en xi = +1) y, similarmente, si ai < 0 hay una preferencia por el estado estable de valor negativo. Si acoplamos ahora N de estas unidades por un simple acoplamiento global de intensidad C que tiende a homogeneizar los valores de todas las variables, el modelo dinámico pasa a ser 1 ∑ s (t)+ θ (3’’) si(t+δt) = signo ⎡ — j i ⎢ ki ⎣ j∈n(i) siendo ki el número de vecinos con los que el agente i debate. Por ejemplo, si θi=0.3, es necesario que la fracción de vecinos que apoyan la opción –1 sea mayor del 70% para hacer cambiar de opinión a la persona i. Nos gusta ejemplificar esta regla con las preferencias sobre bebidas. Si las opciones son beber cerveza o vino, uno ciertamente tiene una preferencia mayor o menor por una de esas opciones. Si mi preferencia es vino, pero la gran mayoría de asistentes a una cena piden cerveza, yo puedo decidir tomar cerveza aunque no sea mi opción preferida. Similarmente, la regla de interacción con el forzamiento externo se modifica a: Con probabilidad |A sin(Ωt)|, adoptar si(t+δt) = signo [sin(Ωt) + θi ].(4’’) RdF • 28-3 • Julio-septiembre 2014 47 Sociofísica • Dinámica de opiniones y consenso: un problema de física estadística Y ya no necesitamos incluir el elemento estocástico explícito de (5). Aunque es posible hacer todas las cuentas necesarias [30], es claro que tenemos todos los ingredientes necesarios para que haya una resonancia en función de la diversidad σ. La respuesta colectiva es máxima para un valor intermedio de σ, ni demasiado alto, ni demasiado bajo. Véase que este mecanismo ofrece una posible interpretación de la penetración de una nueva idea en una sociedad. Si la sociedad es muy homogénea es muy difícil que una nueva idea contraria a la ya dominante se propague. Sin embargo, si la sociedad no es completamente homogénea, cuando la nueva opción intenta imponerse (forzamiento) empieza por convencer a aquellos que, aunque estuvieran tomando la opción contraria, no estaban satisfechos pues actuaban en contra de su preferencia. Debido a las interacciones, estos agentes que han tomado partido por la nueva opción son capaces de arrastrar una fracción significativa de otros agentes, de manera que, eventualmente, una fracción macroscópica ha sido convencida a la nueva opción. Existe hoy en día un gran número de situaciones en diversas disciplinas en las que se ha identificado la relevancia de este mecanismo de resonancia inducida por diversidad, y queremos destacar, dentro de las ciencias sociales, la reciente publicación [31] sobre la emergencia de la cooperación en un modelo puramente económico de agentes cooperadores y desertores. En resumen, aunque únicamente hemos podido dar unas pinceladas en algunos temas muy concretos, esperamos haber convencido al lector de que hay muchos problemas interesantes en la dinámica de opinión y consenso de poblaciones para los que uno puede usar las técnicas de modelización y análisis propias de la física estadística. Agradecimientos Agradezco el apoyo financiero de MINECO y FEDER (EC) bajo el proyecto FIS2012-30634, y de la Comunitat Autònoma de les Illes Balears. El trabajo explicado aquí ha sido desarrollado en gran medida con la imprescindible aportación de mis colaboradores Emilio Hernández-García, Miguel Pineda, Claudio J. Tessone y Teresa Vaz Martins, entre otros. Referencias [1] [2] [3] [4] [5] [6] G. Deffuant, D. Neu, F. Amblard y G. Weisbuch, Adv. Complex Syst. 3, 87 (2000). G. Weisbuch, G. Deffuant, F. Amblard y J. P. Nadal, Complexity 7, 855 (2002). R. Hegselmann y U. Krause, J. Artif. Soc. Soc. Simul. 5, 2 (2002). S. Ares, J. Cuesta, A. Sánchez y R. Toral, Phys. Rev. E 67, 046108 (2003). R. Benzi, A. Sutera y A. Vulpiani, J. Phys. A 14, 453 (1981). C. Van den Broeck, J. M. R. Parrondo y R. Toral, Phys. Rev. Lett. 73, 3395 (1994). 48 RdF • 28-3 • Julio-septiembre 2014 [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] C. Castellano, S. Fortunato y V. Loreto, Rev. Mod. Phys. 81, 591 (2009). B. Chopard, M. Droz y S. Galam, Eur. Phys. J. B 16, 575 (2000). S. Galam, B. Chopard, M. Droz, Physica A 314, 256 (2002). S. Galam, Eur. Phys. J. B 25, 403 (2002). S. Galam, Physica A 320, 571 (2003). S. Galam, Physica A 333, 453 (2004). L. Gammaitoni, P. Hänggi, P. Jung y F. Marchesoni, Rev. Mod. Phys. 70, 223 (1998). J. García-Ojalvo y J. M. Sancho, Noise in spatially extended systems (Springer, 1999). M. Granovetter, American J. Sociology 83, 1420 (1978). Y. Kuramoto, Chemical Oscillations, Waves, and Turbulence (Springer, 1984). M. Kuperman y D. Zanette, Eur. Phys. J. B 26, 387 (2002). C. Nicolis y G. Nicolis, Tellus 33, 225 (1981). A. Pikovsky, A. Zaikin, M. A. de la Casa, Phys. Rev. Lett. 88, 050601 (2002). M. Pineda, R. Toral y E. Hernández-García, J. Stat. Mech. P08001 (2009). M. Pineda, R. Toral y E. Hernández-García, Eur. Phys. J. D 62 109 (2011). M. Pineda, R. Toral y E. Hernández-García, Eur. Phys. J. B 86, 490 (2013). T. C. Schelling, J. Math. Sociology 1, 143 (1971); Micromotives and Macrobehavior (Norton and Co., New York, 1978). D. Stauffer, Int. J. Mod. Phys. C 13, 975 (2002). D. Stauffer y S. A. Sá Martins, Physica A 334, 558 (2004). C. J. Tessone, R. Toral, P. Amengual, H. S. Wio y M. San Miguel, Eur. Phys. J. B 39 535 (2004). C. J. Tessone y R. Toral, Physica A 351, 106 (2005) C. J. Tessone, C. R. Mirasso, R. Toral y J. D. Gunton, Phys. Rev. Lett. 97 194101 (2006). R. Toral y C. Tessone, Comm. Comp. Phys. 2, 177 (2007). C. J. Tessone y R. Toral, Eur. Phys. J. B 71 549 (2009). C. J. Tessone, A. Sánchez y F. Schweitzer, Phys. Rev. E 87, 022803 (2013). R. Toral, Revista Española de Física 16(1), 62-65; 16(2), 58-59; 16(3), 60-62 (2002). R. Toral, C. Mirasso y J. D. Gunton, Europhys. Lett. 61, 162 (2003). Este modelo en particular se estudió en T. Vaz Martins, R. Toral, Applications of Nonlinear Dynamics, V. In et al. (eds.), Understanding Complex Systems series, 439 (Springer, 2009). Un modelo relacionado con variables continuas de opinión es: T. Vaz Martins, M. Pineda, R. Toral, Europhys. Lett. 91, 48003 (2010). Raúl Toral IFISC (Instituto de Fisica Interdisciplinar y Sistemas Complejos), Universidad de Baleares-CSIC Transiciones de fase en epidemias ¿Qué es una epidemia? Cuando se habla de epidemias, generalmente la idea que nos viene a la cabeza es la propagación de enfermedades, pensamos en la existencia de un virus o bacteria que se difunde por una población más o menos extensa. Ejemplos de ello son la gripe estacional, que cada invierno es noticia en los telediarios; la gripe A, que llegó a tener un alcance a nivel global, o, a más pequeña escala, la propagación de los piojos en una clase de preescolares. Lo que quizás no es tan obvio es que existen otros sucesos que no tienen nada que ver con las enfermedades y que en cambio también pueden ser descritos como procesos epidémicos. La aparición de una nueva tendencia en la moda, el aumento o retroceso de las oleadas de crímenes, un nuevo juego para el móvil al que pronto todo el mundo juega o un rumor difundiéndose por los pasillos de un instituto. ¿Qué tienen en común todos estos procesos? Primero, que todos se basan en el contagio de algo: de un virus biológico, una tendencia, una información, etc. Segundo, que para que estos procesos epidémicos tengan éxito no son necesarias medidas drásticas, sino que pequeños cambios en el sistema producen efectos a gran escala. Estas dos características definen un proceso epidémico. ¿Todas las epidemias son iguales? Una vez identificada una epidemia como tal, ésta puede describirse mediante un número más o menos pequeño de parámetros. Estos parámetros son lo que hace que unas epidemias sean distintas de otras. ¿Por qué algunos procesos epidémicos triunfan y otros no? Existe en Youtube un vídeo de un gato tocando el piano que a día de hoy cuenta con treinta y cinco millones de visitas. Un vídeo parecido, con la única diferencia de que el protagonista es un perro, no llega a los cinco millones (figura 1). El vídeo es igual de gracioso, pero uno se expandió mucho más que el otro. ¿Por qué? ¿Quizás un perro resulta menos gracioso que un gato? ¿O es que el usuario que colgó el vídeo del gato tenía muchos más seguidores y por eso se hizo más famoso? ¿O es que el vídeo del perro, colgado dos años después que el del gato, se encontró con que ya había pasado su momento? Cualquiera de estos factores podría ser una explicación plausible de por qué uno se hace más famoso que otro, aunque generalmente es una mezcla de unos cuantos ingredientes lo que hace que una epidemia se comporte de una forma u otra. Malcolm Gladwell, en su libro The Tipping Point, enumera tres factores como los decisivos para describir cualquier epidemia. Él los llama “La ley de los especiales”, “El factor del gancho” y “El poder del contexto” [1]. “La ley de los especiales” se refiere a que no todas las entidades tienen la misma capacidad para transmitir. Si hablamos de propagar un rumor, seguramente una persona que tenga un círculo social más amplio, más amigos, será más beneficiosa para esta propagación. Si hablamos de propagar la gripe, aquella persona que esté en contacto con más gente durante el día será más propensa a transmitir el virus. En el caso del ejemplo del vídeo viral, el usuario que colgó el vídeo del gato tiene 57.000 seguidores mientras que el del perro apenas supera los 900. Quizás el primer usuario es uno de los especiales y el otro no. “El factor del gancho” se refiere a la propia infectividad de la epidemia. En un ejemplo biológico, estaríamos hablando de la facilidad del patógeno a establecer una infección. En el caso de la difusión de un rumor, hablaríamos de cuán interesante es ese rumor, y en el caso del vídeo online, la clave es cuán gracioso resulta para los que lo ven. El tercer y último factor es el que el autor llama “El poder del contexto”. Se refiere a que el entorno de la epidemia es esencial para su desarrollo. ¿Funcionaría igual de bien un negocio low cost en una época de crisis que en una época de bonanza económica? ¿El alcance de una epidemia de gripe es el mismo si el invierno es largo y frío que si es corto y templado? ¿Conseguirá el mismo alcance el vídeo del perro si se publica dos años más tarde que el del gato y ya no existe el factor sorpresa? Los factores expuestos conforman los elementos esenciales para poder modelizar, entender e incluso predecir el alcance de un proceso epidémico. Modelos epidemiológicos simples Los tres factores anteriores son decisivos para una epidemia, pero ¿cómo podemos cuantificar su efecto? Para poder entender una epidemia desde su base más fundamental, en física de sistemas complejos existen una serie de modelos que intentan describir y entender los fenómenos epidemiológicos. La literatura en ese ámbito es muy extensa, y los modelos pueden ser de lo más detallados a lo más sencillos. A continuación presentamos dos de los modelos epidemiológicos simples más usados: SIS y SIR (figura 2). RdF • 28-3 • Julio-septiembre 2014 49 Sociofísica • Transiciones de fase en epidemias Susceptible-Infectado-Recuperado, con las mismas probabilidades de transición que antes, β y μ. El modelo es parecido al anterior pero se comporta de forma distinta debido a su naturaleza no cíclica. Si bien el modelo SIS asegura persistencia a largo plazo debido a la falta de inmunidad, el estado absorbente del SIR consiste en que todos los individuos se recuperen de la enfermedad y ésta desaparezca (suponiendo una población que no varía en número a lo largo del tiempo). Fig. 1. Vídeos virales. En la izquierda el vídeo viral del gato tocando el piano con aproximadamente 35.000.000 de visitas, en la derecha el vídeo viral del perro con “sólo” 5.000.000 de visitas. Fig. 2. Descripción conceptual del modelo SIS y SIR. Pasar del estado Susceptible a Infectado depende de la probabilidad β y del estado de los vecinos, mientras que recuperarse depende únicamente de la probabilidad m. La diferencia entre SIS y SIR es que en SIR la recuperación genera inmunidad, y no se vuelve al estado Susceptible. S β μ El modelo SIS responde a Susceptible-Infectado-Susceptible. Es un modelo útil para describir enfermedades estacionarias, aquellas que una vez el individuo se ha curado de la enfermedad, puede volverse a infectar de nuevo, como por ejemplo la gripe. Supongamos que tenemos un sistema donde hay un cierto número de individuos, y el estado de cada uno de ellos puede ser Susceptible (sano pero que se puede infectar) o Infectado. La enfermedad se propaga de un individuo Infectado a uno Susceptible, con una cierta probabilidad, cuando se produce un contacto entre ellos, de forma que el individuo Susceptible cambia al estado Infectado. También existe una probabilidad de que un Infectado se cure espontáneamente y vuelva al estado Susceptible. Pongamos que el sistema dispone de N individuos, llamémosle β a la probabilidad de infectarse y μ a la de recuperarse. Si nos interesa saber cuál es la evolución del número de individuos infectados y susceptibles, asumiendo una población en la que todos los individuos pueden establecer contacto con todos los individuos, podemos usar las siguientes ecuaciones diferenciales acopladas: dl = βSI – μI — dt dS — = μI – βIS dt La primera ecuación expresa que la variación en el número de nodos infectados es igual a la cantidad de contactos entre individuos susceptibles e infectados que han resultado en un contagio del susceptible, menos los infectados que se han recuperado. La segunda ecuación expresa justamente lo contrario, y la suma de las dos ecuaciones es cero ya que el número total de individuos se supone constante. El modelo SIR es también muy popular y sirve para describir enfermedades que generan inmunidad, como por ejemplo la varicela. Por eso, se contemplan tres estados que corresponden a I S 50 RdF • 28-3 • Julio-septiembre 2014 β I μ R Modelos epidemiológicos en redes complejas Las redes complejas son una forma natural de representar el sustrato de un sistema complejo, una mezcla de teoría de grafos y física estadística. Esta disciplina está en auge desde hace un par de décadas debido a su gran utilidad. Una red compleja es la representación de un sistema complejo, donde los elementos del sistema se representan como nodos (o vértices) y las interacciones y relaciones entre ellos se representan como vínculos (o aristas). ¿Qué podemos representar con una red compleja? Por ejemplo: una red social, donde los nodos son las personas y los vínculos representan una relación de amistad; o una red de interacciones entre proteínas, donde los nodos representan proteínas y los vínculos son interacciones bioquímicas entre ellas. También podemos construir una red donde los nodos representen personas y los vínculos representen la frecuencia de interacción entre ellas. Así, cada persona sería un nodo de la red y tendría vínculos con la gente a la que ve regularmente: compañeros de trabajo, familia y amigos. Esta red se puede usar como base para los procesos epidemiológicos anteriores. En el caso del SIS, cada nodo de la red puede estar Susceptible o Infectado, la probabilidad de que un nodo se infecte depende de la infectividad β de la epidemia y del estado de sus vecinos, y la probabilidad de recuperarse depende únicamente de μ (figura 3). En este contexto, podemos traducir los tres factores básicos de toda epidemia anteriores al modelo. Los especiales, esos individuos con más capacidad para transmitir son, en una red, aquellos nodos que tienen una conectividad mayor, o que por su localización dentro de la red resultan claves para la propagación (por ejemplo, nodos que 1 unen comunidades ). El poder del gancho, es de1 En el contexto de redes complejas, una comunidad se entiende como un grupo de nodos que están muy conectados entre ellos y que en cambio no lo están tanto con el resto de la red [8]. Detectar e identificar estas comunidades o módulos es una disciplina por sí misma debido a la gran complejidad metodológica que este problema supone, y a la gran importancia del papel que desarrollan las comunidades en la mayoría de procesos dinámicos en redes (por ejemplo, en el contexto de epidemias, el hecho que una red tenga estructura de comunidades podría contener o ralentizar su difusión [9]). En una comunidad hay nodos que son más internos (la mayoría de sus Clara Granell, Sergio Gómez y Alex Arenas • Sociofísica 1. 2. μ β β β cir, la infectividad propia de la epidemia, se puede especificar a través de la probabilidad β, donde valores cercanos a cero indican una infectividad baja (el rumor tiene poco interés, la enfermedad no es muy contagiosa) y los valores cercanos a uno indican lo contrario. El contexto de una epidemia se explica parcialmente con la conectividad de la red y con una mezcla de ingredientes externos que puedan afectar a su propagación. Transiciones de fase en epidemias En física, una transición de fase es la transformación de un sistema de un estado macroscópico a otro. Un ejemplo son los cambios de estado (transiciones entre los estados de agregación de la materia), por ejemplo la transformación de agua en hielo, aunque el concepto también se refiere a cualquier otra transformación entre fases. Usualmente, las transiciones de fase se describen mediante la definición de un parámetro de orden. Un parámetro de orden es una magnitud que permite cuantificar el estado macroscópico de un sistema como la agregación de los estados individuales de sus elementos. Por ejemplo, la magnetización es un parámetro de orden típico en sistemas magnéticos, que mide la fracción de elementos del sistema que han alineado sus variables magnéticas (momentos dipolares) en la misma dirección. La referencia al orden es clara, ya que la magnetización cuantifica cuán ordenada es la fase del sistema. Las transiciones de fase siempre representan un cambio en el parámetro de orden que describe al sistema. Estos cambios pueden ser más o menos abruptos, y la continuidad del parámetro de orden respecto a esos cambios define el tipo de transición de fase con el que nos encontramos: transiciones de primer orden si el parámetro de orden presenta una discontinuidad, y transición de segundo orden si la discontinuidad está presente en su derivada. El punto en el que se produce la discontinuidad se conoce como punto crítico. vínculos se establecen con los nodos de esa misma comunidad) o más externos (tienen también un número importante de vínculos con nodos que están en otras comunidades). En el texto nos referimos a estos últimos, puesto que son clave en la propagación de epidemias porque son un puente entre dos contextos que no estarían conectados de no ser por estos nodos. El estudio de los procesos dinámicos y la aparición de fenómenos colectivos en sistemas complejos sigue una ruta conceptual esencialmente equivalente al enfoque de la física estadística de las transiciones de fase [2]. Un ejemplo prototípico es el de los procesos de contagio SIS y SIR a los que hacíamos referencia anteriormente (figura 4). Esta descripción es extremadamente útil para poder predecir el impacto de un proceso epidémico en escenarios genéricos y particulares. La fenomenología de las transiciones de fase en los procesos epidémicos en redes complejas es diversa, y su descripción ha producido avances importantes en la teoría de redes complejas en general. Una de las técnicas de análisis más interesantes surgida del estudio de estas transiciones es la comúnmente denominada aproximación de campo medio heterogéneo [3]. Consiste en una aproximación de campo medio (asume homogeneidad e isotropía) para cada clase de grado, es decir, asume que todos los nodos del mismo grado (el grado indica el número de vecinos) se comportan de manera idéntica. Esta simplificación es extremadamente interesante y clave en la determinación del punto crítico de la transición en epidemias en redes. Curiosamente, la teoría determina que en el límite termodinámico (es decir, cuando el número de nodos tiende a infinito) una red heterogénea en grado, con distribución según una ley de potencias de exponente en el intervalo (2, 3), tiene el punto crítico del valor de infectividad, que tiende a cero, es decir, la infección siempre está presente en el sistema. Sin embargo, las teorías efectivas en el límite termodinámico no son lo suficientemente precisas como para determinar las propiedades críticas en sistemas reales (finitos en número de elementos) y por lo tanto se necesitan nuevas ideas y aproximaciones para su estudio y determinación. Entre los desarrollos más actuales en el tema, destacamos la formulación en términos probabilísticos de la incidencia de una epidemia por nodo [4], que permite construir una cadena de Markov. La solución analítica del estado estacionario permite determinar con gran precisión la incidencia de la epidemia en cualquier tipo de red, o incluso determinar cuál es el efecto de los procesos de difusión de información en la prevención y modificación del punto crítico en epidemias [5]. Fig. 3. Representación esquemática de contagio en una red mediante SIS. Red compleja donde inicialmente hay un único nodo en estado Infectado, el resto están Susceptibles. Para cada paso de tiempo existe una fase de infección y una de recuperación. (1) Infección: cada nodo infectado contacta con todos sus vecinos (o con una fracción de ellos) y éstos se infectan con probabilidad β. En este caso, se infectan dos de los tres vecinos. (2) Recuperación: los nodos originalmente infectados se recuperan con probabilidad m. En este caso, el nodo se recupera. RdF • 28-3 • Julio-septiembre 2014 51 Sociofísica • Transiciones de fase en epidemias un avance significativo en nuestra comprensión de los mismos. Bibliografía [1] [2] [3] [4] [5] Fig. 4. Transiciones de fase en epidemias. Ilustración de la transición de fase en un modelo SIS sobre una red compleja. El parámetro de orden ρ representa la fracción de infectados en la red. Para valores de β inferiores al valor crítico, la epidemia desaparece. Por encima de este valor encontramos una fracción no nula de infectados estacionaria. Retos de futuro La modelización de epidemias usando teoría de redes complejas y física estadística sigue siendo un campo de estudio abierto. Aunque se conocen efectos como la dependencia topológica [6] o el tráfico [7], todavía se desconocen muchos aspectos de los procesos epidémicos, como por ejemplo determinar el origen más probable de un proceso epidémico, o cuál es la escala temporal del proceso transitorio de la epidemia dependiendo de la red en la que se propaga. Entre los retos más importantes encontramos la modelización en contextos variables, donde la red es a su vez un sistema vivo, cambiante y donde la infectividad también tiene un comportamiento adaptativo. La inclusión de estos factores esenciales en la correcta descripción de los fenómenos epidémicos posiblemente supondrá [6] [7] [8] [9] M. Gladwell, The tipping point: how little things can make a big difference, Little, Brown and co. (2000). A. Vespignani, “Modelling dynamical processes in complex socio-technical systems”, Nature Physics 8, 32-39 (2012). R. Pastor-Satorras y A. Vespignani, “Epidemic Spreading in Scale-Free Networks”, Physical Review Letters 86, 3200 (2001). S. Gómez, A. Arenas, J. Borge-Holthoefer, S. Meloni e Y. Moreno, “Discrete-time Markov chain approach to contact-based disease spreading in complex networks”, Europhysics Letters 89, 38009 (2010). C. Granell, S. Gómez y A. Arenas, “Dynamical interplay between awareness and epidemic spreading in multiplex networks”, Physical Review Letters 111, 128701 (2013). M. E. J. Newman, “Spread of epidemic disease on networks”, Physical Review E 86, 016128 (2002). S. Meloni, Y. Moreno y A. Arenas, “Traffic-driven epidemic spreading in finite-size scale-free networks”, Proceedings of the National Academy of Sciences of the United States of America, 106(40), 16897-16902 (2009). S. Fortunato, “Community detection in graphs”, Physics Reports 486, 75-174 (2010). M. Salathé y J. H. Jones, “Dynamics and control of diseases in networks with community structure”, PLOS Computational Biology 6(4), e1000736 (2010). Clara Granell, Sergio Gómez y Alex Arenas Departament d’Enginyeria Informàtica i Matemàtiques,Universitat Rovira i Virgili de correo tos, dirección a tr s e aquellas fo gar u s n a s d o to m a ri ) b lle es A sica@rsef. e nos queráis hacer .fi e .d ta is (rev es qu ilustracion dibujos e ción. a la redac ? ÍA F A R G O T O F A L N AMANTE DE ¿ERES U es La Revista de Física busca contribucion culos. artí ros que puedan ser utilizadas en futu sta! ¡Vuestras contribuciones hacen la revi 52 RdF • 28-3 • Julio-septiembre 2014