• Buscar

El Covid-19, los cisnes negros y la línea Maginot. Debilidades del proceso de lecciones aprendidas

Global Strategy Report, 30/2020

Resumen: A medida que la crisis sanitaria provocada por el COVID-19 va siendo controlada, se abre una nueva fase en la que procede extraer lecciones sobre el modo en que se ha gestionado, para evitar repetir errores en el futuro. Se ha aprendido mucho sobre aspectos técnicos de la lucha contra la pandemia que, sin duda, ayudarán a mejorar procedimientos concretos y materiales, por ejemplo, de protección y tratamiento. Pero corremos, una vez más, el riesgo de tratar de extraer lecciones de carácter global, que nos permitan prepararnos para afrontar en el futuro una crisis de las mismas características. En este artículo se aborda la dificultad extrema de extraer lecciones sobre la gestión de crisis complejas, incluidos los conflictos armados, en las que incluso es difícil llegar a un acuerdo sobre el grado de acierto y los efectos de las decisiones adoptadas. También es discutible la utilidad de tales lecciones, puesto que nada debe hacernos pensar que las crisis que afrontemos en el futuro vayan a tener características similares a las ya superadas. La Línea Maginot constituye un buen ejemplo de cómo las lecciones extraídas en una crisis en ningún caso pueden interpretarse como recetas para afrontar el futuro.

Del arte de la guerra y el arte de gobernar

El concepto de Lecciones Aprendidas se define como el conocimiento extraído del análisis de experiencias pasadas que pueden servir para mejorar la organización, preparación y preparación de una organización. El alcance del concepto es tan amplio que, en el ámbito de las operaciones militares, resulta aplicable a aspectos tan particulares como el cambio de ubicación de algún componente del equipo individual del combatiente, por haberse demostrado que entorpece sus movimientos en determinadas circunstancias, al tiempo que se invoca para proponer cambios en aspectos tan amplios como el modo de abordar la cooperación cívico militar en entornos de insurgencia,…

El concepto lleva ya suficientes años aplicándose como para que seamos capaces de aceptar una conclusión evidente: resulta perfectamente válido para el primer tipo de problemas; pero para el segundo, sus conclusiones no pueden ir más allá de meras recomendaciones para quienes deben tomar decisiones. La justificación de esta afirmación tiene que ver con cisnes negros, problemas perversos y sistemas adaptativos complejos. O, más sencillamente, con una realidad que tendemos a soslayar: «Una suposición metodológica fundamental es que la guerra es un arte, no una ciencia; que cada problema militar tiene muchas soluciones potencialmente correctas (no una solución única y óptima) a las que se llega a través de la imaginación, la creatividad y la intuición del líder militar«[1]. Hay autores que van más allá y, a conceptos tan poco científicos cono imaginación, creatividad e intuición añaden nada menos que la suerte, estableciendo como una de las responsabilidades de quienes toman decisiones en materia de seguridad, minimizar su efecto[2]. Y, lo dicho sobre la guerra, puede decirse del gobierno de los pueblos, perfectamente definido por la expresión «arte de gobernar», que engloba las mismas herramientas intelectuales. La consecuencia de olvidar este carácter no-científico de los complejos problemas socio-políticos en general, y de la guerra en particular, es esa acendrada tendencia a construir majestuosas «Líneas Maginot»[3].

Si no queremos prescindir del método científico a la hora de abordar el análisis de los conflictos, al menos tendremos que reconocer que, si hay una ciencia de la guerra, no es una ciencia empírica. Por más que una tendencia muy anglosajona trate de reducir el análisis y la toma de decisiones a una cuestión de acumulación y tratamiento de datos que haga posible un proceso casi automático de toma de decisiones, realidades tan complejas se resisten a ese tratamiento.

Las ciencias empíricas constituyen el dominio perfecto para la aplicación del proceso de lecciones aprendidas, basado en el procedimiento de prueba y error. Entornos controlados, factores medibles, experimentos repetibles, son todos factores que permiten una perfecta identificación de causas y efectos que permiten ir perfeccionando un modelo. Sin embargo, la búsqueda de bases científicas para enfrentar los problemas del ámbito de las ciencias sociales está condenada al fracaso, debido a la naturaleza de estos problemas.

En el campo de las ciencias no empíricas, el procedimiento de lecciones aprendidas se basa en lo que Taleb denomina «el horroroso método de reunir pruebas probatorias selectivas«, o «empirismo ingenuo«[4], lo que quiere decir que cualquiera que busque en los datos la confirmación de sus presunciones, encontrará suficientes para convencerse a sí mismo y, sin duda, a sus iguales. De esta forma, mediante la recopilación de datos que confirman nuestras presunciones, tratamos de soslayar el hecho de que nuestro mundo está dominado por lo extremo, lo desconocido y lo muy improbable.

Los oráculos del siglo XXI

Aunque el futuro es impredecible y lo será cada vez más, tanto la naturaleza humana como la ciencia social tratan de preparase frente a él con lecciones extraídas del pasado. Posiblemente no haya forma mejor de afrontar el futuro con garantías de éxito, pero la historia está plagada de “Líneas Maginot” que demuestran el peso de lo imprevisto en el devenir de la historia y lo condicionados que estamos por por la específico. Acumulamos datos, pero la incapacidad de elaborar reglas nos impide aprender. En un ámbito tan humano como el del conflicto bélico, desdeñamos lo abstracto para centrarnos en la acumulación de datos estadísticos.

Este modelo cuantitativo de abordar la necesidad de aprender del pasado lleva a la construcción de fantásticas “Líneas Maginot”, respuestas para el futuro basadas en la acumulación, muchas veces sesgada, de datos del pasado. Pero, lo sorprendente no es la magnitud de los errores de previsión, sino la falta de conciencia que las organizaciones tienen sobre ellos: A pesar de la evidencia de que las previsiones son sistemáticamente arruinadas por la aparición de factores imprevistos, no se tiene conciencia de lo contingente que, por naturaleza, resulta ser el futuro. El futuro es fundamentalmente imprevisible, pero no hay conciencia de ello debido a una pretendida comprensión de las cadenas causales entre las decisiones, las acciones y los efectos.

Esta presunción de predictibilidad conduce a que, con frecuencia, nos enfrentemos a lo que Taleb denomina «cisnes negros»: sucesos imprevisibles con una gran repercusión (nótese la diferencia entre imprevisto e imprevisible; el cisne negro no obedece a un análisis defectuoso que impidió predecirlo, sino a la imposibilidad efectiva de anticipar su aparición). Así, cuando la sorpresa aparece, no la achacamos a su carácter imprevisible, sino a nuestra incapacidad para interpretar los signos que la anticipaban y centramos el análisis en determinar qué errores se cometieron a la hora de predecir el futuro; de hecho, el análisis debería centrase en analizar el peso que lo imprevisto tiene en el devenir de la historia y cómo podemos prepararnos para lo imprevisible. Recientemente, el centenario de la Primera Guerra Mundial nos ha traído una gran cantidad de análisis que tratan de demostrar a posteriori que una guerra que sorprendió a todos, hubiera sido predecible si se hubieran analizado correctamente los datos disponibles. Y esa comprensión de la realidad podría haber ayudado a evitarla. Un proceso similar siguió a las sorprendentes “Primaveras Árabes”, cuya génesis sólo se ha podido explicar a posteriori. En ninguno de los dos casos podemos encontrar análisis que expliquen cómo sucesos imprevistos pueden cambia el curso de la historia. Y lo difícil que resulta prepararse para lo que es intrínsecamente impredecible. Reflexión especialmente útil a la hora de analizar la crisis generada por el COVID-19. Porque, una vez más, la respuesta esta crisis puede consistir en prepararnos para una repetición de la misma, no para cualquier otra que nos pueda venir.

Estos sucesos imprevistos ponen de manifiesto la dificultad fundamental de generalizar a partir de la información disponible y subrayan que el mayor y más acuciante objetivo de quienes abordan el estudio de las crisis es comprender cómo actuar en condiciones de información incompleta. Como he explicado en otro artículo, referido al ámbito de la logística, la actual situación internacional implica la necesidad de navegar entre las brumas de la incertidumbre, descartando cualquier certidumbre sobre el qué, el cómo, el cuándo, el dónde, el con quién, el contra quién, el para qué,… Esta realidad es aplicable a los ámbitos político, económico y social en general, lo que supone un reto de enormes dimensiones para quienes, desde todos los ámbitos, deben preparar a la sociedades para enfrontar los retos futuros.

El empeño por medir lo inconmensurable

En el año 2006, en el Cuartel General de ISAF, el liderazgo británico supuso la aplicación del sistema anglosajón de «Operaciones Basadas en Efectos», en boga entonces, cuya filosofía se basa en ir modificando las decisiones propias en función del análisis de los efectos que producen en la evolución de la situación. O lo que es lo mismo, aplicar el modelo de lecciones aprendidas para ir adaptando las decisiones a la evolución inducida de la situación. El modus operandi podría resumirse de la siguiente forma:

  • Identificar factores que confirmen el éxito o fracaso de las acciones en curso y asociarles una serie de medidas de efectividad que permitan valorar la idoneidad de la estrategia seguida. Imaginemos que un factor fuera «Garantizar el acceso a la justicia de la población» y una de las medidas de su efectividad fuera el «Número de distritos con juzgados en funcionamiento».
  • Establecer unos objetivos cuantificables para esas medidas de efectividad. Por ejemplo, alcanzar para el D+180 un 75% de distritos con juzgados operativos, estableciéndose una progresión, normalmente lineal, para ello.
  • Valorar periódicamente los progresos. En el ejemplo propuesto, puede adoptarse como criterio que un desfase del 10% respecto a la progresión marcada permitiría calificar la situación como buena (Verde); hasta un 40%, aceptable (Ámbar). Un desfase superior alertaría de una evolución negativa (Rojo).
  • El asesoramiento resultante se basa en la agregación de las valoraciones parciales, que permite concluir si se está avanzando en la dirección correcta (el resultado de la agregación es «verde»); se deben introducirse correcciones («ámbar») o si la estrategia seguida es inadecuada («rojo»). Permite también identificar en qué áreas deben introducirse cambios en la estrategia en curso.

Este sistema presenta varios inconvenientes que, como miembro del Cuartel General, tuve la oportunidad de valorar personalmente. En primer lugar, en la mayor parte de las medidas de eficacia, concurren apreciaciones personales de los analistas, consecuencia del “empirismo ingenuo” del que hablaba Taleb. Valorar si un determinado juzgado puede calificarse como operativo no es tan sencillo como constatar que un líquido ha alcanzado su temperatura de ebullición. Y es prácticamente imposible definir objetivamente todas las circunstancias que deben concurrir para poderlo calificar como tal, lo que deja un amplio margen para la subjetividad. En segundo lugar, la elección de las medidas de eficacia y su ponderación obligan a objetivar conceptos tan abstractos como justicia o seguridad. Puede resultar fácil, relativamente, valorar si un juzgado dispone de suficientes jueces; si dispone del personal de apoyo y medios materiales necesarios; o de instalaciones adecuadas,… pero resulta mucho más difícil valorar, y sobre todo cuantificar, si realmente imparte justicia, si es independiente, o si los ciudadanos pueden acceder a él en condiciones de seguridad e igualdad. Agregar datos sobre número y formación de los jueces, instalaciones disponibles,… puede proporcionar información valiosa, pero no permite dar respuesta a esas preguntas esenciales. Es sólo un ejemplo más de «el horroroso método de reunir pruebas probatorias selectivas«.

El método de lecciones aprendidas resulta perfectamente aplicable al mundo de las ciencias empíricas, donde pueden individualizarse y controlarse los factores que intervienen en un suceso, repetirlo en condiciones idénticas e identificar perfectamente causas y efectos. Fuera de ese ámbito, se enfrenta a limitaciones derivadas de la imposibilidad de aplicar el método experimental e individualizar causas y efectos. Y al hecho de que los factores que intervienen son difícilmente cuantificables, más allá de valoraciones subjetivas del tipo mucho, bastante o poco.

En el caso de las grandes crisis o conflictos, concurre otro factor que impide la aplicación plena del proceso de lecciones aprendidas: en ellos confluyen una serie de “problemas perversos” enmarcados en un “Sistema Adaptativo Complejo (SAC)”. El concepto de problema perverso define un problema que es imposible de resolver dado que presenta requisitos incompletos, contradictorios y cambiantes, generalmente difíciles de reconocer. En contraste con lo que podríamos denominar problemas domesticados, típicos de los dominios científico o de ingeniería, que pueden tener enunciados y respuestas concretas y definitivas, los problemas perversos son difíciles de definir y se resisten a la solución. La contrainsurgencia y la lucha contra el narcotráfico son ejemplos clásicos de problemas perversos. Este tipo de problemas no puede resolverse de manera objetiva, paso a paso y definitivamente, como sucede con la construcción de un puente. Pero sí pueden gestionarse mejor o peor, según el resultado deseado. Es por eso que ante este panorama, cada vez sean más los autores que optan por sustituir la noción de «victoria» por la de «éxito»[5].

Además, en este tipo de problemas, la existencia de interdependencias complejas entre sus componentes hace que los esfuerzos para resolver un aspecto puedan, a su vez, generar nuevos problemas. Por ello, los entornos en los que se produce este tipo de problemas se suelen definir como Sistemas Adaptativos Complejos, que consisten en una pluralidad de partes (organizaciones, procesos, tecnologías, amenazas) que interactúan de maneras diferentes entre sí y con el mundo exterior, con la particularidad de que un cambio o intervención en cualquier parte del sistema producirá cambios, muchas veces difíciles de predecir, en otras partes del mismo. Su característica esencial es que puede cambiar su estructura y comportamiento a lo largo del tiempo en respuesta a los cambios en su entorno o a interacciones con otros sistemas. Su análisis requiere un examen del comportamiento dinámico del sistema en su conjunto y de sus relaciones con el mundo exterior[6].

Estos sistemas se caracterizan porque no presentan soluciones correctas o incorrectas, sólo mejores o peores; cada problema es esencialmente único y novedoso, de forma que pueden aplicarse lecciones obtenidas de problemas similares, pero cada problema es diferente; cada solución a un problema perverso es una «operación de un disparo», si se fracasa, no se podrá intentar otra solución al mismo problema, porque éste habrá mutado, ya que cada intento por resolverlo altera la naturaleza del propio problema; no tienen soluciones alternativas, sino una inmensa gama de opciones. Por último, es importante ser consciente de que en ámbitos como la gestión de crisis el procedimiento prueba-error no es admisible por los costes humanos que pueden acarrear los errores.

Las guerras, salvo las que adoptan la forma de una acción resolutiva de corta duración, son en sí mismas sistemas adaptativos complejos difíciles de gestionar una vez puestos en marcha. Y las guerras cortas parecen ser cosa de la historia. «Las guerras largas pueden obtener las consecuencias deseadas, pero tras cierto tiempo generan problemas y consecuencias ausentes inicialmente. Estas consecuencias no deseadas pueden resultar tan importantes, si no más, que las pretendidas«. Por ello, la guerra y sus causas son una materia no susceptible de análisis científico[7]. STRACHAN corrobora esta tesis, al reconocer que «la guerra es un choque de voluntades que puede generar efectos exponenciales de consecuencias impredecibles«[8]. Yendo más allá en esta idea, SCHULTE, ante la incertidumbre que afrontan quienes planifican operaciones militares, introduce la relevancia del factor suerteEs la responsabilidad profesional de las instituciones de seguridad nacional minimizar la necesidad de la suerte en sus decisiones«[9]. La imposibilidad de aplicar un análisis científico a un problema de la naturaleza de la guerra hace imposible un apropiado análisis de lecciones aprendidas. Y lo mismo puede decirse de cualquier otra problema del complejo mundo de las relaciones sociales y políticas en general.

Lecciones aprendidas de la crisis del COVID-19

La crisis del COVID-19 nos enfrenta a una situación a la que es aplicable lo dicho hasta aquí sobre problemas perversos, sistemas adaptativos complejos y cisnes negros. Como tantas otras crisis y conflictos, ha aparecido de forma insospechada e incorpora problemas políticos, de relaciones internacionales, económicos, de seguridad,… cada uno de los cuales es en sí m mismo un sistema plagado de problemas perversos. Y todo hace pensar que, tras las lecciones aprendidas, ya hay varios planes para volver a erigir fastuosas Líneas Maginot.

Zambullirse en su análisis y gestión significa adentrarse en una maraña de problemas entrelazados, de forma que acciones que actúan positivamente en unos, generan nuevos problemas o agravan otros. En esta situación, resulta imposible identificar una secuencia entre causas y efectos y establecer las consecuencias de nuestras propias decisiones. Porque una acción encaminada a limitar el alcance de la pandemia, produce efectos negativos en la economía; mientas determinadas decisiones en el plano económico tienen implicaciones en el de la relaciones internacionales… Esto explica que, una vez que la crisis sanitaria haya pasado, será difícil llegar a un acuerdo sobre cuál hubiera sido la mejor manera de gestionarla. Y sobre qué efectos secundarios hubieran tenido, en cada país, otros modelos de gestión. Si Suecia hubiera optado por un modelo más ortodoxo de restricción de movimientos: ¿hubiera reducido sus tasas de mortalidad? ¿hubiera afrontado una crisis económica más profunda?

Lo dicho hasta aquí no debe hacernos concluir que no podamos aprender lecciones en el ámbito de la gestión de crisis complejas, sean conflictos armados o crisis de otra naturaleza. Pero es necesario reconocer determinados factores que modulan su alcance y objetivos. En primer lugar, debe partirse de la premisa de que, en este campo, el objetivo del análisis no es conseguir resultados tangibles y cuantificables, sino identificar reglas. Los datos concretos son necesarios, pero el objetivo es la presentación de un cúmulo ordenado de datos empíricos, sino identificar las reglas que subyacen tras esos datos, para poder identificar tendencias y confirmar o rechazar hipótesis.

En segundo lugar, el objeto del estudio no puede ser una realidad tan compleja como una sociedad en conflicto o la respuesta a una pandemia. El método de prueba-error, o de lecciones aprendidas, no es capaz de incorporar todos los factores que confluyen en un problema de esta magnitud, ni las relaciones que los entrelazan, por lo que resulta imposible identificar relaciones causa-efecto globales. En consecuencia, y ciñéndonos al caso del COVID-19, el objeto de análisis no puede ser la gestión de la crisis como un todo. El objetivo debe ser identificar reglas que rigen dentro de aspectos concretos del mismo. No es posible desarrollar un algoritmo que, alimentado con la multitud de variantes concurrentes, produzca una fórmula que defina el mejor modo de abordar este problema (En última instancia, el método de Operaciones Basadas en Efectos busca algo parecido). En una sociedad adicta a las tecnologías como la nuestra, el sueño de los responsables de la toma de decisiones es una aplicación. Es decir, una herramienta a la que alimentemos con una serie de datos (climatología, datos demográficos, índices de propagación del virus, supervivencia del mismo en diversos medios,…) y nos dé la respuesta: confinar durante 67 días. No nos basta con apoyar las decisiones políticas en informes técnicos, pretendemos que sea la inteligencia artificial la que asuma la responsabilidad de decidir. De ahí esa insistencia a la hora de recalcar que las decisiones «son técnicas» para resaltar su carácter ineludible. ¿Puede ser exclusivamente técnica una decisión política? No. No es posible, por la complejidad y la subjetividad de los datos. Y porque la respuesta técnica siempre  sería parcial ¿Qué pasa con los efectos económicos y sociales? Lo que sí es posible es acotar problemas relativamente individualizables, identificar los factores que los configuran e identificar una serie de reglas que permitan abordarlo con mayores garantías de éxito. Así, la ciencia puede ayudarnos a la hora de decidir qué equipo de protección deben llevar los sanitarios, los policías o los ciudadanos en general. Ser más modestos puede ayudarnos a ser más eficientes.

Preparando la Línea Maginot

Por último, por acertado que sea el análisis de la experiencia pasada y por preciso que sea su ajuste a la realidad actual, no se puede obviar el hecho de que su proyección hacia el futuro vendrá alterada, con mucha probabilidad, por la aparición de “cisnes negros” que modifiquen el escenario planeado e invaliden total o parcialmente las estrategias diseñadas. O sea, que un profundo análisis de lo ocurrido en los últimos meses llevará a las sociedades más desarrolladas a adoptar medidas para hacer frente a otro COVID. Hay quienes ya han optado por trasladarse al entorno rural; por potenciar el teletrabajo de forma permanente; se propone acumular recursos que se han demostrado vitales y escasos; también poner límites a la globalización y, concretamente, a la dependencia de China. Con esas premisas vamos a construir una nueva Línea Maginot… pero los alemanes vendrán por Sedán. La próxima crisis que afrontemos será otro cisne negro, una nueva sorpresa estratégica. Que afectará a internet e impedirá el teletrabajo, llevando al colapso a administraciones y empresas que hayan apostado por este sistema; que se propagará a través del ganado y afectará sobre todo a las zonas rurales, afectando a quienes huyeron en busca de seguridad; que paralizará nuestro sistema productivo, a nivel nacional o regional, y nos hará mirar hacia unas cadenas de suministro globales debilitadas,…

La historia debería habernos enseñado una lección que prevalece sobre todas las demás. La de su impredecibilidad. En palabras de Harari: «La historia no se puede explicar de forma determinista y no se puede predecir porque es caótica. Hay tantas fuerzas en juego y sus interacciones son tan complejas que variaciones extremadamente pequeñas en la intensidad de las fuerzas y en el modo en que interactúan producen grandes diferencias en los resultados«.[10] Si hay algo que esta crisis debería enseñarnos es que las grandes crisis son impredecibles en cuanto a su naturaleza y al momento de su aparición. Para lo que tenemos que prepararnos no es para la repetición de la última, sino para de lo que consideramos completamente improbable.

Los responsables políticos tienen la obligación de intentar anticiparse a las crisis; de prepararse de la mejor manera posible para posibles escenarios futuros; de aprender de cada una de ellas para afrontar en mejores condiciones la siguiente. Y para ello deben hacer uso de todas las herramientas de análisis prospectivo disponibles. Pero, por encima de todo, tienen que ser capaces de reaccionar ante lo imprevisto; de actuar en entornos de información deficiente y de no dejarse engañar por modelos de predicción y herramientas de toma de decisiones que pretendan suplantar sus principales herramientas a la hora de liderar la respuesta a una crisis, imaginación, creatividad e intuición, componentes esenciales del arte de gobernar..


[1] UTTLEY, M. y KINSEY, Ch., ‘The Role of Logistics in War’, en LINDLEY-FRENCH, J. y BOYER., The Oxford Handbook of War. Oxford University Press. 2012. p. 402.

[2] SCHULTE, P. «Morality and War», en LINDLEY-FRENCH y BOYER, p. 104.

[3] La línea Maginot fue una línea defensiva desarrollada por Francia tras la Iª Guerra Mundial para defenderse de un eventual ataque alemán. Se diseñó perfectamente para rechazar un ataque de las mismas características al que sufrió Francia en 1914. Y los franceses la consideraban inexpugnable. Pero, en 1940, se demostró absolutamente inútil ante una ofensiva completamente diferente.

[4] TALEB, N. El Cisne Negro. El impacto de lo improbable. Paidós. 2010.

[5] MALIS, Ch. «Unconventional forms of War» en LINDLEY-FRENCH y BOYER, The Oxford Handbook of War. Oxford University Press. 2012. p. 189

[6] UNITED KINGDOM MINISTRY OF DEFENSE. Applying New Thinking to Counter-Terrorism: A Complex Systems Approach. UK MoD Call for Research Proposals. Ministerio de Defensa Británico. 15 de Marzo de 2011, p. 2.

[7] FREEDMAN, L. «Defining War» en LINDLEY-FRENCH y BOYER. p. 25-28. CLAUSEWITZ, por su parte, enumera tres causas que hacen imposible una doctrina carente de ambigüedades: la moral de los combatientes, los efectos de la respuesta del enemigo y la incertidumbre que reina en el campo de batalla. Citado por DURIEUX, B. «The History of Grand Strategy and the Conduct of Micro-Wars» en LINDLEY-FRENCH y BOYER. p. 135. De un modo casi poético, SAXE redunda en la misma idea: «La guerra es una ciencia cubierta de sombras en la cual uno camina sin poder dar ni un paso seguro». Citado por DURIEUX, p. 139.

[8] STRACHAN, H. «Strategy and War» en LINDLEY-FRENCH y BOYER, p. 33 y 38.

[9] SCHULTE, P. «Morality and War», en LINDLEY-FRENCH y BOYER, p. 104.

[10] HARARI, Y.N. Sapiens. De animales a dioses. Breve historia de la humanidad. Debate. 8ª Ed. Noviembre 2016. p. 267.

Avatar
Javier Mª Ruiz Arévalo

Coronel del Ejército de Tierra español y Licenciado en Derecho. Ha desplegado en dos ocasiones en Kabul, desempeñando cometidos en el área de la cooperación cívico militar.

Ver todos los artículos
Avatar Javier Mª Ruiz Arévalo