• Buscar

Sorpresas estratégicas e Inteligencia de alerta temprana

https://global-strategy.org/sorpresas-estrategicas-e-inteligencia-de-alerta-temprana/ Sorpresas estratégicas e Inteligencia de alerta temprana 2020-12-01 17:23:35 Javier Jordán Blog post Análisis y Estrategia Global Strategy Reports Global Strategy Reports 2020 Prospectiva Servicios de Inteligencia

Global Strategy Report, 56/2020

Resumen: Este documento analiza las causas de las sorpresas estratégicas en materia de Defensa agrupadas en cuatro conjuntos de factores: limitaciones metodológicas, sesgos cognitivos, patologías en las organizaciones responsables de generar inteligencia de alerta temprana, y escasa receptividad política que conduce a un déficit de respuesta.


En la vida algunas sorpresas resultan agradables pero en materia de Defensa rara vez lo son. Esto se debe a las tres notas características de las sorpresas estratégicas: van en contra de las expectativas, suponen un fallo de la alerta temprana y, habitualmente, llegan sin contar con la preparación adecuada (Kam, 1988: 8).

En el marco de una relación antagónica la sorpresa se convierte en un multiplicador de fuerza (Handel, 1984: 229-230). De modo que quien se perciba en situación de inferioridad se sentirá especialmente tentado a utilizarla como instrumento compensatorio. Esto puede suceder a nivel estratégico (ataque japonés a Pearl Harbour en diciembre de 1941 u ofensiva preventiva israelí en junio de 1967) y a nivel táctico: la sorpresa es un elemento indispensable en los golpes de mano de la guerrilla o las acciones terroristas.

No obstante, la sorpresa también forma parte de la planificación militar cuando la correlación resulta favorable pues debilita la resistencia del adversario. Por ello el Ejército Rojo continuó con las acciones de maskirovka (ocultación, engaño) durante los años 1944 y 1945 a pesar de que su ventaja sobre el ejército alemán ya era significativamente superior (Dick, 2019). La sorpresa forma parte por tanto de la propia naturaleza de la guerra.

Pero a pesar de ese efecto multiplicador, la sorpresa rara vez constituye un factor decisivo sobre el resultado final del conflicto, pues no existe correlación positiva entre los éxitos iniciales derivados de sorpresas estratégicas y la victoria en la guerra (Cancian, 2018: 32). Es más, puede ocurrir que el éxito del ataque sorpresa supere las expectativas y no se explote adecuadamente (Handel, 1984: 230).

La sorpresa no se circunscribe a la transición de paz a guerra, o cuándo y en qué sector del frente se producirá un ataque. La sorpresa puede ser también tecnológica. Para la Wehrmacht fue de lo más desagradable encontrarse en los primeros compases de la invasión de Rusia con el hasta entonces desconocido T-34. Y a los norteamericanos les ocurrió algo parecido al descubrir la superioridad en combate aire-aire del Zero durante los primeros meses de la guerra en el Pacífico. Por otro lado, la sorpresa es doctrinal cuando la efectividad de un sistema ya conocido se utiliza en combate de una manera innovadora. Un caso de libro fue el éxito en el empleo de las unidades acorazadas en mayo de 1940, que resultó una sorpresa para franceses y británicos pero también para gran parte de la propia Wehrmacht.

La sorpresa tecnológica y la doctrinal pueden tener efectos estratégicos. Por ejemplo, ¿serán verdaderamente eficaces los aviones de ataque de quinta generación y los misiles stand-off contra un sistema de defensa aérea avanzado? ¿Sobrevivirán los portaviones norteamericanos al A2/AD de China en las aguas del primer anillo de islas? De ahí que Colin S. Gray (2005: 43) afirme sabiamente: “las etapas iniciales de un conflicto consisten en una carrera entre los beligerantes para corregir sus respectivas creencias equivocadas sobre cómo se desarrollaría la guerra”.

Las sorpresas también pueden ser políticas y diplomáticas. Por ejemplo, un realineamiento de alianzas (como el de la Alemania nazi con la Unión Soviética en agosto de 1939), un hecho consumado por debajo del umbral de la guerra (invasión rusa de Crimea en 2014), o afectar a las interacciones dentro de un conflicto o crisis donde suele darse un amplio margen para el oportunismo político o la flexibilidad estratégica ante circunstancias dinámicas (en el conflicto de Siria ha habido varios casos a lo largo de estos casi diez años).

El pacto entre la Alemania nazi y la Unión Soviética comunista el 23 de agosto de 1939 fue una sorpresa estratégica contraintuitiva que abrió la puerta a la invasión de Polonia y al estallido de la Segunda Guerra Mundial

Evidentemente, la sorpresa admite grados (Parker & Stern, 2005: 303). Pocas veces es completa. Como ya he comentado al hablar del COVID-19, los ‘cisnes negros’ son un fenómeno relativo. Dependen de la perspectiva del observador. Lo que para unos es altamente improbable para otros es algo que tarde o temprano acabará ocurriendo. Es frecuente que tras producirse un error grave de anticipación se descubran informaciones relevantes y disponibles que por una u otra razón no fueron consideradas en la cadena de alerta y respuesta temprana (Grabo, 2010: 20). Y este es el tema del presente Report: por qué se producen las sorpresas estratégicas en materia de Defensa.

Cuatro conjuntos de factores analizados en este documento

A la hora de explicar el origen de las sorpresas hay que prestar atención a distintas dimensiones y a la interacción entre ellas. Normalmente, el problema es sistémico y multivariable. Algo que ya detectaron Eliot Cohen y John Gooch (2006: 54-56) al analizar diversos desastres militares. Por ello al agregar las distintas variables que explican las sorpresas, podemos establecer cuatro conjuntos de factores: metodológicos, cognitivos, organizacionales y políticos. Veamos cada uno de ellos.

Limitaciones metodológicas

Desde esta perspectiva, la sorpresa puede deberse a varias razones. En primer lugar a que la naturaleza de lo que se quiere conocer escape las posibilidades de los métodos disponibles. Se trata de la conocida diferencia entre puzles y misterios (Treverton, 2001: 11-12). Los primeros, al igual que los crucigramas se pueden resolver porque sus componentes existen. Se trata de dar con ellos y encajarlos correctamente. Por ejemplo, quién está financiando los nuevos programas de adquisiciones militares de Marruecos (que exceden el músculo financiero del país): ¿Emiratos? ¿Arabia Saudí? ¿Estados Unidos, financiando parte de la venta?; o ¿qué nivel de operatividad tienen realmente esos equipos una vez que llegan a las unidades? Son preguntas que tienen respuesta.

Los misterios aluden sin embargo a intenciones futuras o a los caminos que puede recorrer la interacción entre distintas variables clave. Siguiendo con el ejemplo de Marruecos, ¿esos programas de adquisiciones constituyen un mero reemplazo de generaciones armas próximas a la obsolescencia o serán también la herramienta para una acción exterior más asertiva? ¿El arsenal marroquí se orientará solo a la disuasión frente a Argelia o aumentará el margen de actuación, junto a otras estrategias (híbridas), en las disputas territoriales con España?

Los puzles y los misterios requieren aproximaciones metodológicas diferentes. Por su naturaleza, los puzles son el objeto propio de los medios de obtención de inteligencia, de la investigación científica y de la indagación periodística. Forman parte de lo empírico. De lo constatable.

Los misterios por su parte pertenecen al campo de la prospectiva estratégica, al análisis y construcción de futuros alternativos. Su esclarecimiento no admite una respuesta simple y directa, sino un esfuerzo por entender las fuerzas motrices (drivers) cuya interacción puede dar lugar a distintos mañanas. Y, una vez identificadas dichas fuerzas, la respuesta a los misterios requiere un sistema de vigilancia prospectiva que siga la evolución de los diferentes drivers y esté atento a nuevas fuerzas emergentes con el fin de obtener cierto grado de anticipación estratégica.

En consecuencia, un sistema de alerta temprana se expone a grandes sorpresas asociadas a los misterios si se orienta de manera desproporcionada a la resolución de puzles, priorizando la inteligencia de actualidad –lo que ocurre ese día o esa semana– a costa casi por completo del análisis estratégico y la prospectiva. La inteligencia de actualidad (current Intelligence) no es sinónimo de inteligencia de alerta temprana (Grabo, 2010: 15-16). Y si existe un desequilibrio excesivo a favor de la inteligencia de actualidad se debilita la producción de inteligencia en su conjunto.

El análisis estratégico y la prospectiva no ofrecen garantía plena por sus propias limitaciones metodológicas. Pero ambos proporcionan una perspectiva más amplia que ayuda procesar las ‘señales débiles’ –piezas aparentemente aisladas de información de interpretación ambigua– que adquieren significado al conectarlas con patrones y tendencias identificadas en un esfuerzo previo de análisis estratégico y de prospectiva. Dicho de otro modo, la inteligencia de alerta temprana está abocada al fracaso si la arquitectura institucional y la cultura de la organización no contemplan el estudio sistemático del futuro.

El conocimiento anticipativo, que se basa en buena medida en marcos explicativos correctos y en un buen sistema de vigilancia prospectiva, ayuda a convertir las señales débiles en señales de alerta temprana.

Fuente: Elaboración propia basada en Lesca & Lesca, 2011: 26

En segundo lugar, la inteligencia de alerta temprana –especialmente en el ámbito militar– suele utilizar sistemas de indicadores que evalúan la capacidad y las intenciones de un potencial adversario. Como es sabido las capacidades militares incluyen los elementos materiales e inmateriales del MIRADO-I (Materiales, Infraestructuras, Recursos humanos, Adiestramiento, Doctrina, Orgánica e Interoperabilidad). Son observables y hasta cierto punto medibles. A la vez, mantener el despliegue y un alto nivel de alistamiento de gran parte de la fuerza resulta prohibitivo. De modo que el incremento sustancial de los niveles de preparación para el combate y los despliegues no justificados constituyen señales clásicas y poderosas de alerta (Grabo, 2010: 46-47).

A su vez, las intenciones engloban tanto las genéricas (por ejemplo, la postura de Defensa) como las específicas e inmediatas (por ejemplo, en el marco de una pre-crisis). Las intenciones específicas de un actor potencialmente agresivo se pueden estimar a partir de las intenciones genéricas –los objetivos conocidos de sus decisores políticos–, las declaraciones públicas, la posibilidad de alcanzarlos a través de un determinado curso de acción, que cuente con medios para ello y que haya descartado otras vías menos hostiles para lograrlos (Grabo, 2010: 236). También de la importancia concedida por ese a determinados objetivos, que puede ser muy diferente a la de quien analiza. Un ejemplo de esto último, fue el modo como los británicos minusvaloraron los sentimientos de los dirigentes y de la sociedad argentina hacia las Malvinas en vísperas de la invasión de abril de 1982 (Hopple, 1984: 348). Obviamente, el problema es irresoluble –un misterio– cuando esas élites políticas no han decidido qué curso de acción seguir.

Los sistemas de indicadores constituyen un elemento esencial de la inteligencia temprana pero al mismo tiempo se ven afectados por limitaciones metodológicas:

  • Ambigüedad, sobre todo en lo referente a las intenciones. La movilización militar es difícil de esconder pero los juegos políticos son menos transparentes, lo que lleva a que la combinación de ambos conduzca a distintas interpretaciones: ¿el despliegue de unidades del ejército iraquí en la frontera de Kuwait en julio de 1990 era una demostración de fuerza en clave diplomática o el paso previo a una invasión? Algo similar ocurrió con el despliegue del ejército egipcio los días previos la guerra del Yom Kippur: a pesar de que los indicadores alertaban de un ataque no se podía descartar por completo la hipótesis de las maniobras militares (Honig, 2008: 75). La inteligencia de alerta entraña una valoración basada en probabilidades, no en certezas absolutas (Grabo, 2010: 23-24). Y cuanto mayor sea la ambigüedad, mayor peso tendrán sobre el analista sus propias presunciones (Betts, 1978: 70).
  • Engaño, que aumenta la ambigüedad. Como dicen los anglosajones: “The enemy gets a vote”. En el bando adversario hay personas muy inteligentes, bien entrenadas, y que hacen brillantemente su trabajo (Cancian, 2018: 25-26). Toda operación militar antagónica incorpora acciones de engaño para ocultar –al menos al comienzo– el auténtico curso de acción. Los engaños más eficaces son además aquellos que simulan lo que la víctima quiere creer. Por tanto, el analista de inteligencia ha de mantener una actitud de desconfianza por defecto, sin descartar informaciones potencialmente alarmantes hasta estar razonablemente seguro de que existe una explicación para esa anomalía (Grabo, 2010: 82). Pero al mismo tiempo esta inclinación ha de ser equilibrada para no generar, como veremos, cansancio de la alarma y falsos positivos.
  • Paradoja de la sensibilidad. Cuanto más se afinen los indicadores (en grado de detalle), más riesgo de falsos positivos. Pero a la vez, unos indicadores demasiado genéricos corren el riesgo de no medir bien los cambios amenazantes (Betts, 1978: 63), por lo que se trata de encontrar un equilibrio.

Los sistemas clásicos de indicadores requieren una profunda adaptación al vigilar los conflictos en la zona gris, con empleo de estrategias híbridas (multidimensionales) y caracterizados precisamente por la ambigüedad y el gradualismo.

Los indicadores militares de alerta temprana tradicionales se construyen asumiendo que el adversario tiene que dar una serie de pasos a la hora de preparar una acción hostil (incrementar el nivel de alistamiento, desplegar la fuerza, activar la cadena logística, etc.). Dichos pasos se deducen de la experiencia histórica, del conocimiento específico de la doctrina militar del país estudiado y de las lecciones aprendidas en crisis o conflictos previos (Grabo, 2010: 60-63).

Sin embargo, en los conflictos en la zona gris los cursos de acción son múltiples, difíciles de prever y multidimensionales (MCDC Countering Hybrid Warfare Project, 2019: 25-32). A ello se añaden los problemas de atribución en lo relacionado por ejemplo con acciones hostiles en el ciberespacio y con operaciones de influencia a través de redes sociales (Treverton, 2018: 17). El sistema de indicadores debe vigilar por ello los distintos instrumentos de poder a disposición del adversario: político, económico, social, informacional, militar, etc. (‘conocidos desconocidos’) y permanecer atento a acciones de manipulación creativas (‘desconocidos desconocidos’) que combinen el uso coordinado de dichos instrumentos para obtener ganancias estratégicas mediante la coerción (Cullen, 2018: 4).

Fuente: MCDC Countering Hybrid Warfare Project, Countering Hybrid Warfare (London: UK Ministry of Defence 2019), p. 27.

Para complicar más la ecuación, la combinación de acciones en el marco de estrategias híbridas suele tener efectos no previstos, incluso para quienes las orquestan. Al interaccionar con otras variables en sociedades complejas e interconectadas, las consecuencias son dispares e imprevisibles (Mushrush, 2015: 34-35). En particular si quien está desarrollando dichas acciones híbridas lo hace en el marco de una ‘estrategia de caos’ con el propósito de generar disfunciones en el proceso de toma adversario (Jensen & Doran, 2018: 23).

Se trata así de vigilar indicadores prestablecidos de carácter multidimensional, y de anticipar y buscar patrones a partir de lo que está ocurriendo (U.S. Army Special Operations Command, 2016: 10). Lo cual requiere un conocimiento profundo del oponente. De sus fines, medios y modos habituales, incluida la comprensión de sus valores y de su cultura. También son útiles herramientas analíticas que estimulan la creatividad tipo ‘sombrero rojo’ o matrix games. Pero aun así el riesgo de falsos positivos resulta inevitable. La principal garantía es contar con medios de obtención (HUMINT, SIGINT) que permitan tener acceso a la caja negra del proceso de toma de decisiones adversario para conocer cuáles son sus intenciones y estrategias, y de ese modo anticipar, vigilar y responder a sus acciones híbridas.

Limitaciones cognitivas

Tienen que ver con los sesgos de análisis que ya he comentado en otros post previos como este o este otro, que además han sido abordados en Global Strategy (2020) en lo relativo al COVID-19 por Luis De la Corte. Por tanto solo voy a destacar los siguientes:

  • Sobrecarga cognitiva, cuanta más información, más ruido. Paradójicamente, el gran problema de la inteligencia de alerta no suele ser la escasez de información sino la saturación (Grabo, 2010: 229-230). Es una de las causas que Roberta Wohlstetter (1962: 387) identifica en su clásico Pearl Harbour. Warning and Decision: “En pocas palabras, fracasamos al anticipar el ataque contra Pearl Harbour no por falta de información relevante como por una plétora de informaciones accesorias”.
  • Cansancio de la alarma ante repetidos falsos positivos que erosionan la credibilidad del sistema de indicadores y de los marcos teóricos que los respaldan (Parker & Stern, 2005: 311). La invasión alemana de Noruega en abril de 1940 y la de Holanda un mes más tarde estuvieron precedidas de numerosas falsas alarmas que restaron crédito al “que viene el lobo” auténtico (Betts, 1980: 559). En la película El Ángel se da a entender que Ashraf Marwan aprovechó este sesgo en el contexto previo a la guerra del Yom Kippur, aunque Uri Bar-Joseph niega que fuera un agente doble en The Angel: The Egyptian Spy Who Saved Israel, el libro en el que se basó dicha película. En casos excepcionales, el cansancio de alarma puede deberse a la ‘trampa de la efectividad’. Es decir, a éxitos de alerta temprana cuya respuesta disuade de acciones hostiles (Chan, 1979: 172).
  • Marco explicativo incorrecto. Es una de las fuentes de error más conocidas, y suele ir asociada a otros sesgos cognitivos: exceso de confianza, wishful thinking, sesgo de confirmación, no buscar informaciones ausentes que contradigan los presupuestos de partida, arrogancia epistémica al sumar años de experiencia que han solidificado ese marco cognitivo, huir de la complejidad descansando en la explicación simplificada del marco adoptado y, en ocasiones, etnocentrismo. Como consecuencia las señales débiles ‘tácticas’ que permitirían dar la voz de alarma no son interpretadas correctamente y no consiguen por sí solas modificar las presunciones ‘estratégicas’ (Ben-Zvi, 1976: 394). Uno de los casos más conocidos está asociado de nuevo a la guerra del Yom Kippur, pues la inteligencia militar israelí daba por sentado que ni Siria ni Egipto iniciarían una guerra hasta que sus respectivas fuerzas aéreas superaran a la israelí. Pero en su lugar ambos países optaron por sistemas antiaéreos móviles avanzados para negar el espacio aéreo operacional a la IAF (Gross Stein, 1980: 155-156; Handel, 1984: 242; Ben-Zvi, 1997: 136-137;). Como también es sabido, tras aquella experiencia los israelíes establecieron un sistema de explicaciones alternativas (ipcha mistabra: “lo contrario es probable” o el equivalente al ‘abogado del diablo’ occidental) para desafiar los marcos explicativos dominantes (Pascovich, 2018: 858).
  • Falta de pensamiento creativo. Según el informe de la Comisión (2014: 336) que investigó los atentados del 11 de septiembre de 2001, uno de los principales errores consistió en un “fallo de imaginación y una mentalidad poco abierta a ese tipo de posibilidades” en la anticipación, detección y prevención de dichos ataques. De nuevo,  la construcción y análisis de escenarios, los ejercicios de ‘equipo rojo’, de ‘sombrero rojo’, los ‘matrix games’ y –en el ámbito militar los wargames, la experimentación y los ejercicios–, son útiles a la hora de generar escenarios y líneas de actuación plausibles que escapan al análisis convencional (Cancian, 2018: 83-90). También resulta interesante el análisis de hipótesis en competición para explorar y contrastar diferentes explicaciones a una conducta sospechosa, o emplear una matriz de análisis morfológico para visualizar las opciones múltiples del adversario y elaborar a partir de ellas indicadores de seguimiento.

Patologías estructurales en las organizaciones de Inteligencia

Determinados aspectos de la arquitectura, la praxis o la cultura de la organización de Inteligencia pueden resultar problemáticos a la hora de anticipar sorpresas. Ya hemos mencionado que un desequilibrio que enfatice en exceso la producción inteligencia de actualidad descuidando el análisis estratégico y la prospectiva tiene costes en términos de anticipación y de pérdida de visión periférica. Igualmente, la ausencia de un sistema de indicadores o un diseño defectuoso de estos también dificulta el seguimiento de las amenazas.

Y a todo lo anterior, habría que sumar los sospechosos habituales en la literatura sobre errores de inteligencia:

  • Problemas de conexión entre los órganos de obtención y de análisis dentro de la propia organización de Inteligencia. No se trata solo de que la información recolectada llegue a los analistas, sino que exista una coordinación correcta que traduzca los interrogantes de los analistas en nuevos requerimientos de obtención (Grabo, 2010: 38).
  • Defectos de la arquitectura de Inteligencia nacional que dificultan la coordinación entre las distintas organizaciones que participan en su elaboración. No en vano la comunidad de Inteligencia norteamericana tiene su origen histórico en la sorpresa del ataque japonés a Pearl Harbour. La compartimentalización de la inteligencia es un fenómeno que la literatura anglosajona sobre Inteligencia denomina stovepiping, transmitiendo la imagen de varias chimeneas que lanzan el humo en vertical –la inteligencia al decisor– sin conexión entre ellas. Este problema también estuvo presente en los atentados del 11-S. Los centros de fusión y el rol efectivo de los directores o autoridades nacionales de Inteligencia –en caso de que existan– tienen como función evitarlo.
  • Competencia malsana entre las distintas instituciones que componen la comunidad de Inteligencia. Cierto grado de competición resulta saludable. El problema es cuando se politiza corporativamente y se convierte en lucha de feudos, lo que obviamente complica la comunicación y coordinación.
El origen de la comunidad de Inteligencia norteamericana es consecuencia de un error de alerta temprana: el ataque japonés a Pearl Harbour el 7 de diciembre de 1941

Escasa receptividad de quienes han de responder

Un último conjunto de factores a la hora de explicar las sorpresas tiene que ver la aceptación de la inteligencia de alerta temprana por parte de los responsables de alto nivel. En esta dimensión los problemas no se encuentran tanto en la inteligencia anticipativa como en lo que algunos autores denominan el warning-response gap (George & Holl, 1997: 9). Según Richard K. Betts (1978: 61-63), es en este nivel donde se han producido los errores históricos más conocidos: Pearl Harbour, la invasión nazi de la Unión Soviética, la intervención de China en Corea en 1950 y el estallido de la guerra del Yom Kippur. En todos ellos hubo: 1) señales de alerta que no fluyeron de manera efectiva a través de la cadena de mando; y 2) señales fragmentadas que sí llegaron a los decisores pero fueron desechadas porque contradecían sus presupuestos estratégicos. El ejemplo por antonomasia es la negativa de Stalin a aceptar más de ochenta alertas específicas de invasión alemana, ordenando incluso ejecutar a alguna fuente por lo que él entendía como ‘desinformación’ (Cancian, 2018: 33).

Aunque la carencia entre alerta y respuesta puede ser de carácter táctico –una acción hostil concreta de impacto limitado–, es especialmente interesante analizar este fenómeno cuando la sorpresa es estratégica: un cambio de tendencia de gran calado y de enorme impacto. Algo que en principio tendría más base para interpelar a los decisores, que suele presentarse con tiempo –no de manera repentina–, pero que sin embargo no consigue su atención. Un fenómeno que Michele Wucker (2016) desarrolla con profundidad en The Gray Rhino. How to Recognize and Act on the Obvious Dangers We Ignore.

De manera también esquemática destaco algunos factores que crean esa fractura entre la alerta y la respuesta adecuada.

  • Relación precaria entre quienes producen inteligencia y los decisores políticos. Puede deberse a falta de credibilidad como consecuencia de errores previos de los primeros. Pero también a falta de interés sobre las cuestiones de inteligencia por parte de los segundos. Uno de los ejemplos más conocidos fue la relación del presidente Bill Clinton con el entonces director de la CIA, James Woolsey. En palabras de este último: “no es que tuviera mala relación con el presidente, sino que simplemente no tenía ninguna”. O como expresó en otra ocasión sarcásticamente: “¿recuerda a aquel tipo que estrelló una avioneta en el césped de la Casablanca? Era yo tratando de conseguir una reunión con el presidente” (Warner, 2014: 260).
  • Competición con otros asuntos de la agenda política. Se trata de un viejo problema estudiado por la Ciencia Política. No es tanto el caso de la alerta ante problemas inmediatos (una crisis internacional a punto de estallar o una amenaza fundada de atentado terrorista) como de la alerta ante sorpresas estratégicas cuyo gestación ocupa un tiempo más dilatado. El proceso por el que unos asuntos tienen prioridad sobre otros en la agenda política ha sido explicado entre otros por John Kingdon (1995: 77-86) en su teoría de las corrientes múltiples, y en gran medida también resulta aplicable al warning-response gap. En el primer epígrafe de esta publicación explico los elementos esenciales de la propuesta de Kingdon. Para que un asunto no urgente escale puestos en la agenda, los servicios de Inteligencia han de actuar a veces como ‘emprendedores políticos’: recabando la atención de otras burocracias, actores sociales e incluso medios de comunicación, como vía indirecta para llegar a los decisores políticos; sobre todo, si el asunto en cuestión no coincide con las afinidades y prioridades de dichos decisores.
  • Falta de tiempo y de reflexión por parte de los responsables políticos. Se encuentra relacionado con el punto anterior y a primera vista parece un obstáculo trivial, pero es otro factor que explica la falta de respuesta ante eventualidades anticipadas. Se crean cuellos de botella donde la inteligencia de alerta queda aprisionada. En alusión a un problema distinto a las sorpresas estratégicas, el ex Secretario de Defensa, Robert McNamara (1996: xxi) exponía en sus memorias una consideración que resulta válida para lo que estamos analizando: “Una de las razones por las que las Administraciones Kennedy y Johnson no llegaron a un planeamiento ordenado y racional de las cuestiones referentes a Vietnam fue la asombrosa diversidad y complejidad de otros asuntos a los que nos enfrentábamos. Dicho de manera sencilla, nos veíamos ante un diluvio de problemas; el día tenía sólo veinticuatro horas y, a menudo, no disponíamos de tiempo para pensar con claridad”. Esta situación se agudiza en un contexto de crisis, donde las consideraciones a corto plazo tienen un protagonismo desproporcionado que resta influencia al cálculo de los costes a largo plazo (Lebow, 2007: 73).
  • Ir contra la línea o encuadre político establecido. Ya que en tal caso quienes dirijan la política preferirán explicaciones alternativas a los informaciones que motivan la alarma, que –como ya he señalado– es a menudo ambigua (Chan, 1979: 172; Ben-Zvi, 1997: 115). Para quien produce la inteligencia el reto consiste entonces en mantener el compromiso con la verdad, sin caer en el vicio conocido como inteligencia para agradar (intelligence to please,) a la espera de obtener la atención y aprobación del nivel político.

En función de los casos, estos problemas pueden estar más o menos interrelacionados y a la postre acaban creando un patrón de ignorancia, negación y distracción respecto al problema emergente, con distinta intensidad en la cadena que va desde los responsables de la vigilancia hasta quienes han de decidir y articular las respuestas.

Y, para concluir, a partir de los cuatro conjuntos de factores analizados en este Report (limitaciones metodológicas, sesgos cognitivos, patologías en las organizaciones de Inteligencia, y escasa receptividad política que conduce a un déficit de respuesta) se deducen diversas líneas maestras para anticipar las sorpresas. Una de ellas, acorde con los contenidos de esta web, consiste en equilibrar el análisis de actualidad con el análisis estratégico y la prospectiva, –empleando técnicas que estimulen la creatividad y desafíen los marcos cognitivos establecidos– para a partir de ambos disponer de un sistema de vigilancia que siga la evolución de los indicadores seleccionados. Esto ayuda a identificar y dar sentido a las señales débiles, convirtiéndolas en señales de alerta temprana.

Referencias

Ben-Zvi, Abraham (1976), “Hindsight and Foresight: A Conceptual Framework for the Analysis of Surprise Attacks”, World Politics, Vol. 28, No. 3, pp. 381-395.

Ben‐Zvi, Abraham (1997), “The Dynamics of Surprise: The Defender’s Perspective”, Intelligence and National Security, Vol. 12, No 4, pp. 113-144.

Betts, Richard K. (1978), “Analysis, War, and Decision: Why Intelligence Failures Are inevitable”, World Politics, Vol. 31, No. 1, pp. 61-89.

Betts, Richard K. (1980), “Surprise Despite Warning: Why Sudden Attacks Succeed”, Political Science Quarterly, Vol. 95, No. 4, pp. 551-572.

Bryon D. Mushrush. Improved Intelligence Warning in an. Age of Complexity. Fort Leavenworth, KA: School of Advanced Military Studies.

Cancian, Mark F. (2018), Coping with Surprise in Great Power Conflicts, Washington DC: Center for Strategic and International Studies.

Chan, Steve (1979), “The Intelligence of Stupidity: Understanding Failures in Strategic Warning”, The American Political Science Review, Vol. 73, No. 1, pp. 171-180.

Cohen, Eliot A. & Gooch, John (2006), Military Misfortunes: the Anatomy of Failure in War, New York: Free Press.

Cullen, Patrick (2018), “Hybrid Threats as a New ‘Wicked Problem’ For Early Warning”, Strategic Analysis, Hybrid Center of Excellence.

De la Corte, Luis (2020), “¿Por qué se subestimó al Covid-19? Un análisis preliminar desde la Psicología y la Sociología del Riesgo”, Global Strategy Report, 23/2020.

Dick, Charles J. (2019), De la derrota a la Victoria. Arte operacional en el frente del Este. Verano de 1944, Málaga: Ediciones Salamina.

George, Alexander L. & Holl, Jane E. (1997), The Warning-Response Problem and Missed Opportunities in Preventive Diplomacy, New York: Carnegie Corporation of New York.

Grabo, Cynthia (2010), Handbook of Warning Intelligence: Assessing the Threat to National Security, Lanham: Scarecrow Press.

Gray, Colin S. (2005), Another Bloody Century: Future Warfare, London: Weidenfeld and Nicolson.

Gross Stein, Janice (1980), “‘Intelligence’ and ‘Stupidity’ Reconsidered: Estimation and Decision in Israel, 1973”, Journal of Strategic Studies, Vol. 3, No 2, pp. 147-177.

Handel, Michael I. (1984), “Intelligence and the Problem of Strategic Surprise”, Journal of Strategic Studies, Vol. 7, No 3, pp. 229-281.

Honig, Or (2008), “Surprise Attacks—Are They Inevitable? Moving Beyond the Orthodox–Revisionist Dichotomy”, Security Studies, Vol. 17, No 1, pp. 72-106.

Hopple, Gerald W. (1984), “Intelligence and Warning: Implications and Lessons of the Falkland Islands War”, World Politics, Vol. 36, No. 3, pp. 339-361.

Jensen, Donald N. & Doran, Peter B. (2018), Chaos as a Strategy. Putin’s ‘Promethean’ Gamble, Washington D.C., Center for European Policy Analysis.

Kam, Ephraim (1988), Surprise Attack: The Victim’s Perspective, Cambridge, MA. Harvard University Press.

Kingdon, John W. (1995), Agendas, Alternatives, and Public Policies, New York: HaperCollins.

Lebow, Richard Ned (2007), “Revisiting the Falklands Intelligence Failures”, The RUSI Journal, Vol. 152, No 4, pp. 68-73.

Lesca, Humbert & Lesca, Nicolas (2011), Weak Signals for Strategic Intelligence, London: ISTE.

MCDC Countering Hybrid Warfare Project, Countering Hybrid Warfare (London: UK Ministry of Defence 2019)

McNamara, Robert S. with VanDeMark, Brian (1996), In Retrospect: The Tragedy and Lessons of Vietnam, New York: Vintage Books.

National Commission on Terrorist Attacks, (2004), The 9/11 Commission Report. Washington DC, W. W. Norton.

Parker, Charles F. & Stern, Eric K. (2005), “Bolt From the Blue or Avoidable Failure? Revisiting September 11 and The Origins of Strategic Surprise”, Foreign Policy Analysis Vol. 1, No 3, pp. 301-331.

Pascovich, Eyal (2018), “The Devil’s Advocate in Intelligence: The Israeli Experience”, Intelligence and National Security, Vol. 33, No 6, pp. 854-865.

Pierri, Hugo (2020), “Revalorizando la anticipación estratégica”, Global Strategy, 27 de abril.

Treverton, Gregory (2018), “The Intelligence Challenges of Hybrid Threats”, Center for Asymmetric Threat Studies.

Treverton, Gregory F. (2001), Reshaping National Intelligence for an Age of Information: Cambridge: Cambridge University Press.

U.S. Army Special Operations Command, Perceiving Gray Zone Indications (Fort Bragg, NC: U.S. Army Special Operations, 2016).


Editado por: Global Strategy. Lugar de edición: Granada (España). ISSN 2695-8937

Avatar
Javier Jordán

Profesor Titular de Ciencia Política en la Universidad de Granada y Director de Global Strategy

Ver todos los artículos
Avatar Javier Jordán