Magazine Politique

Cassandre, ou la surprise stratégique

Publié le 04 septembre 2013 par Egea
  • Etats-Unis
  • Livre
  • Renseignement

Voici un remarquable travail qui vient d'être publié par Philippe Silberzahn et Milo Jones. Les lecteurs d'égéa connaissent Philippe, que j'ai rencontré il y a deux ans et qui a rejoint AGS l'an dernier. SON travail sur les stratégies incertaines en entreprise est absolument passionnant. D'ailleurs, c'est à cause d'un article que nous avions chacun publié dans la NRG sur la notion de surprise stratégique que nous nous étions connus. Surprise stratégique : voici le vrai travail de ce "Constructing Cassandra ".

Cassandre, ou la surprise stratégique

Avant d'aller au sujet (et à l'entretien que Philippe a bien voulu m'accorder), revenons sur cette question de "surprise stratégique". Souvenez-vous, ce fut une des innovations du LB de 2008, et c'était la réponse "intellectuelle" à l'événement que fut le 11 septembre. Juste après, les révoltes arabes ont renforcé la validité de cette notion. Pourtant, en tant que telle, elle a été peu étudiée. Trop souvent en effet, les gens ont compris qu'elle constituait une "faillite du renseignement". J'avais essayé de montrer dans mon article que là n'était pas l'essentiel. Philippe est allé plus loin, en menant un travail systématique d'étude de la surprise stratégique américaine, au travers des "échecs" de la CIA (Cuba, chute de l'URSS, Ben Laden et Khomeyni). Cette étude de cas aboutit à une réflexion approfondie sur cette notion de "surprise stratégique". Au fond, si le moyen de la réflexion est la CIA (et au-delà, le "renseignement"), là n'est probablement pas l'essentiel. Voici donc un ouvrage tout à fait passionnant, et l'entretien qui suit devrait vous en convaincre.

Le titre de votre livre évoque Cassandre, et parle d'échec du renseignement dans son sous-titre. Or, le principal thème n'est-il pas la "surprise stratégique" ? Qu'est-ce, d'abord, qu'une surprise stratégique ?

Une surprise stratégique, telle que nous la définissons, est un état de crise provoqué par un événement inattendu qui révèle que l’on a fonctionné sur la base d’une évaluation erronée empêchant d’anticiper une grave menace pour ses intérêts vitaux. Cette notion d’évaluation erronée est fondamentale et met l’accent sur l’échec du renseignement dans sa genèse. Nous nous intéressons donc à cet échec comme l’une des sources de surprise stratégique, mais il y en a d’autres, comme par exemple le refus du politique d’accepter une évaluation qui a existé dans l’histoire.

Pour en parler, vous vous intéressez au travail de la CIA, l'agence de renseignement américaine. Elle a l'avantage de permettre une longue durée d'étude (1947-2001) avec des sources assez ouvertes. Mais surtout, vous rappelez qu'elle fut créée pour éviter un "nouveau Pearl Harbour" : on est ici frappé de l'importance de cette "surprise stratégique fondatrice" dans la psyché américaine. Au fond, la notion de surprise stratégique n'est-elle pas une question "américaine" ?

Pearl Harbour reste évidemment un événement majeur pour les américains et on peut comprendre pourquoi. Evidemment, le contexte de la création de la CIA, en 1947, est différent et cette fois c’est l’URSS qui est devenue la menace principale. Pour les américains, il est hors de question de se laisser surprendre une deuxième fois. L’URSS restera donc la raison d’être fondamentale de la CIA jusqu’à son effondrement. Dès lors, il nous a paru d’autant plus intéressant d’expliquer pourquoi, malgré cette raison d’être, la CIA a échoué à anticiper cet effondrement. Mais la surprise stratégique n’est pas une question américaine : la guerre du Kippour démarre sur une surprise totale des israéliens qui passent à deux doigts de l’anéantissement. Le printemps arabe est une surprise pour tout le monde, y compris la France : nous avons tous en mémoire cet ambassadeur français qui le vendredi matin assure que le régime de Ben Ali est stable, alors que celui-ci prendra la fuite quelques heures après. L’histoire militaire est pleine de surprises. Mais la surprise existe également dans le monde des affaires : Nokia, aujourd’hui revendu pour une bouchée de pain à Microsoft, a été totalement surprise par l’arrivée d’Apple sur le marché de la téléphonie. Non, la surprise est un phénomène universel au sens de la difficulté à anticiper un changement profond de son environnement.

Vous distinguez d'ailleurs deux types de surprises stratégiques, qu'on ne peut réduire (comme trop de gens le pensent) à "l'attaque surprise". Quelles sont ces deux types, et comment les quatre cas que vous analysez les illustrent bien ?

Traditionnellement on parle d’attaque surprise, et on pense à Pearl Harbour, à l’offensive du Têt, ou à la guerre du Kippour. Dans l’ouvrage, nous appelons ce type de surprise des secrets, parce qu’il existe quelqu’un qui agit pour créer cette surprise, elle ne constitue donc une surprise que pour celui qui va en être victime s’il se révèle incapable de percer ce secret à temps. Mais les organisations sont également surprises par des évolutions profondes de leur environnement, comme des ruptures technologiques ou des révolutions. Là, il n’y a pas de secret, nous les appelons des mystères, car même leurs protagonistes, comme L’ayatollah Khomeiny dans le cas de la révolution iranienne, ne savent pas forcément où vont les choses. Il nous a paru essentiel d’étudier la surprise sous ces deux prismes, car on peut ainsi mieux mettre en lumière les mécanismes à l’origine des surprises. Nous avons donc choisi deux cas de secrets (Cuba et le 11 septembre) et deux cas de mystères (la révolution iranienne de 1978 et l’effondrement de l’URSS). Ces quatre cas continuent d’avoir des répercussions majeures aujourd’hui.

Dès lors, vous chercher à "comprendre" et non à "expliquer" : pouvez-vous nous "expliquer" (!) cette distinction ?

En fait le mot important est « comment ». Nous cherchons à comprendre comment une surprise peut survenir, au sens où nous démontons les mécanismes organisationnels pour en comprendre le système et la logique. Très vite bien sûr on bute sur le fait qu’il s’agit d’une organisation qui a pour mission de donner un sens à un environnement, et qui donc on traite de faits sociaux, ce qui nous fait arriver aux dimension identitaires et culturelles des analystes chargés de cette mission.

Évoquant Michael Scheuer (agent de la CIA surnommé "le prophète" parce qu'il a, en vain, averti du danger de Ben Laden), vous expliquez que c'est un vrai "Cassandre", parce qu'il a donné le bon avertissement pour les bonnes raisons. On devine qu'il s'agit là de l'idéal du travail d'anticipation. Mais ne peut-on pas donner le bon avertissement avec un raisonnement faux ou, plus souvent, partiellement juste ? N'est-ce pas plus réaliste ?

Même une horloge analogique en panne donne l’heure exacte deux fois par jour. Chacun d’entre nous fait des prédictions sans arrêt, et étant donné le nombre de prédictions faites plus ou moins sérieusement, on trouvera toujours, après un événement donné, quelqu’un qui l’avait prédit, c’est d’ailleurs le jeu favori des journalistes : Mme Gonzales, 85 ans, en Bolivie, avait prédit un attentat terroriste à New-York. C’est une évidence statistique, mais c’est aussi un biais (car on ignore les millions de gens qui avec les mêmes méthodes ont prédit en se trompant), mais la prédiction a été faire pour les mauvaises raisons et elle n’a donc aucune utilité pour le décideur, ni avant l’événement pour l’éviter, ni après comme leçon. Un Cassandre au contraire est quelqu’un qui a, non pas prédit, mais correctement anticipé, pour de bonnes raisons, le déroulement approximatif des événements. D’ailleurs, nous n’attendons pas de la CIA qu’elle prédise l’avenir, ce serait injuste et naïf. Plus modestement, le rôle de la CIA est de fournir suffisamment d’éléments aux décisionnaires pour prendre des mesures adéquates. Un Cassandre est intéressant car alors on peut demander : si quelqu’un, pour de bonnes raisons, a correctement anticipé le cours des événements, pourquoi a-t-il été ignoré ? Pourquoi les éléments n’ont-t-ils pas été fournis aux décisionnaires ? et bien nous trouvons qu’ils ne l’ont pas été parce que l’identité et la culture de la CIA a tué dans l’œuf toute tentative d’étayer ces éléments. Les cassandres ont été jugés fous, ou irrationnels, et ignorés.

Plus loin, vous comparez très judicieusement le travail des agents de la CIA avec celui d'autres "travailleurs de l'information" (tous les analystes des banques, des directions de la stratégie ou des labos de recherche et développement) : ils utilisent de grandes quantités d'informations pour leur trouver du sens et produire auprès des décideurs des recommandations de décisions. Or, la CIA a la différence qu'elle traite "aussi" des informations secrètes. D'un point de vue stratégique, les informations secrètes font-elles vraiment la différence ?

Indéniablement, l’information secrète a une importance stratégique, et il n’est pas étonnant que la CIA s’y intéresse ni qu’elle soit attentive à protéger son fonctionnement au moyen du secret. Mais ce que nous observons, c’est que cet intérêt pour le secret est poussé à un tel extrême qu’il met en danger la qualité du travail analytique, et ce de plusieurs façons : il focalise l’attention de l’agence sur l’information secrète au dépend de l’information ouverte, le secret étant recherché pour lui-même, pratiquement comme un sport où on se félicite d’avoir intercepté un câble soviétique même si celui-ci est sans intérêt, mais on ignore les difficultés des ménagères soviétique qui mettent une journée à acheter 1 kg de chou, ce qui pointe vers la faillite de l’économie : s’intéresser au chou, ce n’est pas très glamour, et ça n’a rien de secret ! Le culte du secret induit également l’agence en erreur dans le cas des mystères précisément parce que, en gros, rien n’y est secret, tout y est public, mais confus. Comme rien n’y est secret, l’agence considère que cela ne la concerne pas. Il n’y a pas de but à marquer en volant des secrets.

Vous reprenez (en montrant qu'elles sont incomplètes) les trois catégories d'explication des surprises stratégiques : l'une tient aux carences de l'organisation, l'autre aux freins psychologiques, la dernière au traitement de l'information (avec notamment la très à la mode notion de signal faible). Pourtant, n'avez-vous pas une certaine préférence (ou indulgence) pour la seconde ?

Ces trois explications sont utiles : oui, il y a des dysfonctionnements organisationnels, comme par exemple la relation parfois difficile entre la CIA et le FBI. Oui, il y a des biais psychologiques qui font commettre aux analystes des erreurs dans leur travail. Et oui bien-sûr, il y a des signaux faibles qui sont ignorés. Mais la question est pourquoi ? Si le problème est organisationnel, comment se fait-il que les réorganisations régulières n’aient pas résolu le problème ? La grande réorganisation après 2001 n’a pas empêché la CIA d’être totalement prise par surprise par le printemps arabe. Si le problème est psychologique, comment se fait-il que ces erreurs s’accumulent pendant près de quarante ans sur une question donnée malgré les multiples améliorations du processus d’analyse ? Pourquoi certaines erreurs et pas d’autres ? enfin, si c’est une question de signaux faibles, comment se fait-il que l’échec se produise malgré la présence d’un volume massif de données, comme dans le cas de la crise de Cuba ? En fait aucune de ces explications ne fournit une théorie unifiée et globale de l’échec d’intelligence : d’une part parce qu’elles se concentrent en général sur une phase du cycle du renseignement, l’analyse, alors que les erreurs sont présentes sur les autres phases : définition de la question (on essaie de résoudre le mauvais puzzle), collection (on cherche la mauvaise information en ignorant la bonne), et transmission (on informe mal le décideur). D’autre part parce que chacune d’entre elle échoue à expliquer nombre d’erreurs. Ce que nous avons fait dans ce travail, c’est de nous demander : pourquoi ces dysfonctionnements, pourquoi ces biais et pourquoi cette ignorance de signaux ? Notre réponse est que cela arrive en raison de la culture et de l’identité de l’organisation. La CIA édulcore son rapport sur les difficultés de l’URSS parce que le ministère de la défense américain refuse d’envisager son effondrement. La CIA ignore son ‘big data’ dans le cas cubain parce qu’elle estime que jamais les russes ne mettront de missile à Cuba. Etc, etc. tout remonte aux hypothèses qui guident son action, et nous étudions comment ces hypothèses naissent, et sont conservées ou abandonnées. Or nous générons les hypothèses sur la base de qui nous sommes, et donc l’identité et la culture sont à la base de l’échec du renseignement et de la surprise stratégique qui s’en suit.

Votre thèse consiste finalement à expliquer qu'à la CIA (mais on devine que la conclusion peut être généralisée), ce fut surtout une "culture commune" qui fut à l'origine de ces surprises : ne pourrait-on pas parler de "représentation" ? Ce qui rend assez pessimiste car cela revient à dire que la surprise est inhérente non seulement à une organisation de renseignement, mais aussi à ses rapports avec les décideurs, eux aussi marqués par cette représentation commune ?

Tout à fait exact. Nous résumons le livre en disant que ce par quoi vous êtes surpris dépend de qui vous êtes. La culture et l’identité construisent la représentation du monde que nous devons développer pour le comprendre et agir dessus. Mais nous n’en tirons aucun pessimisme, bien au contraire. En révélant la source profonde de l’échec du renseignement, nous pointons le problème. En soulignant que cette cause se trouve au sein de notre organisation, nous montrons également que l’action est tout à fait possible, puisque le problème est chez nous !

D'ailleurs, vous concluez en proposant une simple amélioration : celle de débuter le cycle du renseignement par un paragraphe "hypothèses", au lieu de simplement débuter par "mission". En quoi ce simple ajout peut-il faire durablement changer les résultats ?

Notre travail est plus un diagnostic qu’une proposition de solution, et nous sommes conscients de la complexité de la tâche. Mais il nous a semblé très important de nous focaliser sur ce travail de diagnostic précisément parce que c’est là que le bât blesse pour l’instant. Un diagnostic correct était un préalable indispensable à un travail de réforme, sinon on reste sur des changements tactiques – améliorer tel processus, réorganiser telle département, mieux former les analystes, etc. Cependant, mettre en avant les hypothèses dans le cycle du renseignement est moins anodin qu’il n’y paraît. De manière répétée, nous trouvons dans les cas que les analystes génèrent et conservent de mauvaises hypothèses, et éliminent les bonnes, souvent sans en être conscients, ce qui mine toute la suite du travail. Nous l’avons évoqué dans la crise de Cuba : « Jamais les russes ne feraient une chose pareille. » Si les hypothèses sont réintégrées dans le cycle, alors forcément quelqu’un devra demander à chaque itération : mais pourquoi croyons-nous que jamais les russes ne feront cela ? Dans la révolution iranienne, on demandera « Mais pourquoi croyons-nous que le régime du Shah est solide ? » En 2001, on demandera « Si nous croyons que Bin Laden est une menace prioritaire, pourquoi le budget de l’unité chargée de le traquer ne reflète-t-il pas cette priorité ? ». Pour l’URSS, on demandera « Nous pensons que le budget militaire de l’URSS est tenable parce son PIB l’autorise ; mais sommes-nous si certains de notre estimation, et y a-t-il des gens qui ont une estimation différente ? Sur quelles hypothèses repose notre estimation ? » En replaçant les hypothèses à la base du cycle, on peut mieux mettre en lumière la dimension intrinsèquement sociale du travail de renseignement, on peut mieux les remettre en question, et par là-même assurer le développement d’une épistémologie, c’est-à-dire une théorie du savoir, explicite et partagée par les analystes et les décisionnaires. Ce n’est pas une solution miracle, mais sans une épistémologie pertinente, un champ comme le renseignement ne peut se développer au-delà d’une démarche artisanale, et il faudra continuer à observer le triste spectacle des conséquences de cette limitation.

J'ajouterai une dernière question : Avez vous mis "La Compagnie" de Jonathan Little dans votre bibliographie ?

Little n'est pas dans la biblio, mais c'est une excellente lecture.

Philippe Silberzahn, je vous remercie.

Philippe Silberzahn et Milo Jones
  • Constructong Cassandra
  • Stanford University Press
  • 2013
  • Le site du livre : plus de détails, aperçus intérieurs, reviews, ...

O. Kempf


Retour à La Une de Logo Paperblog

A propos de l’auteur


Egea 3534 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazines