Elsősorban az Iszlám Állam (IÁ) dzsihadista terrorszervezet elleni harcról tárgyalt Szergej Lavrov orosz és John Kerry amerikai külügyminiszter Belgrádban csütörtökön este. A B92 belgrádi televízió pénteken idézte Szergej Lavrovot, aki szerint egyetértettek abban, hogy elengedhetetlen a török-szír és a török-iraki határ lezárása.
(Editor’s note: Adam Elkus is a PhD student at George Mason University working on computation and strategy)
Recently, KCL’s Kenneth Payne published an article on the potential meaning of artificial intelligence for future strategy. Some of the complexities of tackling this science fiction-esque topic lie in the duality of AI itself as a scientific discipline. While many believe that AI is a discipline oriented around the engineering of synthetic intelligence, one should also note that it has also alternatively claimed that doing so will help us understand human (and other forms of) intelligence. For example, Herbert Simon and Alan Newell’s General Problem Solver was an endeavor with relevance for both AI and cognitive science. Simon and Newell derived the idea of means-end reasoning from a view of human problem solving and implemented it programmatically in a way that could be mechanized by a machine. The same holds true for artificial neural networks as well, which are based somewhat on ideas from computational neuroscience and much more so on engineering utility for problems in machine learning.
Payne and his co-author Kareem Ayoub focus in particular on the use of games and microworlds to develop AI systems:
More complex scenarios than Atari games are possible. Microworlds are abstract representations used by the military to assist in strategic decision-making. They have been used to conceptualise the terrain, force deployment, enemy responses and movements. The use of modular AI in this example domain allows users to create their own microworld simulation with its own rules of play and run limitless iterations of possible events. Jason Scholz and his colleagues found that a reinforcement-learning based AI outperformed human counterparts in these microworld wargames. Their ability to do this rested on two factors: (1) the machine could go through rounds much faster than a human counterpart, and (2) the machine could process every possible move simultaneously, providing previously unseen recommendations. Allowing that many military campaigns can be dimensionally reduced to microworlds – indeed many tabletop staff college exercises do precisely that – such an approach with modular AI proves valuable for rapid iteration of potential options.
A worthy addition to this observation, however, is that microworlds such as strategy games presume a certain view of human problem-solving behavior that is relatively new to strategic theory. [0] Consider the machine representation of chess, the most famous strategic game played by humans and computers. Like game theory, chess is can be visualized via extended-form representation, as seen in images like this:
The minimax algorithm visualizes strategy in terms of how both “min” and “max” players connect the initial moves to the payoff values in the terminal nodes at the bottom of the tree. The goal of min is to force the max player to the lowest payoff. Conversely, max would like to receive the highest payoff value. For a full explanation of minimax, readers are advised to consult the nearest friendly neighborhood game theorist, such as political scientist Phil Arena. [1] Yet despite the fact that zero-sum games in game theory and chess share the same basic representation and solution concept, they diverge in one peculiar way.
The following image does not build the full game tree; notice that it only partially encompasses it:
This is due to the problem of how chess is represented on a machine; building the full game tree would be intractable due to the sheer size of the game. Moreover, a chess program would not be able to reason about other games that lack chess’ peculiar characteristics. [2] Two methods that have been commonly used to explain how humans and machines deal with chess’ sheer complexity are knowledge representation and search:
Given the relatively slow rate at which moderately skilled players can generate analysis moves, estimated in Charness (1981b) to be about four moves per minute, it is obvious that much of the time that human players spend is not in generating all possible moves (perhaps taking a move per second) but in generating moves selectively and using complex evaluation functions to assess their value. Computer chess programs can achieve high-level play by searching many moves using fast, frugal evaluation processes that involve minimal chess knowledge to evaluate the terminal positions in search. Deep Blue, the chess program that defeated World Champion Garry Kasparov in a short match in 1997, searched hundreds of millions of positions per second. Today’s leading microcomputer chess programs, which have drawn matches with the best human players, have sophisticated search algorithms and attempt to use more chess knowledge but still generate hundreds of thousands or millions of chess moves per second. Generally, chess programs rely on search more heavily than knowledge; for humans it is the reverse. Yet, each can achieve very high performance levels because knowledge and search can trade off (Berliner & Ebeling, 1989).
Both knowledge and search, however, stem from the same fundamental way that old-school cognitive scientists and computer scientists define the problem of strategy, which is very different how the strategic studies profession views it. First, let us note therepresentation of game states as a hierarchal tree that proceeds from most abstract to most primitive; it takes us the entire time to move from the top of the tree to the end of the game and the actual payoffs. Another example can be found in the way in which hierarchal task network planning algorithm in AI begins with composite tasks and breaks them down until the algorithm reaches simple actions, which vaguely corresponds to distinctions of strategy and tactics known to Kings of War readers:
Computer-literate readers will also notice the similarity to this tree structure and the directory structure on a computer filesystem. [3]
Why does it make sense to view the world as a tree that moves from most general to most specific? This is an interesting topic about which a good deal of intellectual history was been written. Broadly speaking, it is not surprising that Cold War-era efforts to optimize hierarchally organized systems such as military bureaucracies produced a view of the world as a hierarchally decomposed tree. But that in and of itself does not fully explain the choice of representation. Ontologies, taxonomies, and other forms of hierarchal knowledge representation are common in science and philosophy. What computing did was make them dynamic processes. The interaction or composition of components produced behavior.
George Miller, the famous cognitive scientist, produced a book titled Plans and the Structure of Behavior. In contrast to behaviorist conceptions that did not envision much of an intermediary structure between stimulus and behavior, Miller and his counterparts in AI argued that the internal organization of cognition could tell us much about the outward manifestations of complex behaviors. Hence, it makes sense to study chess players in terms of how they organize their knowledge and search processes, as such internal representation could tell us much about how they are capable of producing complex strategies.
While deep neural networks are often viewed as oppositional to this broadly cognitivist view, this is not necessarily the case. [4] After all, one sees hierarchal representations (albeit defined highly differently) frequently in deep learning research. Hierarchal representations are key to recent research in reinforcement learning as well. And hierarchies also appear quite frequently in both AI work on evolving neural networks and neuroscience research on computation in the brain. Finally, one should also note that hierarchy (differing levels of abstraction) and modularity (different functions) appear to be one of the more interesting explanations for what ideas about animal behavior have in common with computing.
The consequences of this view are that the principal problems of strategy, seen computationally, lie in computational limitations.
The main problem for action selection is combinatorial complexity. Since all computation takes both time and space (in memory), agents cannot possibly consider every option available to them at every instant in time. Consequently, they must be biased, and constrain their search in some way. For AI, the question of action selection is: what is the best way to constrain this search? For biology and ethology, the question is: how do various types of animals constrain their search? Do all animals use the same approaches? Why do they use the ones they do? …. Ideally, action selection itself should also be able to learn and adapt, but there are many problems of combinatorial complexity and computational tractability that may require restricting the search space for learning.
The core problem with a computational view of strategic behavior is that it views strategy in terms of the interface between an “outer environment” and an “inner environment.” If the inner environment of an artifact is well adapted to the outer environment that surrounds it, it will serve its purpose. In other words, if, say, the Department of Defense is able to configure its force structure and military operational concepts to meet the threat of X or Y adversary, its “inner environment” is well-adapted to realize the intended purpose of war and defense. This sort of view of strategy and defense underlies both systems analysis and net assessment, though net assessment is far more qualitative and eclectic. It also underlies the idea of ends, ways, and means held by many strategists – we must find the correct configuration of ways (actions) and means (resources) to meet the desired end. [5]
Let us contrast this to a more classical view of strategy, which would see strategy as the way in which a political community finds a way of fulfilling a desired purpose through the instrumental usage of violence. Here, the problem is not really the combinatorial complexity of searching for a path to the goal or optimizing a utility function, but in the difficult process of using social action to achieve a desired end. First, the end might be contested or ambiguously defined. As KCL PhD candidate Nick Prime and I noted, many strategic ends are essentially compromises and products of fractious politics. Second, what it means to fulfill it is always fairly uncertain during the actual process of strategy formulation.
Mathematically measured criteria are useful for measuring the distance between intention and goal, but metrics of progress depend on highly subjective definitions of not only the goal but also what it means to realize it. Defining the problem in Vietnam, for example, in terms of eradicating enemy infrastructure in South Vietnam presumes that the most important problem lies in Vietcong “shadow governments” that erode power and authority. This is a highly contestable view of the problem, because a combination of targeted killings and the toll of the failed Tet Offensive wiped out enemy infrastructure inside South Vietnam and we still failed to achieve our strategic goals.
Computation is likely a very useful model for thinking about strategy, especially (as Ayoub and Payne do) from a machine’s point of view. But it should also be observed just how alien this view is from the perspective of classical strategy, and recognized that no model is the territory. As a computer modeler, I never assume that any abstractions I build for coursework are anything but reductions of the “real” thing. [6] As computers become more and more present in strategy and command, we should keep these thoughts and the distinctions they suggest in mind. But is there any middle ground?
One meeting ground between the “system” view of strategy and the more humanistic view can be found potentially in the idea of “control” expressed by J.C. Wylie and others.
Control denotes the utility of strategy being found in the way in which an agent is able to manipulate the key features of the environment in a way that advantages the strategist and disadvantages the opponent. The classical view of computation and behavior in AI and cognitive science has been opposed by another set of views that de-emphasizes elaborate internal representation and emphasizes the way in which interaction with the environment produces intelligent behavior. [7]
The environment defines a relation between environmental object and an organism that affords the organism with the capability to perform a certain action. Control of the sea, for example, affords certain strategic capabilities that airpower and landpower does not, and vice versa. The simplest way of designing a mobile robot around its environment, for example, would start with basic behaviors (if X stimulus, perform Y action) and then utilize more complex control structures to inhibit or favor certain behaviors based on the situation. One behavior might be privileged over another even if they both correspond to the same environmental input. Hence, by changing the nature and pattern of the environment to your advantage, you in term exert control over your opponent. If I am playing hide-and-seek with a TurtleBot, for example, I can thwart my Dalek-like adversary if I re-arrange the topology of my apartment as to frustrate it in numerous ways. [8]
Food for thought, certainly. Meanwhile I will continue to dump Golang code into my ParrotAR in the vain hope that I can engineer a taco copter to deliver me tacos while I do research. I at least know that robots can deliver coffee, which is a good start. I can live without tacos but its hard to see how a PhD student can be “intelligent” without any coffee.
Adam Elkus is a PhD student in Computational Social Science at George Mason University and a 2015-2016 New America Foundation fellow in NAF’s Cybersecurity Initiative. He writes on strategy, technology, and other subjects while finding time to ponder how a drone can deliver tacos to his domicile.
[0] It is rather old in the social and behavioral sciences as well as other fields. See Margaret Boden’s Mind as Machine for a good history of the cognitive science view. Lawrence Freedman and Nils Gilman have aptly covered the social science literature.
[1] You can use Manhattan distance or some other metric to compute what is “near” in this statement.
[2] Chess and machines have a very old and interesting history. For more, see this handy overview of computer chess.
[3] This is a representation of the UNIX filesystem structure. See this article for an overview of the distinction between Linux and Windows filesystems. Linux and Mac OSX also differ in their interpretations of the basic UNIX structure. For more, see this and this.
[4] Connectionism (known as the Parallel Distributed Processing research program) in artificial intelligence and cognitive science is a different level of analysis. To see how the classical conception of AI and cogsci perceives mind, consult the physical symbol systems hypothesis.
[5] Indeed, Ends-Ways-Means can be viewed as a kind of organizational programming, as implied by Antulio Echevarria here and stated more bluntly by Christopher Paparone here.
[6] For a dense look at the philosophy of simulation, I recommend Manuel De Landa’s book on “synthetic reason.”
[7] It’s worth noting that the answer to understanding rationality probably lies in a combination of both. See this recent overview of new work in neuroscience and AI.
[8] There are two design strategies in AI, broadly. Make a simple organism that can be effective in a range of environments or build a highly brittle and complicated system for a well-defined environment. See Poole and Mackworth for more.
Jean-Baptiste Jeangène Vilmer, juriste et docteur en science politique et en philosophie, est enseignant à Sciences Po et titulaire de la chaire d’études sur la guerre du Collège d’études mondiales. Il répond à mes questions à l’occasion de son dernier ouvrage « La responsabilité de protéger », paru aux éditions PUF dans la collection « Que sais-je ? ».
La responsabilité de protéger (R2P) permet-elle de n’être pas limité au choix de l’inaction face à l’inadmissible et de l’ingérence, politique de puissance déguisée en choix moral ?
Exactement. L’enjeu est de sortir du faux dilemme entre ne rien faire et faire obligatoirement usage de la force armée. Ces deux extrêmes étalonnent le débat mais il y a entre eux de nombreux paliers, sur lesquels insiste la R2P.
Depuis 2009, celle-ci est organisée en trois piliers. Le premier, qui consiste dans la responsabilité permanente incombant à l’Etat de protéger ses populations, implique notamment le renforcement et la mise en œuvre des instruments juridiques (adhésion aux traités, élaboration d’une stratégie nationale, etc.). Le deuxième, qui consiste dans l’engagement pris par la communauté internationale d’aider les États à s’acquitter de ces obligations, implique de la diplomatie préventive, des mesures incitatives, un renforcement de la capacité des États et de l’assistance en matière de protection. Le troisième pilier affirme qu’en cas de défaillance de l’État, la communauté internationale peut répondre à la crise par différents moyens, tels que la pression politique, la médiation et, enfin, la coercition. Cette dernière peut encore s’exprimer de différentes manières, comme des sanctions ou la saisine de la Cour pénale internationale, avant d’en venir à l’usage de la force armée qui, elle-même, connaît plusieurs degrés.
On voit donc à quel point le réductionnisme « R2P = intervention militaire », pourtant très courant, est faux ! Pour la R2P, l’intervention militaire n’est certes pas exclue, mais elle n’est que le dernier recours de son troisième pilier. L’amalgame « R2P = ingérence », populaire en France, est encore plus faux car l’ingérence est une immixtion sans titre, c’est-à-dire une intervention illégale, alors que la R2P, lorsqu’elle implique une intervention armée en dernier recours, requiert l’autorisation du Conseil de sécurité.
L’intervention en Libye n’a-t-elle pas sonné le glas de la responsabilité de protéger, par un changement de mission en cours de route ?
Premièrement, je ne crois pas que le mandat initial ait été dévoyé. On lit partout que la résolution 1973 n’autorisait qu’à mettre en place une zone d’exclusion aérienne pour protéger Benghazi, sans aucune troupe au sol, et qu’elle a été détournée au profit d’un changement du régime. Pourtant, que dit le texte ? Avant même de parler de la zone d’exclusion aérienne (§6-12), il autorise les intervenants « à prendre toutes mesures nécessaires (…) pour protéger les populations et les zones civiles (…) tout en excluant le déploiement d’une force d’occupation étrangère » (§4). Il s’agit donc d’une autorisation générale, dont la zone d’exclusion aérienne n’est que l’une de ses mesures et non la seule, pour protéger les populations où qu’elles se trouvent, et qui n’exclut pas toute troupe au sol mais seulement une force d’occupation (pour éviter une dérive à l’irakienne), ce que les forces spéciales ne sont pas.
Ceux qui estiment que les intervenants ont débordé le mandat de la résolution 1973 en Libye doivent en outre répondre à la question suivante : était-il possible de « protéger les civils » sans renverser Kadhafi, alors qu’il était la principale menace qui pesait sur eux ? Il faut ici distinguer clairement les objectifs des moyens : le changement de régime n’était effectivement pas autorisé comme un objectif dans la résolution 1973, mais rien ne permet de dire qu’elle l’excluait comme moyen ultime, c’est-à-dire comme l’une des « mesures nécessaires » pour protéger les civils. Les bombardements avaient pour but d’affaiblir le régime puisque c’est lui qui menaçait les civils. Ce n’est pas parce que cet affaiblissement a précipité sa chute que l’on peut en déduire que l’objectif initial était de le renverser. Tout cela bien entendu n’excuse en rien l’impréparation des intervenants à la gestion de l’après, et l’échec de la communauté internationale à gagner la bataille de la reconstruction.
Deuxièmement, je ne crois pas non plus que l’intervention en Libye ait tué la R2P. Elle a réveillé des questions que l’insistance sur la prévention avait endormies les années précédentes, et qui sont les problèmes structurels classiques de toute intervention : la temporalité (savoir quand commencer et où s’arrêter), l’effet positif (contrefactuel, donc impossible à prouver), la motivation (la relation entre la morale et les intérêts), la sélectivité (accusation de « deux poids, deux mesures ») et la transition (gagner la paix). Le relatif échec la R2P en Libye est celui de la responsabilité de reconstruire.
En 2011 et 2012, on pouvait trouver un relatif « effet libyen » dans les diplomaties, qui s’est traduit par une réticence de certains États, même défenseurs du concept, à l’utiliser pour ne pas effrayer leurs partenaires. L’intervention avait rendu la R2P toxique. Mais cela n’a pas duré et, avec le recul, on peut désormais conclure que ni l’intervention en Libye ni celle en Côte d’Ivoire – qu’on a accusé des mêmes maux au même moment – n’ont discrédité le concept.
La preuve en est que la R2P poursuit sa croissance. Elle n’est pas moins mais beaucoup plus invoquée par le Conseil de sécurité depuis la Libye (4 résolutions entre 2005 et 2011, contre 30 depuis 2011). Les participants au débat annuel de l’Assemblée générale sont chaque année plus nombreux (44 en 2010, 46 en 2011, 59 en 2012, 70 en 2013, 81 en 2014, 89 en 2015). De plus en plus d’États ont des « centres de liaison » (focal points) de la R2P pour intégrer la prévention dans leurs politiques intérieure et étrangère (en août 2015, le Rwanda était le cinquantième à rejoindre ce réseau). Dix ans après son adoption par l’Assemblée générale, la R2P fait l’objet d’un relatif consensus sur ce qu’elle est et sur le fait que les États ont cette responsabilité. C’est la question de savoir comment la mettre en œuvre qui reste controversée, en particulier lorsqu’elle implique des mesures coercitives comme l’a montré l’affaire libyenne, mais la crise de 2011 n’a pas remis en cause la croissance globale de la R2P.
La responsabilité de protéger a-t-elle un avenir ?
Malheureusement oui, dans la mesure où les crimes qu’elle entend couvrir (génocide, crime contre l’humanité, nettoyage ethnique et crime de guerre) ne sont pas prêts de disparaître. On peut bien sûr la trouver insuffisante, voire impuissante. Après tout, elle n’est jamais qu’un appel politique, et devrait le rester : il n’y a pas d’obligation juridiquement contraignante d’intervenir pour prévenir ou mettre fin à ces exactions. Elle dépend donc de la volonté politique des États et c’est sa principale faiblesse. Mais elle a tout de même réussi, en une quinzaine d’années, à se diffuser et façonner des attentes sur la manière dont le Conseil de sécurité devrait répondre aux atrocités de masse.
Cela ne veut pas dire qu’il le fait toujours, comme en témoigne le cas de la Syrie, mais l’indignation suscitée confirme que la R2P est bien une norme. La R2P est une obligation de comportements, pas de résultats. Elle est une responsabilité d’essayer, pas de réussir. Ce qui signifie que les échecs de la R2P ne sont pas des preuves de son inexistence en tant que norme.
Il y a toujours eu et il y aura toujours des interventions. La R2P peut ambitionner de les fonder davantage sur des critères préétablis, multilatéraux et consensuels. Une chose est sûre cependant : la concurrence des préoccupations, dans un contexte où les moyens sont limités et affectés prioritairement à des questions sécuritaires, économiques et diplomatiques que les gouvernements considèrent plus pressantes, fait que les États continueront de répondre aux atrocités au cas par cas, en fonction des circonstances et des intérêts en jeu. Autrement dit, la R2P se heurtera toujours à la volonté politique des États, dont toute action dépend.
Oroszország lehet az ökológiailag tiszta és jó minőségű bio élelmiszereinek legnagyobb szállítója a világon - mondta Vlagyimir Putyin orosz elnök csütörtökön.
Tárgyalóasztalhoz ült csütörtökön Belgrádban Szergej Lavrov orosz és Mevlüt Cavusoglu török külügyminiszter, a találkozót követően Lavrov az orosz sajtónak azt mondta: nem hallott semmi újat török kollégájától, míg Cavusoglu szerint egyetlen találkozótól nem lehet a helyzet megoldását várni. A két politikus az Európai Biztonsági és Együttműködési Szervezet (EBESZ) Miniszteri Tanácsának kétnapos konferenciája mentén tartott kétoldalú megbeszélést. Ez volt az első hivatalos találkozó azt követően, hogy a török légierő november 24-én lelőtt egy orosz vadászbombázót a szíriai-török határ térségében.
Az orosz állampolgárok kétharmada 2018 után újra Vlagyimir Putyint szeretné Oroszország elnökének, vagy akit személyesen ő javasol - derült ki egy november végi felmérésből. A megkérdezettek kevesebb mint 20 százaléka szeretne más elnököt az ország élére.
will take place on Monday 25 January, 15:00-18:30, in Brussels.
Organisations or interest groups who wish to apply for access to the European Parliament will find the relevant information below.
Dans son célèbre ouvrage Tolstoï ou Dostoïevski, paru en 1960, l’éminent critique littéraire de Cambridge George Steiner soulignait que pour connaître le secret du cœur d’un homme ou d’une femme, il suffisait de lui demander lequel des deux auteurs avait sa préférence, tant il est vrai que chacun des deux géants de la littérature russe incarnait une vision du monde et offrait une interprétation de la politique, de l’histoire et de la condition humaine radicalement différente de celle de l’autre.
Spécialiste de Tolstoï à l’université de Virginie, Andrew Kaufman a soutenu plus récemment dans The Daily Beast que Vladimir Poutine, qui apprécie les deux écrivains, a malheureusement privilégié la tradition de Dostoïevski, celle de la croyance en un exceptionnalisme russe, porteur d’une mission de régénération et d’unification du monde slave, plutôt que la tradition humaniste et universaliste de Tolstoï, embrassant la diversité du monde par-delà les différences de culture, de nationalité ou de religion.
Si seulement Poutine avait adopté la vision de Tolstoï, nous dit Kaufman, il aurait sauvé son âme et la situation géopolitique de la planète serait bien différente. Chez Tolstoï, aucun nationalisme cocardier, aucun roulement de tambour, aucun triomphalisme messianique, mais un patriotisme respectueux de l’égalité et de la dignité des peuples.
Pour lui, et c’est d’ailleurs là la grande leçon de Guerre et Paix, la force vient de l’humilité et non pas de l’hubris, de la grande fraternité de l’esprit plutôt que d’une volonté de s’imposer brutalement aux autres, de la résistance digne face à l’adversité plutôt que du renoncement aux valeurs morales. Tolstoï avait compris qu’en jouant les matamores, en faisant étalage de ses muscles et de sa virilité machiste, on allait au-devant de bien des déconvenues et qu’on plantait en fait les germes de sa propre destruction.
Comme l’a montré l’historien Paul Kennedy, dans toute l’histoire des empires, on retrouve une constante : l’hubris entraîne la surextension (imperial overstretch), qui elle-même provoque le déclin. Si l’Amérique est aujourd’hui contrainte de se retrancher temporairement et de se recentrer sur ses problèmes intérieurs, c’est également parce qu’une croyance béate en l’exceptionnalisme américain et un nationalisme chauvin (jingoism) l’avaient conduit, sous l’administration Bush-Cheney, à surestimer ses forces et à s’embourber dans des guerres aussi inutiles que destructrices pour son image, ses finances publiques et sa stature internationale. La blessure du 11 Septembre avait conduit l’Amérique à plonger tête baissée dans le piège tendu par Ben Laden. Le maximalisme et la bien mal pensée « guerre globale contre le terrorisme » ont eu pour effet d’approfondir les lignes de faille et de démultiplier les situations de chaos sur lesquels le terrorisme prospère.
C’est aussi une blessure narcissique profonde, celle de l’humiliation des années Eltsine, qui fait naître aujourd’hui un revanchisme russe dont nous voyons les conséquences en Ukraine et en Syrie. Dans un Moyen-Orient qui a souffert des interventions occidentales irréfléchies, beaucoup voient le retour de la Russie comme un nécessaire rééquilibrage, qu’ils accueillent favorablement. Mais n’est-on pas en train de répliquer un même schéma pernicieux qui depuis le XIXe siècle fait de cette région un éternel champ d’affrontement des puissances ?
De quoi Poutine est-il le nom ? Du retour en force, sur la scène internationale, d’un nationalisme intransigeant, d’un autoritarisme débridé, d’une volonté, au nom du refus de l’humiliation, de faire étalage d’une puissance surjouée, peut-être pour masquer la crainte d’une impuissance réelle, liée à un affaiblissement structurel, démographique et économique de la Russie. À court terme, les politiques musclées de Poutine, son pragmatisme froid, son réinvestissement de l’espace eurasiatique, son bras de fer psychologique avec l’Occident peuvent engranger des résultats spectaculaires, mais il y a fort à parier qu’elles ne finissent à moyen terme par susciter un retour de bâton dont la Russie ne manquerait pas de payer le prix.
Entre-temps, le poutinisme triomphe, non seulement en Russie, mais sur la scène internationale, où percent un peu partout des hommes dont le tempérament répond aussi à plusieurs des critères que Theodor Adorno avait notés dans ses Études sur la personnalité autoritaire. Confrontés à des crises géopolitiques, économiques, identitaires, les populations recherchent désespérément des hommes forts et des postures viriles, certains sociologues parlent même de « demande despotique ». Shinzo Abe au Japon, Narendra Modi en Inde, Erdogan en Turquie, et à leur manière Donald Trump aux États-Unis ou Sarkozy et Valls en France, s’efforcent de répondre à cette soif d’autorité, avec maints effets de manche et coups de menton, qui à défaut de faire avancer le schmilblick, viennent donner aux populations apeurées l’illusion que dans un océan qui tangue, il y a un capitaine à la barre, fut-il un fier à bras égocentrique sans la moindre vision d’avenir.