Chapitre 1
Définitions & origines des crises cyber
Laurane Raimondo
Chercheure associée du Centre lyonnais
d’Études de Sécurité internationale et de Défense, entrepreneure,
advisor du CyberCercle et membre de l’ONG iCON
Les origines
■L’instinct de survie
Survivre. L’humain comme tout être vivant est « programmé » pour survivre. De la bactérie aux mammifères, tous s’adaptent à leur milieu, luttent pour leur vie et se reproduisent. L’instinct de survie est une pulsion inconsciente qui se révèle bien souvent dans la difficulté. La particularité humaine est qu’au-delà de la survie, a émergé la quête de l’immortalité. Être immortel c’est ne pas mourir. Un reflet de la peur de la mort, son rejet. Nos sociétés ne veulent plus la voir. Les abattoirs ont quitté les cœurs des villes non du fait de la seule odeur désagréable que dégage la mort mais parce qu’il fallait « cacher » ce que nous ne voulions ni ne pouvions plus voir ni savoir. Ceci au point d’avoir développé une dissonance cognitive : l’enfant qui refuse de manger le morceau de chair gisant dans son assiette se voit être forcé et en grandissant, ne fait plus le lien entre l’animal vivant avec ses émotions et ce qu’il mange. Les cimetières se sont écartés au possible. Le deuil est devenu invisible. Les seules personnes sans vie que l’on voit sont nos proches, maquillés comme s’ils respiraient encore, dans un cercueil bientôt enfoui ou brûlé. Toute mort croisée autrement l’est désormais par accident, professions liées exceptées.
À craindre la mort, la notion du risque s’est modifiée. Il est peu toléré, mesuré, étudié pour être éloigné. Or, pour mourir il faut vivre. Vivre est une volonté inconsciente puissante dépassant notre existence physique pour toucher à cette âme attribuée aisément au divin. De tout être vivant se dégage une vitalité incroyable que nous portons tous en nous, visible dans chaque molécule se traduisant par l’instinct de survie. Cette volonté de survivre, pour Jean-Pierre Marongiu, est « un système de sécurité d’urgence en grande partie inconscient parce qu’inhérent à nos fonctionnements réactifs et défensifs. » Mais dans des sociétés où le risque est réduit à son seuil minimal, où la mort est presque absente et mal tolérée, nous ne sommes plus que rarement confrontés à des situations où nous devons notre survie à cet instinct. À l’échelle de l’évolution, ce n’est pas une bonne nouvelle. Cela signifie un étiolement malvenu et remettrait en cause notre capacité de résilience déjà mise à mal par l’éloignement de l’acceptation du risque. S’adapter à un nouvel environnement plus dangereux ou au contraire, plus sécuritaire, produit des effets dans les deux sens. La question de la crise, dans son anticipation comme dans son acceptation est induite. Usuellement, elle désigne une situation inhabituelle, qualifiée de grave, exposant au danger avec un risque de mort (propre ou figuré), le terme a évolué en corrélation avec les éléments précités. C’est donc devenu une situation indésirable à laquelle personne ne souhaite être confronté au point de rejeter son idée même.
■Origines du terme « crise »
Face à une menace désincarnée, corrélée à une surface d’attaque décuplée conduisant à ce type de situation, la question des crises mérite désormais une nouvelle approche, avec tout d’abord un retour à ses origines. Du grec ancien krisis au latin crisis, le sens initial du mot désignait l’action de trier, séparer, distinguer différents ensembles de choses confondues, approchant le sens de « passer au crible ». Il s’agit bien d’une action, d’une rupture de la linéarité dans la décision et le jugement. Aujourd’hui, le terme est en perte de sens et en « quête d’une signification scientifique » mis en lumière par James Robinson en 1968 dans son article « Crisis » pour l’Encyclopédie internationale des sciences sociales. Pour Thomas Meszaros, il n’existe toujours pas de « définition univoque du concept de crise. » Que ce soit en médecine, en théologie, en droit ou en politique, les définitions diffèrent, parfois loin de la portée négative qui lui est donnée. C’est en regardant au-delà que l’on saisit sa capacité à produire des opportunités. Les mots « critère » et « critique » sont issus de la même racine. Il ne serait donc pas déraisonnable de qualifier la crise comme un moment de rupture de la linéarité impliquant une prise de décision à même de modifier durablement les mécanismes sur lesquels fonctionne la personne, le groupe ou l’organisation qui est en « crise ».
La « théorie des crises » ne doit pas être confondue avec « la » crise qui désignerait une situation particulière, spécifique. Il n’existe pas une crise mais des crises. Il s’agit bien d’une notion polysémique dont il existe une abondante littérature américaine, mais principalement tournée vers les crises internationales en général. En réalité peu d’ouvrages existent sur le sujet, l’explication tient au fait que « la gestion de crise [cyber] est une symétrique des intrusions » pour Raafik Chabouni. Cette mouvance n’est pas initialement propre au cyber mais est tout particulièrement accentuée par ses caractéristiques, car si le terme de crise a eu un essor considérable « au xviie siècle dans les domaines politique et militaire puis au xixe siècle en sociologie et en histoire où il caractérise un moment critique plus ou moins violent de l’évolution des sociétés ou des états » selon Thomas Meszaros, il est prêt à évoluer de nouveau avec l’émergence des moyens cybernétiques.
■Origines du numérique
Depuis peu, un nouveau terme est apparu : le préfixe « cyber » accolé à celui de « crise » vient bouleverser le concept de « théorie des crises », même s’il ne s’agit pas d’un phénomène nouveau. Rapporté au concept « numérique », qui renvoie à l’« ensemble des procédés et techniques permettant de transformer n’importe quel objet en ensemble de données binaires » (Dominique Vinck), il est devenu le fil conducteur de l’évolution de nos sociétés après 1940. Le terme vient du latin numerus, il renvoie au nombre et à la multitude. Nous sommes progressivement devenus une société du nombre. L’intérêt pour la science des données et la marche forcée vers le développement des nouvelles technologies issues des deux guerres mondiales auront à terme le dessus sur le raisonnement humain. Le numérique a cette particularité de n’être « ni une technologie innovante ni une révolution technique mais une façon de fonctionner », selon le mot de Matthias Popoff ; il s’agit d’un « concept très évasif et évolutif par nature ». Le concept est francophone ; les anglo-saxons parlent davantage de digital. Ce dernier se rapporte au traitement informatique, il fait donc partie du numérique sans être un synonyme. L’informatique avec l’électronique et le réseau constituent les trois catégories du numérique qui peut se diviser ainsi d’un point de vue technique. On peut comparer cette division avec les différentes couches du cyberespace.
Au xixe siècle, le numérique est principalement un courant de réflexion mathématique qui effectuera une mue à partir de la révolution industrielle, annonçant la montée en puissance progressive du chiffre au sein de la société : tout devient calculable. Les bouleversements politiques au xxe siècle vont accélérer l’expression d’un besoin de la résolution des problèmes socio-politiques à travers la maîtrise du « nombre ». International Business Machines Corporation (IBM) et Bull nées respectivement en 1911 et 1930 traduisent cette réalité : le premier ordinateur IBM est créé en 1952 après la réussite des calculateurs électroniques ; Bull a été fondée pour exploiter les brevets déposés en 1919 par Frederik Rosen Bull, ingénieur norvégien, entrant directement en concurrence avec IBM. Le langage humain est lui aussi devenu « calculable » grâce aux avancées en cryptologie notamment pendant la Seconde guerre mondiale. Les moyens mis en œuvre – initialement insuffisants – pour décoder la Die Chiffriermaschine Enigma aux 15 milliards de séquences d’encryptage possibles nécessitaient d’innover. Alan Turing, persuadé que face à une telle machine seule une autre machine pouvait l’emporter, a posé les bases des premiers ordinateurs et de l’« intelligence artificielle ». Ces moyens numériques ont insufflé à la fois de nouvelles sciences et engagé davantage de moyens à travers les laboratoires britanniques et américains, travaillant en étroite collaboration avec les grandes universités. Les bases scientifiques acquises avec l’effort de guerre ont ensuite irradié le champ civil, notamment dans les technologies de la communication qui devient une nouvelle « religion ». Elle fait remonter à la surface l’idée qu’elle est nécessaire à l’expression de toute démocratie. Avec la naissance de la cybernétique et le développement du mouvement littéraire cyberpunk, l’idée d’une révolution numérique se forme dans les esprits, une révolution qui a « entraîné un bouleversement profond des pratiques sociales, économiques et politiques des sociétés humaines, plus important encore que les ruptures engendrées par l’invention de l’écriture et de l’imprimerie » selon Frédérick Douzet.
Définitions d’un nouvel « espace » et d’un nouveau phénomène
■Cyberespace et révolution numérique
Le numérique n’est pas une révolution ; le numérique n’est pas une nouvelle technologie ; la naissance et la démocratisation de la communication en réseau en sont une. Au sens figuré et réducteur cependant, il est possible de parler de révolution numérique à travers la démocratisation massive des outils de communication qu’ont été les téléphones mobiles puis les ordinateurs. Après le tournant de la Seconde guerre mondiale mêlant traumatismes et progrès technologiques, des angoisses se réveillent, celles d’un monde chaotique où les machines ont dépassé l’humain, quand il n’est pas traqué par elles. La cybernétique, « science de l’action orientée vers un but, fondée sur l’étude des processus de commande et de communication chez les êtres vivants, dans les machines et les systèmes sociologiques et économiques » selon le Larousse, est inventée par le mathématicien Norbert Wiener en 1948. Pour la nommer, il s’inspire du grec kubernetes signifiant « pilote de navire » (d’où sont également originaires les termes de gouvernail et gouvernement, entre autres). Le préfixe « cyber » sera repris par William Gibson, né en 1948 et auteur du Neuromancien publié en 1984, œuvre de science-fiction développant une première allégorie du cyberespace et sa première définition, peut-être la seule perdurant dans le temps. Tandis que le personnage principal, Case, allume une console pour se connecter au cyberespace, un petit documentaire synthétique apparaît : « Le Cyberespace. Une hallucination consentie vécue chaque jour en toute légalité par des millions d’usagers, dans chaque pays, par des enfants qui apprennent les concepts mathématiques… Une représentation graphique des données extraites des mémoires de tous les ordinateurs de l’humanité. Des lignes lumineuses ordonnées dans le non-espace de l’esprit, des amas et des constellations de données. Comme des lumières de villes, au loin… ». L’amie du personnage principal lui demande alors de quoi il s’agit, Case répond que c’est « un programme pour les gosses. » Différentes œuvres artistiques telles que 1984 d’Orwell publié en 1949, le film Tron sorti en 1982, suivi par WarGames en 1983 et Terminator en 1984, la même année où apparaît pour la première fois le terme de cyberespace dans le Neuromancien de Gibson aura marqué les générations de la deuxième moitié du xxe siècle.
Le cyberespace imaginé par Gibson va cependant s’approcher d’une réalité que ...