Guerre de l'Information

 

Guerre de l'information : de quoi s'agit-il ?

En stratégie, comme dans tout domaine culturel, il existe des modes. La tendance 1997-98 est caractérisée par deux objets : l'intelligence économique et la guerre de l'information. Le terme mode ne comporte ici rien de péjoratif. On doit se féliciter qu'alimenté par des objets nouveaux le débat se développe. Une mode même passagère, contribue à solliciter l'esprit imaginatif de la stratégie. En ce cas précis, la mode vient d'outre-Atlantique où depuis trois ans une énorme littérature souvent très redondante traite de la notion de guerre de l'information (GI).

En préalable, il convient de cerner la dimension de l'objet. La guerre de l'information est parfois entendue comme la guerre dans l'âge de l'information. Cette conception repose sur une idée largement répandue selon laquelle aux sociétés industrielles succèdent les sociétés de l'information dominées par la production, la circulation et l'utilisation de l'information comme source de pouvoir et de richesse. De fait, la multiplication des satellites de télécommunication (mise en oeuvre de la constellation Iridium), la numérisation, le développement des capacités de stockage de données créent les conditions d'un environnement très différent. Les inter-relations humaines en sont modifiées et des rythmes nouveaux se créent. Comment la conception et les moyens de la guerre n'en seraient-ils pas affectés ? Quelles nouvelles formes d'agression et de protection suscitent-elles ? Les systèmes d'information et de communication (SIC) traditionnellement essentiels ne tendent-ils pas à occuper une place désormais exorbitante dans un espace de bataille radicalement transformé ?

Ceci conduit à s'interroger sur la relation que la GI entretient avec la Révolution dans les affaires militaires (RAM)? L'englobe-t-elle ou au contraire la RAM est-elle ce développement de l'art opérationnel qui intégrerait l'ensemble des procédures et des instruments correspondant à la GI. Quelles procédures et quels instruments, regardons-y de plus près. La GI couvre trois grandes catégories d'activités : les deux premières sont bien connues. Il s'agit de la guerre électronique et de la guerre psychologique. La troisième, plus nouvelle, serait la guerre informatique. Il s'agit d'agresser de manière ouverte ou clandestine les systèmes électro-informatiques de l'adversaire, soit en s'emparant des données, soit en saturant, en brouillant, ou encore en "écrasant" les systèmes-cibles.

Dans ce dernier domaine, il semble qu'il faille faire la part de la réalité et d'une tendance légèrement délirante. La guerre, dans le monde virtuel, oublie que la guerre suppose la production d'effets physiques donc une matérialité. On ne verra pas demain des dirigeants et leurs "troupes" s'engager dans des conflits virtuels. Laissons cela aux enfants et à certains adultes. De même, il est assez douteux que les Russes s'attardent à des objets comme le soi-disant "virus 666", censé agir sur l'écran de l'opérateur pour s'emparer progressivement de son psychisme.

Ceci établi, plusieurs problèmes se posent alors. D'abord, savoir s'il existe un lien entre les trois catégories ensuite, dans quelle mesure chacune de ces catégories est affectée voire transformée dans ses pratiques ordinaires - c'est surtout le cas des deux premières - enfin, si un lien profond unit bien les trois catégories et si leur mutation se révèle importante, on aurait à se demander si l'ensemble débouche sur une transformation fondamentale de la conception, de la conduite des guerres futures.

Par delà les effets de mode, il y a donc bien là matière à une réflexion en profondeur dont cette courte présentation n'est qu'une esquisse.

 

La guerre de l'information : faut-il en avoir peur ?

La guerre de l'information est peut être proche. Qu'une cabale de pirates informatiques puissent, en perturbant les téléphones, l'éclairage, les banques, le trafic aérien, etc.., mettre les Etats-Unis à genoux est devenu chose courante. De telles attaques peuvent surgir de presque partout : les équipements sont bon marché, les coûts d'approvisionnements sont nuls, les outils ne manquent pas, les opérations peuvent être menées 24 h sur 24, et si les bons pirates sont rares, leurs besoins en formation se réduisent à un minimum. Nombre d'analystes considèrent de telles attaques comme le leitmotiv des guerres du XXIème siècle.

Les systèmes d'information sont-ils vulnérables ? Beaucoup trop. Une catastrophe est-elle possible ? Oui, car non impossible. Mais doit-on en perdre le sommeil et craindre que des pirates mettent les Etats-Unis à genoux ? Voici dix raisons qui nous font répondre non : deux qui s'adressent au monde d'aujourd'hui, cinq contre-mesures, et trois qui s'attaquent aux problèmes d'échelle.

10. Ça n'est encore jamais arrivé. Oui, il y a un début à tout. Mais les Etats-Unis sont informatisés depuis des décennies et ont une pléthore d'ennemis pouvant se permettre les coûts peu élevés du piratage (plutôt qu'un ennemi unique qui attendrait le moment opportun pour déclencher le tir). Assurément, les systèmes d'information sont attaqués assez souvent par une myriade de piqûres de puces, et de guêpes pour justifier ce souci. Mais au-delà du niveau du million de dollars, les attaques sont rares (et les interruptions de service sont difficiles à cacher). Des statistiques suggèrent qu'un grand nombre d'attaques auront eu lieu avant qu'une attaque d'importance ne se produise.

9. Même si la plupart des systèmes laissent passer des informations. Les systèmes qui traitent des valeurs (par exemple les banques) sont toujours l'objet de convoitise, et ceux qui détiennent des secrets industriels attirent les espions. Quelques protections en ont découlé. Cependant, d'une manière générale, beaucoup d'administrations sont convaincues, soit que les intrusions ne sont rien de plus qu'une nuisance, soit qu'elles peuvent être prévenues par des mesures de sécurité occasionnelles. Peut-être ont-elles raison. Mais, si les incidents s'accumulent, les usagers prendront la sécurité au sérieux et dresseront des barrières.

8. Il est probable qu'un jour des firewalls et des détecteurs d'intrusion fonctionneront. Hormis réinventer le TCP/IP et Unix (ou Windows NT) la plupart des méthodes de sécurité reposent sur des ajouts complémentaires comme les firewalls et, un jour, les détecteurs d'intrusion. Aucun des deux n'est encore totalement fiable mais ils s'améliorent au fur et à mesure que les défauts caractéristiques des systèmes existants sont mieux compris. Au moins, les pirates doivent s'en remettre à des méthodes de plus en plus compliquées, ou exploiter les défauts des nouveaux logiciels (par exemple, les micro-applications intelligentes).

7. Les distributeurs automatiques de billets ne peuvent détruire les ordinateurs des banques. A l'époque de portables en réseaux, défendre un système entier en surveillant son périmètre est un défi impressionnant. Une alternative est de fixer son attention sur les composants clés du système afin de s'assurer de leur intégrité, de leur confidentialité, et de leur accessibilité. Une solution consiste à limiter ce que les machines périphériques peu sûres peuvent dire pour protéger les machines centrales et à veiller à ce qu'aucun message de cette sorte (ou combinaison) de l'un à l'autre puisse provoquer un comportement inopportun. Les distributeurs automatiques, par exemple, envoient des messages aux ordinateurs des banques empruntés à une liste vérifiée ; tout le reste est traité comme une erreur de manipulation.

6. Les signatures numériques : Aujourd'hui, la plupart des systèmes limitent l'accès grâce à des mots de passe envoyés en clair. Mais beaucoup sont faciles à deviner, ils peuvent être induits à partir de "routers", et ils sont stockés en masse dans les serveurs. Une signature numérique (de préférence datée, et séparée entre le hardware et les composants de la mémoire) écarte les trois problèmes si on la gère convenablement : la clé privée doit satisfaire des formules mathématiques, et elle ne doit jamais entrer dans le réseau ou résider dans le serveur. Les signatures numériques peuvent aussi être utilisées pour authentifier des transactions avec des bases de données ou des architectures codées et limiter ainsi les dommages causés par les initiés.

5. Les CD-ROM sont maintenant offerts en cadeau. Ou en tout cas si peu chers qu'il n'y a plus d'excuse pour perdre des données au profit d'un pirate. Un disque vidéo numérique de 17 gigabytes, par exemple, peut archiver chaque appel résidentiel de longue distance en Amérique du Nord durant deux semaines. Les systèmes d'exploitation sur CD-ROM sont immunisés contre les virus postérieurs à leur production.

4. L'air est un bon isolant. En 1983, le film War games montraient que les ordinateurs de commande et de contrôle nucléaires ne devraient pas arborer des réseaux de modem. Si un système est confidentiel et peut se passer de réseau, alors, si tout le reste échoue, il sera mieux protégé en étant inaccessible de'extérieur. Les exemples devraient inclure les systèmes militaires classifiés (dont la plupart sont déjà en accès libre) les contrôles des centrales électriques, les systèmes de distribution d'énergie, et les points de contrôle du transport.

3. La subversion ne peut pas violer la loi des moyennes. Le recrutement d'un initié (par exemple un gestionnaire de systèmes, ou un programmateur) peut être une façon d'endommager un système difficile à pénétrer du dehors. La plupart des pannes délibérées des systèmes informatiques proviennent jusqu'ici de sabotages à partir de l'intérieur. Mais il y a une différence notable entre le cas isolé de l'employé mécontent qui endommage un système et le cas d'initiés recrutés en nombre suffisant pour paralyser entièrement les Etats-Unis.

2. Dame Nature peut faire pire. Pour paralyser les Etats-Unis, il ne suffit pas de détériorer les systèmes, encore faut-il résister aux efforts qui seront accomplis pour restaurer les services (par exemple, en déconnectant ces systèmes, en les nettoyant, en les relançant). Supposons contrairement à tout ce qui a été dit plus haut que des pirates puissent démanteler les infrastructures principales -énergie, téléphone, transfert de fonds- et ceci pendant deux jours. Quelle serait l'étendue du dommage pour l'économie américaine ? Beaucoup d'emplois, après tout, s'exercent durant la journée (par exemple, l'agriculture), grâce à de l'électricité produite d'une manière autonome (par exemple les hôpitaux), ou comprennent des tâches avec la programmation desquelles on peut jongler. La perte de PNB s'élèverait pour deux jours à 20 milliards de dollars, ce qui n'est pas dérisoire mais ce qui s'inscrit dans la même catégorie que l'ouragan Andrew (25 milliards de dollars), le tremblement de terre de Northridge en Californie (15 milliards de dollars), ou la tempête de neige du Nord-est en 1996 (10 milliards de dollars). Les Etats-Unis ont survécu à tout cela.

1. Les Etats-Unis peuvent faire pire. Il y a des chances pour que les terroristes animés de l'esprit de dissimulation cherchent à ne pas se dévoiler. Cependant, si un individu décide de prendre la peine d'agir, alors, il sera vraisemblablement animé soit du désir de soumettre les Etats-Unis, soit d'affaiblir leur capacité de réaction. Ces deux voies impliquent que l'on assume ses responsabilités. Mais une attaque scélérate mettrait tout le monde en colère ; si les systèmes militaires sont intacts, les Etats-Unis auront une batterie de réponses propres à attirer l'attention de tous. Comme Indiana Jones dans Les aventuriers de l'arche perdue, quelquefois face à des moulinets de sabre on réagit en dégainant son arme et en tirant ; une chose qu'au moins un acteur rationnel peut garder à l'esprit.

Les Etats-Unis n'ont pas besoin d'être désespérés pour prendre la guerre de l'information au sérieux. Au moins l'armée américaine doit-elle anticiper les attaques des systèmes d'information (les siens, et ceux qui les supportent) et faire ce qu'il faut pour qu'aucun adversaire ne puisse exercer de dommage significatif pour sa capacité à se déployer et à fonctionner. Dans le même esprit, le gouvernement peut et se doit de faire tout pour limiter les possibilités de dommages : en rendant sûrs ses propres systèmes (par exemple, le contrôle du trafic aérien), en fixant des normes de protection, en dépensant assez d'argent pour la recherche et le développement, en encourageant le partage de l'information privée concernant les incidents et les menaces, en diffusant des indications et des mises en garde, et en soutenant des protocoles et des tests pour des outils de sécurité. Il faudrait aussi que le gouvernement comprenne que, bon nombre d'outils employés pour les systèmes de sécurité relevant de la cryptographie, la promotion de la sécurité et la restriction du cryptage pourraient être perçus comme contradictoires.

En définitive, cependant, la protection de l'infrastructure de l'information nationale est inéluctablement d'ordre privé. Il n'existe pas en général d'entrée forcée dans le cyberespace. Si des personnes malveillantes sont parvenues dans un système (ou dans des parties sensibles de celui-ci), c'est parce que des chemins existent qui le leur permettent. Il est temps que les propriétaires de systèmes bloquent ou gardent ces chemins. En fin de compte, c'est en les rendant responsables du dommage occasionné par leur étourderie, que l'on peut leur donner toute la motivation nécessaire pour trouver le juste équilibre entre le coût, la fonctionnalité et la sécurité.

 

Quelques précautions à prendre pour la protection de son réseau interne

Pour les machines multi-utilisateurs connectées entre elles par un réseau local, celui-ci peut lui-même être connecté au monde extérieur au travers d'un nombre réduit de points d'accès. Ces points d'accès sont soumis à une surveillance nettement plus dense que le reste du réseau. Mais quelque soit la vigilance dont on fait preuve, on ne peut lutter sans l'aide des utilisateurs.

Leur mot de passe doit avoir le même caractère de confidentialité que le code d'une Carte Bleue. Quant au choix d'un bon mot de passe, quelques petits trucs permettent assez facilement de les choisir pour qu'ils soient à la fois simples à retenir et difficiles à deviner :

     - A proscrire : noms propres, prénoms, noms courant, y compris renversés.

     - A éviter : noms communs (tout ce qui peut se trouver dans un dictionnaire) quelque soit la langue, nom de héros/personnage.

     - A conseiller : utiliser majuscules, minuscules, chiffres et signes de ponctuation. Un bon mot de passe est long d'au moins six caractères, contient au moins un chiffre ou signe de ponctuation, et doit être suffisamment facile à retenir pour que l'idée de le noter sur un bout de papier ne vous vienne même pas à l'esprit. De bons candidats sont une formule mathématique, physique ou chimique : C2H50H ; deux petits mots séparés par un signe : lait#thon ; une écriture phonétique : A 6 The.

Enfin il est préférable d'éviter les signes particuliers à certains types de clavier (caractères accentués, fin de paragraphes, etc...) ainsi que les chiffres du pavé numérique (cf. QWERTY).

Ce mot de passe, une fois choisi, sera valable un an maximum.

 

Les grandes manoeuvres pour le contrôle de l'information

Guerre de l'information et technologies nouvelles : les constellations de satellites

A l'heure actuelle, le marché des réseaux de transmission se mondialise et de plus en plus d'Etats délocalisent leurs moyens de production. Les contacts techniques et économiques augmentent donc et nécessitent des moyens de communication plus performants et moins chers pour réguler en permanence les informations échangées. Ceci développe la demande en matière de capacité des moyens de communication. L'intérêt du réseau spatial est qu'il peut être discret, ponctuel et très rapide. D'où l'émergence d'offres de systèmes satellitaires communicant multimédia à très large bande. Ces systèmes de satellites vont abolir les distances et permettre de synchroniser le télétravail à travers la planète. Ces moyens transfrontières vont poser des problèmes de survie aux Etats car la délocalisation planétaire remettra en cause le droit, les économies et les indépendances politiques. Cette machine de guerre économique broiera tous les petits systèmes nationaux.

Dès l'an 2 000, les satellites ne nécessiteront plus qu'une infrastructure au sol de la taille d'un micro portable. La faiblesse des coûts d'utilisation et la légèreté des moyens à mettre en oeuvre pour l'utilisation de ces facilités spatiales et de la capacité totale des réseaux, généreront des revenus induits par ces structures mondiales qui devraient être sans commune mesure avec ceux générés par les systèmes nationaux terrestres. Ceci explique le très grand nombre de candidats américains intéressés par ce type d'investissement.

En plus de l'intérêt économique, on évalue actuellement les utilisations potentielles telles que le téléphone personnel, la transmission de données, la télévision par satellite et plus généralement l'audiovisuel, l'accessibilité directe à des serveurs de connaissances (bases de données, Internet, ...), l'étude et l'observation de la terre et des astres. Tous ces programmes se divisent en trois grandes catégories : d'abord les projets de communication et de navigation, puis les projets d'observation de la terre et des astres et enfin ceux de recherche fondamentale. Les projets de communication sont des projets dits d'infrastructure qui sont utilisés par les autres comme des relais spatiaux de communication pour couvrir la totalité de la surface du globe et acheminer l'information à un centre terrestre servant d'interface pour l'exploitation de l'application en cause (Gateway).

Crédibilité des opérateurs

Les problèmes techniques particulièrement complexes dans la mise en place des constellations de satellites, mais aussi la maîtrise des diverses technologies de pointe obligent à évaluer la crédibilité des projets. Actuellement, dans le domaine des constellations du futur, les groupes d'intervenants sont quasiment tous nord-américains et représentent trente-deux projets. Seuls trois projets sont français. Il s'agit de Skybridge (ex-Sativod) dans lequel Alcatel est impliqué majoritairement, le deuxième est West de Matra et le troisième Medsat d'Aérospatiale. Il existe aussi deux autres projets, l'un allemand et l'autre italien. L'Europe est quasiment sous-développée face aux trente-deux projets américains. Certes tous ces systèmes ne verront pas le jour car tous les intervenants ne maîtrisent pas l'ensemble de leur projet, notamment les aspects techniques et financiers. De ceux qui passeront le cap, seuls les premiers auront leur chance. Ils pourront alors saturer le marché mondial qui n'est pas extensible, et s'installer dans une position de monopole.

Compte tenu de l'existence du Système Global de Surveillance installé par les Américains de manière transparente sur les réseaux terrestres internationaux de télécommunication, les projets américains de couverture satellitaire devront intégrer les contraintes techniques des systèmes d'écoute et de surveillance des services de sécurité nord-américain (NSA, National Security Agency). Ce faisant, ils pourront obtenir leur autorisation d'exploitation. Il est donc absolument nécessaire pour l'Europe d'avoir ses propres constellations indépendantes et cloisonnées pour faire face à cette suprématie.

Par ailleurs, il est tout aussi nécessaire de s'assurer que le financement suit. Certes des organismes comme Motorola peuvent financer sur leurs fonds propres des projets tel Iridium à hauteur de 10 milliards de dollars étalés sur cinq ans, mais pour d'autres l'autofinancement n'étant pas possible, un cofinancement effectué avec des industriels techniquement complémentaires s'avère nécessaire. En dernier ressort, les banques américaines sont sollicitées mais les garanties qu'elles demandent compte tenu de la durée de vie des systèmes se révèlent problématiques. En Europe, le principal problème est justement la crédibilité du montage financier car les entreprises n'ont pas la même assise financière et il faudra qu'à un moment donné les Etats et l'Union Européenne se substituent aux banques si nous voulons protéger nos marchés et notre souveraineté spatiale avant qu'il ne soit trop tard. Mais le manque de foi dans les projets hypothèque lourdement l'avenir. Les Etats devront lancer des plans d'urgence avec l'aide de la DG XIII qui traite ces dossiers à Bruxelles.

Rôle des instances nationales et internationales

Au sein des instances internationales, on assiste à une prise d'assaut des meilleures fréquences de travail et des meilleures positions orbitales par les Américains qui sont les premiers à se manifester. Compte tenu des technologies utilisées, le spectre des fréquences utilisables est limité, d'où l'importance d'arriver en première position pour les demandes d'attribution. De fait, le volume et la diversité des demandes américaines créent un phénomène de saturation car, évidemment, les industriels américains cherchent à occuper le terrain même s'ils ne donnent pas suite, puis ils cherchent à monnayer les emplacements non utilisés. Ceci leur permet d'obtenir des autorisations de fonctionnement avec les meilleures solutions techniques. Les quantités demandées ne laissent pas beaucoup de place pour les autres projets et permettent de bloquer à leur profit tous les autres systèmes. Cette situation de monopole de fait empirera si les Etats européens ne se décident pas à se lancer dans cette course qui ressemble plutôt à une fuite en avant des Américains pour la maîtrise économique mondiale. Ce forcing industriel US ne peut être stoppé que par des projets équivalents européens afin de protéger notre économie et faire respecter nos droit d'accès à l'espace. Face à cet hégémonisme industriel conquérant, l'attitude européenne doit être similaire, l'attentisme n'est pas de mise, et, de fait, nous prenons du retard.

Il faut signaler le rôle régulateur de la FCC (Federal Communication Commission) aux Etats-Unis qui permet d'assurer aux dossiers présentés un minimum de crédibilité technique pour pouvoir être déposés ensuite à l'ITU (International Telecommunication Union) de Genève qui dans un deuxième temps attribuera les fréquences de travail et les positions spatiales satellitaires permettant de fonctionner correctement sans perturber les autres systèmes de satellites. Mais actuellement l'ITU dans ses trois composantes principales, Radiocommunication, Télécommunications Standards et Développement n'a qu'un rôle de coordination et de synchronisation. Seuls les Etats décident, via leurs propres Agences nationales, des autorisations d'exploitation qu'ils accordent et la FCC américaine est la plus importante du fait de son marché propre à hauteur de 30 % du marché mondial.

Conclusions

Cette mainmise conquérante des industries américaines sur les meilleures solutions techniques spatiales au détriment des autres pays va entraîner un monopole industriel irréversible et drainera tous les capitaux. Elle aboutira au harnachement total de tous les systèmes des Etats et favorisera le Système Global de Surveillance US via Internet qui est déjà sous contrôle ainsi que les autres réseaux satellitaires américains. Ce système transfrontière juridiquement et politiquement non maîtrisé par les Etats les dissoudra dans un super ensemble non stabilisé.

Cette situation est due en bonne partie à l'action coordonnée du DOD et des laboratoires civils US dans le domaine de la recherche technologique amont qui est structurée, correctement ciblée et complémentaire. Elle est en avance et a la particularité d'être plus pragmatique et moins fondamentale que la recherche européenne qui se cherche toujours aujourd'hui et se disperse. Il faut ajouter à cela une industrie US dynamique et combattante qui fait bloc derrière son administration opérationnelle face à une Europe divisée cultivant les ambiguïtés. Enfin, tout ceci est très fortement soutenu par un puissant marché porteur américain dont nous sommes tributaires et dont nous avons du mal à nous démarquer.

La trop grande quantité de projets sera dangereuse pour tous car le nombre de satellites à poste, le nombre de tirs, et les problèmes de maintien en opération subséquents sur dix ans pour chaque projet doubleront les problèmes de pollution atmosphérique et risquent de détruire la couche d'ozone, sans compter la qualité de l'air. Il faut savoir qu'un tir de fusée de la capacité actuelle moyenne consomme la production en oxygène d'une forêt de 10 000 hectares en quelques minutes.

Enfin le projet le plus saturant à l'échelon mondial est sans aucun doute celui de Bill Gates (Microsoft) puisqu'il espère mettre en orbite une constellation de 840 satellites consommables. Cela relève de la gageure plus que dangereuse en la matière puisqu'il s'attribue unilatéralement l'espace à son profit. De plus sachant qu'un tir en grappe de satellites peut aujourd'hui satelliser 10 satellites consommables simultanément, il faudra donc au moins 90 tirs de fusée pour tout mettre en place en très peu de temps (moins de deux ans) soit une cadence de tirs d'au moins 5 tirs par mois uniquement pour cette constellation. Il faut savoir aussi que pour effectuer la maintenance d'un tel ensemble, il faudrait assurer un tir par mois de 10 satellites. Grâce à de tels projets, en plus de la saturation technique, nous assisterons à une pollution maximum de l'environnement par des tirs de fusée trop nombreux et une profusion de débris spatiaux incontrôlables. Il faut noter aussi le danger qu'une telle constellation trop importante représente pour la bonne marche technique des autres projets spatiaux. Ce qui aggrave la situation c'est que les moyens financiers ne manquent pas et que l'entourage de Bill Gates y trouve un certain intérêt financier.

L'administration américaine semble vouloir réguler le problème avec la loi antitrust car on assiste à la montée en puissance d'un nouveau pouvoir sans contrôle. Celui-ci pourrait éventuellement être nuisible à sa propre administration mais compte tenu des enjeux de monopole industriels mondiaux en faveur des industriels US et du contrôle de l'information par l'administration américaine, on peut douter d'avance des résultats réels de cette démarche.

L'effet de masse des projets industriels américains et russes encombre déjà et sature l'espace non seulement avec leurs satellites mais aussi avec les débris spatiaux connexes aux tirs, qui se satellisent sans retomber. L'ensemble va créer des zones d'ombre magnétiques et de brouillage électromagnétique car chaque élément joue le rôle de réflecteur aléatoire pouvant perturber les moyens de communication des autres satellites de constellations plus élevées si les orbites sont trop proches. De plus, en dessous de 500 km, les débris spatiaux et ces satellites "consommables" sont susceptibles de s'autodétruire en retombant dans l'atmosphère. Mais, statistiquement, certains ne se détruisent pas et polluent l'atmosphère. C'est le cas des piles atomiques russes qui actuellement retombent dans des régions inhabitées et les irradient. Le grand danger serait que des villes soient atteintes. Il s'agit en fait de véritables bombes ionisantes non contrôlées par le pays émetteur.

Enfin, les tirs de fusée, la station orbitale et la navette risquent plus facilement d'exploser en percutant des débris spatiaux satellisés tel que cela s'est déjà produit pour les satellites et ce qui a failli arriver pour la navette Challenger elle-même en 1994.

La situation actuelle ne pourra perdurer. Une limitation totale du nombre des constellations et la création de quotas équilibrés entre les grands pays s'avèrent impératives et devront être politiquement et rapidement mises en place au niveau mondial. Il faut aussi compter avec un éventuel effondrement du marché après 2005 en raison de la trop grande quantité d'opérateurs et de projets en lice.

Dans cet environnement fluctuant il faudra bien se garder de laisser libre court à la mise en place d'un noyau dur central, non maîtrisé par nos matériels et capable de verrouiller tous les autres moyens télécoms. Ceci serait le point de passage obligé des autres ensembles traités comme des "sous-systèmes" dépendants du Noyau Dur privilégié appartenant à un tiers. De fait, dans cette guérilla technique larvée on aboutirait à une main-mise électronique et économique sur tous les Etats au profit d'un seul. On se doit de bout en bout d'assurer le service jusqu'à l'utilisateur final sans interactions. Les systèmes satellitaires le permettent ce qui explique la fuite en avant des industries américaines pour être les premières sur le marché et le saturer.

 

Sources: Perspectives Strategiques (Novembre 1997)