INFORMATION ET INTERNET

ENJEUX ET DANGERS

Intelligence@ifrance.com
 
 
 

Plan de l'étude





























 

Plan de l’étude
 
Introduction
A. Internet

  A.a. Genèse

  A.b. Le Réseau des réseaux

B. L'information

  B.a. Principes

  B.b. Les enjeux de l'information

C. Information et Internet

  C.a. Internet et Intelligence Economique

  C.b. Méthode
 

Première partie : La recherche d’information sur Internet

1.1. Typologie de l’information présente sur Internet

  1.1.1. Une grande liberté éditoriale

  1.1.2. Les caractéristiques de l’information

  1.1.3. Les aspects techniques de l’information

1.2. Les outils de recherche

  1.2.1. Les répertoires et les moteurs de recherche

    1.2.1.1. Les répertoires

    1.2.1.2. Les moteurs de recherche

      1.2.1.2.1. Les robots d’exploration

      1.2.1.2.2. L’utilisation des robots par les moteurs

  1.2.2. Les agents de recherche ou métamoteurs

  1.2.3. L’utilisation et la gestion de l’information

    1.2.3.1. Méthodologie de la recherche

    1.2.3.2. Evaluation de l’information sur Internet

    1.2.3.3. La constitution d’un bookmark
 

Deuxième partie : Intelligence Economique et Internet

2.1. Les outils d’Internet au service de l’Intelligence Economique

  2.1.1. Les outils d’échange

  2.1.2. Les outils d’accès

  2.1.3. Le travail sur les sources

2.2. La veille informationnelle sur Internet

  2.2.1. Qu’est-ce qu’un « veilleur » ?

  2.2.2. Mise en place d’une cellule de veille

  2.2.3. La Veille

2.3. Internet à l’usage de l’Intelligence Economique

2.3.1. Principes d’Intelligence Economique

  2.3.2. L’Intelligence Economique sur Internet

  2.3.3. Les outils de l’Intelligence Economique
 

Troisième partie : L’Infoguerre

3.1. Infoguerre et Cyberterrorisme

  3.1.1. Mythe ou réalité ?

  3.1.2. Le cyberterrorisme

  3.1.3. Faut-il avoir peur de la guerre de l’information

3.2. L’Infoguerre au quotidien

  3.2.1. Les hackers mis à part

  3.2.2. Gestion stratégique de l’information

3.3. Désinformation et communication de crise

3.3.1. Les principes de la désinformation

  3.3.2. La désinformation sur Internet

  3.3.3. Désinformation contre communication de crise?
 

Conclusion



Introduction


Internet est souvent considéré comme une poubelle où chacun dépose, plus ou moins en vrac, ce qu’il veut. Pour d’autres, c’est le lieu de tous les dangers et de tous les vices. En résumé, Internet n’est pas un outil sérieux, n’est même pas un outil.

D’ailleurs, avec la meilleure volonté du monde, si on accepte de s’y mettre, les désagréments se multiplient. D’abord trop d’information noie l’utilisateur, avant de tuer l’information. De plus l’information que l’on cherche et que l’on sait exister n’est pas toujours accessible. Enfin si on trouve quelque chose, rien ne nous prouve qu’il n’existe pas une version plus récente ou que l’on n’est pas victime d’un manœuvre de désinformation, volontaire ou non.

Pourtant, des ouvrages, des articles, des revues et des logiciels ne cessent de voir le jour. C’est bien la preuve de l’existence d’une demande non encore épuisée. Des « gens » se servent du World Wide Web…Pour le prouver, cette étude ne sera faite qu’à partir d’informations trouvées sur Internet… et en français qui plus est.

A. Internet

Avant toute chose, il semble opportun de présenter brièvement l’environnement qui sera celui de notre problématique : Information et Internet.

  A.a. Genèse

Tout d’abord, et contrairement à ce que beaucoup pensent, Internet n’est pas né il y a deux ou trois ans. On peut faire remonter son apparition aux années 1960. C’était à l’ARPA (Advanced Research Project Agency), au « Department of Defense » des Etats-Unis. Le projet était le suivant : il fallait mettre au point un système de communication pouvant résister à une attaque nucléaire. Concrètement, l’objectif était de créer un réseau de transmission pouvant fonctionner même après destruction de ses relais. Ainsi, ce nouveau vecteur était capable de s’auto-configurer après avoir subi des dégâts partiels.

La première réalisation concrète s’effectua sur le réseau téléphonique en utilisant la technologie des commutations de paquet et des éléments d’automatisation afin que les paquets d’informations puissent aller d’un ordinateur à l’autre par le biais d’un réseau d’ordinateurs .

Ainsi fut créé une structure totalement décentralisée où chaque nœud était autonome : l’impossibilité de son interruption était acquise, selon les vœux du Pentagone. Le système fut baptisé ARPANET (« net » signifiant réseau), en 1969.

Les premières applications furent le courrier électronique. Puis, après sa mise dans le domaine public, des universitaires s’en servirent pour faire des conférences. En 1972, plus de 50 universités et centres de recherche, impliquées dans un aspect ou l’autre de la recherche militaire y étaient alors connectés. L’année suivante, une première liaison transatlantique était réalisée. Les études se poursuivirent à l’ARPA, sur les protocoles de transfert, dans un souci d’interopérabilité du système. 

Cependant, la croissance déjà considérable d’ARPANET amena le Réseau a être séparé en deux entités distinctes : MILNET pour les site militaires et ARPANET pour les non militaires . Ces deux réseaux restèrent toutefois liés par le procédé IP (Internet Protocol) permettant l’échange de données d’un réseau à l’autre 

Enfin, apparaît l’appellation que nous connaissons tous d’Internet qui concrétise l’élargissement d’ARPANET à l’  « Internet Working », les universités américaines continuant de développer cet outil. Ainsi, dans les années 1980, Internet ne cesse de s’étendre grâce aux universités du globe, aux laboratoires de recherche et aux grosses entreprises. On peut parler d’une « civilianisation ». Des individus se sont également unis pour créer des services privés qui deviendront les fournisseurs d’accès, c’est-à-dire le moyen de se connecter à Internet.

A partir de là, la croissance devint exponentielle sous l’impulsion du Web (1992), conçu par une équipe de chercheurs du Centre Européen de la Recherche Nucléaire : le multimédia commence à être intégré au Réseau. Enfin, en 1993, le CERN et le National Center for Supraconducting Application américain autorisent la diffusion publique du premier logiciel de navigation (Mosaic) et des logiciels serveurs (cf. ci-après) permettant de créer son propre site. L’Internet a alors atteint sa forme actuelle.

  A.b. Le Réseau des réseaux

C’est le World Wide Web (www) qui peut se traduire littéralement par la toile d’araignée mondiale. Par le Web, on peut tout faire avec, en plus, de jolies présentations graphiques dynamiques : écouter de la musique, jouer, discuter, obtenir de l’information, partir en vacances, s’exprimer librement, etc.

 Plus sérieusement, c’est une toile d’araignée de serveurs d’informations reliés les uns aux autres par des liens physiques (les ordinateurs et les câbles de connexions aux lignes téléphoniques ou numériques) et des liens logiques (cf. ci-après). De liens en liens, de clic en clic, on se déplace presque partout où on le souhaite.

En plus, d’un point de vue technique, il n’y a pas grand chose à savoir. Pour schématiser, le Web relie des serveurs HTTP (protocole de communication entre les navigateurs  et les serveurs basé sur le principe de l’hypertexte : « Hyper Texte Transfer Protocol ») qui envoient des pages HTML  (langage permettant de décrire les pages Web : « Hyper Text Markup Langage ») à des postes dotés d’un navigateur .

C’est le principe de l’hyperlien  (cf. les liens hypertextes) qui vous fait passer d’une page à une autre, d’un menu au corps d’un site, d’un phrase à un logiciel à télécharger, d’une petite photo à une image plein écran, etc. d’un simple clic de souris.

Enfin, il faut signaler l’existence des URL (« Uniform Ressource Locators ») qui sont les noms données aux hypertextes. Il peut s’agir d’un serveur ftp, d’un fichier, d’une adresse d’un serveur de Web (exemple : http://www.ifrance.com/Intelligence), d’une adresse e-mail etc.

B. L’information

Tout d’abord, un fait : Intelligence Economique et Information sont intimement liées, la seconde est littéralement la raison d’être de la première.

  B.a. Principes

Dans le Rapport Martre on peut lire de façon très explicite que :  « L’intelligence économique peut être définie comme l’ensemble des actions coordonnées de recherche, de traitement, de distribution en vue de son exploitation, de l’information utile aux acteurs économiques. L’information utile est celle dont ont besoin les différents niveaux de décision de l’entreprise ou de la collectivité, pour élaborer et mettre en œuvre de façon cohérente la stratégie et les tactiques nécessaires à l’atteinte des objectifs définis par l’entreprise dans le but d’améliorer sa position dans son environnement concurrentiel »

On peut distinguer principalement quatre catégories d’information : celle-ci est ouverte ou fermée, écrite ou orale. En fonction de cela se met en place un travail spécifique. Schématiquement, il revient à la documentation de recenser, d’acquérir et de classer dans un souci de meilleurs accessibilité et diffusion l’information ouverte et écrite (on reconnaît là les principes de la veille technologique dans le monde scientifique, de la veille juridique et législative des cabinets de lobbying, etc.). Par contre, c’est au réseau (cf. les concepts anglo-saxon de « networking » et de « knowledge management ») d’obtenir, d’enregistrer et d’interpréter l’information orale… et, accessoirement, fermée. 

L’information disponible sur Internet appartient à ces quatre catégories quant à son origine mais, également à son traitement : on trouve aussi bien des textes de personnes reconnues, que des rumeurs (cf. les forums et autres chats), des informations surgies de nulle part (cf. les sites d’amateurs), des dénonciations (cf. les sites dits « anti » qui mènent un combat contre une société, contre ou pour des principes, etc.), des informations sans indications de date, d’auteur, etc. C’est ce qui fait la richesse d’Internet mais également ses dangers. Malheureusement l’un ne va pas sans l’autre tant il est vrai que c’est l’homme qui est à la base de toutes ses informations avec des objectifs qui lui sont propres.

  B.b. Les enjeux de l’Information

Un mot résume à lui seul l’ampleur et la prégnance de ces enjeux : l’Infoguerre. nous dépassons là l’ancien concept de veille – par définition passive - qui, du fait son antériorité académique (cf. la bibliométrie) et pratique, cause tant de torts à l’Intelligence Economique.

Concrètement, l’Infoguerre possède de multiples visages dont voici quelques principaux aspects : la désinformation utilisant tous les vecteurs possibles dont Internet (faux sites, manipulation de « news groups », création de forums ad hoc, etc.) , les virus et autres « Remote Tools »(outils furtifs d’administration à distance ; les deux plus connus sont « Back Orifice » et « Armagedon ») qui permettent de prendre le contrôle d’un ordinateur à l’insu de son propriétaire, l’intimidation, le lobbying, etc. Cette courte liste n’énumère en aucun cas l’ensemble de l’arsenal de l’Infoguerre  : il n’existe pas d’outil spécifiquement dédié à ce combat d’un genre nouveau ce qui n’exclut pas la mise en place de méthodologies opérationnelles et efficaces.

En fait, nous devons puiser des éléments de formalisation et théorisation un peu partout  : dans la stratégie militaire qui s’est déjà penchée sur la guerre de l’information, dans les méthodes des groupuscules idéologiques pratiquant la guérilla, dans le pouvoir de persuasion de la publicité, dans tous les endroits où notre esprit nous conduira.

Pour résumé, l’Infoguerre est un nouvelle forme de la pensée du philosophe BERKELEY, dans Principes de la connaissance humaine pour qui « avoir une idée et percevoir, c’est tout un ». Cela laisse toute latitude à l’action volontaire.

C. Information et Internet

Après avoir présenté les deux élément constitutifs de notre étude, nous allons maintenant pouvoir en envisager les modalités.

  C.a. Internet et Intelligence Economique

Il faut reconnaître qu’Internet et l’Intelligence Economique ont une ressemblance flagrante ainsi que des liens évidents. On pourrait même dire qu’ils sont pareillement les enfants de leur temps, caractérisé par la globalisation de l’économie et des échanges d’informations. Presque logiquement, Internet est devenu un outil primordial et incontournable pour l’Intelligence Economique, tandis que celle-ci est devenue une application essentielle du premier.

Leur premier point commun est bien la mémoire : c’est une mémoire en perpétuelle création et renouvellement qui appartient à ceux qui décident de s’en servir et de l’optimiser. En effet, leur accès respectif nécessite méthode, apprentissage et remises en cause de soi et de ses acquis : c’est toute la problématique du questionnement et de sa maîtrise. L’outil n’est pas un tout qui se suffit à lui-même : il faut savoir l’utiliser et, accessoirement l’adapter à ses besoins et à ses capacités. Ajoutons également que l’un et l’autre sont un perpétuel renouvellement dont l’articulation, la matrice, sont les questions mais, également, les aspirations. 

Nous sommes dans le domaine de l’inachevé, de l’extension, des essais et des erreurs, de la convivialité, de l’ouverture, des contacts entre des hommes de tous horizons et de toutes formations, etc. C’est ainsi que se mettent en place de nouveaux réseaux de compétences mais également d’affinités.

D’un point de vue technique, le jeu des ressemblances se poursuit, dans l’objectif commun de maîtrise de l’information qui passe par celle de l’intelligence artificielle permettant d’élaborer de l’information à partir de l’information avant que ne puisse être construite la connaissance. C’est le travail du renseignement, de l’intelligence au sens latin du terme : créer des liens, un réseau, entre des mémoires et des compétences.

Pourtant, le Réseau reste une machine à part entière ce qui n’est pas le cas de l’Intelligence Economique. Il faut agir sur l’information véhiculée par le Réseau comme nous avons vu précédemment. C’est en cela qu’Internet n’est qu’un élément parmi d’autres de l’Intelligence Economique.

  C.b. Méthode

Pour mener à bien notre étude, nous allons , tout d’abord nous intéressé aux questions techniques générées par l’existence même du Réseau. Nous l’avons vu, c’est le lieu de l’intelligence artificielle. Pour y accéder, il nous faut nous y adapter en utilisant des logiciels. Ceux-ci dépendent des recherches que nous avons à faire et, plus généralement de l’utilisation que nous souhaitons faire du Réseau. Nous n’insisterons pas trop sur ces questions : il est impossible de définir une « trousse à outil » infaillible : c’est un domaine en constante mutation qui ne cesse de s’adapter aux réalités du Web. Il n’en reste pas moins qu’il semble possible d’établir une méthodologie du choix des outils de recherche et de leur utilisation, sans prétendre à une quelconque exhaustivité intemporelle.

Puis nous envisagerons l’utilisation d’Internet par l’Intelligence Economique. Est-ce que ce vecteur révolutionne la profession ? Où s’agit-il d’un luxe réservé aux seules grandes structures. Nous tenterons d’apporter des exemples concrets d’expériences dans ce domaine afin de crédibiliser notre propos. En effet, trop souvent, la littérature traitant de ces questions est par trop abstraite et décourageante. Ne peut –on, pas dès à présent, considérer Internet comme un vecteur de démocratisation de l’Intelligence Economique ?

Enfin, nous élargirons notre propos par son aboutissement logique : l’Infoguerre qui recouvre une multitude de réalités qui concernent, qui menacent,  n’importe quel utilisateur du Réseau. On essaiera de faire sortir ce concept des théories et autres délires paranoïaques qui concourent à empêcher toute prise de conscience préventive des dangers encourus, mais également des opportunités offertes à tous. Pour, ce faire, notre problématique sera decrescendo afin montrer que, finalement, il s’agit d’élément on ne peut plus concrets.



LA RECHERCHE D’INFORMATION

SUR INTERNET


Dans cette première partie, nous allons réduire Internet à ce qu’il n’est pas exclusivement, c’est-à-dire le Web comme système d’information, au sens premier du terme. On peut ainsi utiliser la notion réductrice de « bibliothèque virtuelle  ».Pourtant, Ce n’est pas une raison pour oublier qu’Internet sert aussi :

    - aux communications interpersonnelles (cf. le courrier électronique);

    - à l’hébergement de forums électroniques spécialisés (sous forme de courriers électroniques ou de serveurs Usenet);

    - à donner accès à des serveurs à distance (fonction telnet nécessitant un logiciel client pour pouvoir effectuer des communications);

    - à transférer des fichiers d’un ordinateur à l’autre (File Transfer Protocol ou protocole FTP permettant d’accéder aux disques durs montés sur un fichier);

    - à accéder à des sites d’information en mode Gopher (structure hiérarchique ou arborescente des menus et sous-menus) de moins en moins nombreux;

    - à accéder, et à créer des sites, quelqu’ils soient, en mode World Wide Web (le W3): c’est le système dominant et qui connaît une croissance exponentielle (il intègre les protocoles précédents.

On trouve des fichiers informatiques, des textes, des images, du son, des films... tout ce que chacun, institutionnel ou particulier, veut bien mettre sur le Réseau. Concernant plus particulièrement cette notion de bibliothèque virtuelle, on peut avoir accès à des livres, des journaux, des périodiques, des communications scientifiques, etc. en format électronique (d’où l’expression « virtuelle »).

De façon synthétique, Internet peut ainsi être qualifié d’espace éditorial, dans le sens d’espace de production et de diffusion de l’information. C’est également, de par ses caractéristiques techniques, un espace ouvert et distribué à la fois gratuit et commercial. Et oui, Internet n’est pas le monde de la gratuité mais peut devenir, sans grandes difficultés, celui du moindre coût, de l’information à moindre coût (seuls restent les « frais de déplacement »).

L’objectif n’étant pas d’avoir accès à toute l’information, il faut se donner les moyens de pouvoir trouver l’information pertinente - utile - et de l’exploiter, les deux étapes étant intimement liées. On comprend ainsi que les sites les plus visités soient ceux fournissant gratuitement (grâce à la publicité qui pollue le Réseau) des répertoires (cf. Yahoo) ou des moteurs de recherche, censés indexer en texte intégral la totalité des pages Web (cf. Altavista). Dans les deux cas, soit on ne trouve rien, soit la liste de résultats est tellement volumineuse qu’elle en devient inexploitable. Enfin, dernier point sur ces moyens basiques de recherche d’Information: ils ne recensent que 16 % du Web selon les dernières estimations en vigueur.

Se développent ainsi des outils que l’on appelle communément les « agents intelligents » (cette dénomination n’est qu’un idéal type emprunté aux travaux de la recherche en intelligence artificielle). L’objectif est, là encore de rendre plus rapides et plus efficaces les recherches sur Internet en remplissant trois critères principaux: il faut trouver des informations qui soient les plus fiables et les plus récentes possible.

Pour appréhender cela, nous allons, tout d’abord, dégager les principales caractéristiques de l’Information disponible sur Internet puis nous reproduirons cette première analyse, adaptée cette fois aux outils disponibles pour le recherche d’Information. Enfin, nous tenterons de déterminer une méthodologie et des moyens pour utiliser au maximum les opportunités informationnelles du Réseau.

1.1. Typologie de l’Information présente sur Internet

  1.1.1. Une grande liberté éditoriale:

 La libre diffusion de documents et d’informations est liée à l’origine du Réseau, à sa tradition universitaire qui ignore les frontières et les lois du commerce . Ainsi, chacun peut être à la fois fournisseur et client en fonction de ses envies et de ses intérêts, car le bénévolat n’est pas seul de mise sur le Réseau des réseaux. Il existe une relation directe entre le lecteur et l’auteur qui peut d’ailleurs se prolonger grâce à l’utilisation du courrier électronique qui permet, en un clic de souris, de correspondre avec l’auteur du texte que l’on vient de lire.

Cette liberté éditoriale trouve également sa source dans les motivations des individus, des organisations à diffuser gratuitement de l’Information: pour se faire connaître, par altruisme, pour communiquer, pour échanger, pour atteindre un public cible, pour choquer, pour déranger, pour s’amuser, etc. en profitant d’une diffusion instantanée et internationale . C’est ce qui fait d’Internet cette « auberge espagnole » de l’Information où certains trouvent toute l’information qu’ils souhaitent tandis que d’autres ne trouvent rien et ne trouveront jamais rien.

Ainsi, le World Wide Web est « une entreprise de collaboration favorisant l’échange non-marchand de services et de ressources, sous la responsabilité de chaque réseau de base, mis à la disposition du plus grand nombre pour l’intérêt commun  ». De plus c’est la première fois que l’Information est directement accessible par l’utilisateur final.

Cela n’exclut pas que, comme dans la vie courante, dans la réalité non-virtuelle, des professionnels de l’information s’installent et fassent commerce de la diffusion de l’information en lui offrant une valeur ajoutée, de quelque nature que ce soit. Ce sont les libraires de l’Internet, au sens figuré, c’est-à-dire des banques de données commerciales qui utilisent ce nouveau vecteur de transfert de l’Information (cf. Lexis-Nexis, Dialog , Reuter, l’AFP, etc.). Ils proposent une information vérifiée, actualisée régulièrement, synthétisée et mise en forme enfin de faire gagner du temps et d’éviter des recherches qui peuvent souvent se révéler fastidieuses. D’ailleurs, on notera que ces services n’utilisent jamais exclusivement les informations du Web!

Enfin, cette liberté a ses limites et il existe des choses que nous ne trouverons jamais sur la Toile, sauf à se retrouver dans l’illégalité la plus totale (cf. la troisième partie de cette étude sur l’Infoguerre). Signalons quelques uns de ces barrages: les problèmes de droit d’auteur, la sécurité des transferts d’information, la difficulté d’accès aux serveurs, les coûts de création et de mise à jour de l’Information sur  support électronique, l’absence de profits, etc.

  1.1.2. Les caractéristiques de l’Information

En fait, Internet est la bibliothèque la plus chaotique qui soit. L’absence de catalogue ou de fichiers recensant ce qui existe est révélatrice (en fait existent des catalogues sectoriels mais ils ne sont jamais à jour, sont parfois difficile d’accès et ne sont pas intégrés dans un grand registre universel de l’Internet).

Seuls des outils automatiques de recherche de services peuvent être relativement à jour: ce sont des robots qui parcourent le Réseau pour en extraire l’information en la répertoriant dans des bases de données interrogeables par les utilisateurs. En fonction du prix, le travail sera plus ou moins bien fait... Mais la recherche par sujet reste très délicate du fait de l’absence de normes permettant une homogénéisation qui faciliterait l’indexation automatique. De plus, alors que les ressources existantes sont de mieux en mieux signalées (cf. les balises HTML), les données sont quant à elles peu ou pas validées par les outils automatiques qui ne sont que des robots, ne l’oublions pas.

Il ne faut pas non plus oublier que tout ce qui se trouve « sur » Internet est virtuel et dynamique. Cela n’a strictement rien à voir avec les pages numérotées d’un livre. Les site sont éphémères, changent d’adresse et obéissent à des desseins différents les uns des autres. Cela pose également le problème de l’authenticité de l’Information (il n’existe pas de comité éditorial du World Wide Web: c’est ce qui fait à la fois sa force et sa faiblesse).

Cette anarchie va bien au-delà de l’Information: elle concerne également le contenu et le codage numérique, l’instabilité de la réalité virtuelle, la fragmentation de la toile mondiale, le renouvellement continuel, la déstructuration volontaire du Réseau (et, par là-même, de ce qui s’y trouve), le multilinguisme à l’échelle planétaire, etc. Cela n’exclut pas pour autant des grandes tendances qui évitent à chaque Internaute d’être un programmeur confirmé.

  1.1.3. Les aspects techniques de l’Information

Un des synonymes les plus courants d’Internet est « autoroutes de l’information ». Si nous ne l’avons pas employé jusqu’à présent c’est afin de lui donner le sens le plus exact possible. En effet, cet expression ne prend réellement tout son sens que si elle s’applique à l’infrastructure matérielle de la communication. Internet n’est pas encore l’autoroute électronique à proprement parler qui en fera l’autoroute de l’Information que tout le monde attend: ce sera alors l’ère de l’information en temps réel… qui n’en est qu’à ces balbutiements (les fils téléphoniques, les fibres optiques, les câbles intercontinentaux et les communications par satellite).

Toute ressource possède une URL (Uniform Ressource Locator) et un format de codage. Les deux formats les plus souvent rencontrés sont le HTML et le PDF ce qui n’exclue pas l’existence de fichiers téléchargeables aux formats « classiques » que sont World, Excel, etc. Pour résumer, on peut trouver :

    - l’ASTI (ou plein texte) : il est toujours lisible et de taille réduite mais, en contre-partie, il ne permet qu’une pauvre mise en page, sans image ni graphique (l’objectif est d’être lisible par tous ce qui explique que de nombreux éditeurs de journaux électroniques aient choisis ce format);

    - le traitement de texte que tout possesseur d’un ordinateur sait utiliser mais qui possède le double inconvénient d’une taille trop importante et d’une absence de standard;

    - le Rich Text Format (ou RTF) est exclusivement dédié aux échanges de documents électroniques mais, c’est un format de Microsoft;

    - le Postscript ou (PS) a pour inconvénient majeur  d’être utilisé par les systèmes fonctionnant sous Unix et de nécessiter une imprimante spéciale;

    - le Portable Document Format (ou format PDF) est le plus apprécié car il offre une mise en page professionnelle, une protection du contenu, un navigation hypertexte et des possibilités de recherche au sein du document. Pourtant, il nécessite un logiciel gratuit spécialisé (Acrobat Reader) et alourdit les documents;

    - le Hyper Text Markup Language (ou langage HTML) est le standard de la communication sur Internet ce qui ne l’empêche pas d’offrir une mise en valeur limitée et d’être facilement modifiable. A l’origine, le but de ce langage était de créer un moyen universel de stocker et d’afficher de l’information en misant plus sur le contenu que sur la forme (les nouvelles spécifications , le HTML 3.2 et ses versions dérivées proposées par les navigateurs, permettent de créer des effets esthétiques et de maîtriser aisément les lignes de codes nécessaires).

Les formats de fichiers mentionnés ci-avant ne concernent que les documents textuels, les plus utilisés en matière de recherche d’Information. Existent également des images (en .GIF, .JPEG ou .JPG, .PNG, .TIF ou .TIFF), des fichiers audio (en .AU, .AIF ou .AIFF, .MID, .RA, .WAV), de fichiers vidéo (en .AVI, .MOV ou .QT, .MPEG ou .MPG, .RA, .VDO, .VIV), des fichiers compressés (en .BIN, .EXE, .HQX, .GZ, .TAR, .UUE, .Z, .ZIP), des fichiers codés, etc. . Ils possèdent tous leurs différents formats. Le seul point commun qui les unit est leur terminologie: ils apparaissent tous ainsi : « nom du fichier . type du fichier ».

Nous nous dirigeons tout de même vers une harmonisation et une facilité croissante des interfaces homme/machine (il s’agit là d’un des grands enjeux de cette fin de siècle car ceux qui détiennent les vecteurs détiendront à terme le contenu même de l’Information).

1.2. Les outils de recherche

La recherche d’Information demande deux compétences principales: 1/ savoir déterminer le bon outil en fonction de l’information demandée et 2/ savoir l’utiliser correctement. Il va sans dire que cela demande un travail régulier pour se tenir un tant soit peu au courant des nouveaux produits et de leur utilisation. Le plus simple, comme souvent sur Internet, est de s’abonner à une mailing-list gratuite spécialisée sur ces questions (cf. « La lettre actu-moteurs » , hebdomadaire en français envoyé tous les Vendredi dans votre boîte aux lettres électronique sur simple demande).

La partie qui va suivre ne saurait exclure quelques recommandations  de base qui se révèlent valables dans le cadre de toute recherche par le biais d’un logiciel. Tout d’abord, il est indispensable de préparer ses questions, c’est-à-dire de se faire une liste de mots-clés en tentant de ne pas oublier que les autres, et plus particulièrement les concepteurs de l’outil utilisé, ne nomment pas ce que nous cherchons de la même façon que nous (d’où l’importance des synonymes et de l’opérateur booléen qui y ait associé). Au moment de poser sa question, il est conseillé de n’utiliser ni accents ni majuscules. Puis, au cours de la recherche, il faut garder à l’esprit que tout se passe un peu comme dans un « entonnoir »: si on obtient trop de bruit, trop de réponses, on restreint le champ d’interrogation en s’enfonçant plus profondément dans l’entonnoir; par contre, si aucune réponse ne semble exister, alors, à l’inverse, on élargit le champ de la recherche en remontant vers les bords de l’entonnoir.

Nous ne nous intéresserons pas au push qui permet, en théories, à chacun de recevoir ce qui l’intéresse, suivant en cela les méthodes de diffusion de la radio et de la télévision. Cette technique a été abandonnée au profit des Intranets et des réseaux d’entreprises: c’était un gros consommateur de ressources du Réseau et de postes de consultation sans grande valeur ajoutée au regard de ce que l’on trouve sur les sites Web.

  1.2.1. Les moteurs de recherche et répertoires

    1.2.1.1. Les répertoires ou annuaires

Les répertoires ou catalogues constituent leur base de donnée soit par inscription volontaire (des formulaires sont mis à la disposition des concepteurs de sites afin qu’ils enregistrent ces derniers en en fournissant l’adresse, le titre, les thèmes principaux, etc.) soit par une recherche à l’aide de robots. Concrètement, il s’agit de listes ou d’annuaires généralistes classés de la façon la plus intelligible qui soit. On peut d’ailleurs établir un parallèle entre les thèmes de classement choisis et ceux employés dans une bibliothèque généraliste. Le parallèle se poursuit quand on sait qu’existent des « lecteurs » chargés de filtrer les sites en fonction de leur qualité, de leur pertinence et de leur fiabilité. Ainsi, chez Yahoo, en Californie, cinquante-six indexeurs passent de trente secondes à trente minutes à visiter les sites qu’on leur indique .

La recherche peut se faire de deux manières: soit en allant de thèmes en sous-thèmes soit en faisant une recherche par mots, c’est-à-dire sur les titres de thèmes proposés. Comme on peut le constater, il faut, avant de commencer sa recherche avoir une idée des thèmes proposés auxquels correspond l’information recherchée. Cela demande une certaine connaissance de l’outil que l’on utilise et des correspondances de vocabulaires d’une langue à l’autre.

Une fois ces difficultés franchies, une liste apparaît: c’est la réponse à notre requête. En fait, c’est une nouvelle étape pour trouver l’information recherchée: on se retrouve face à une liste de sites qu’il nous faut alors visiter. C’est seulement après que l’on pourra constater s’ils correspondent ou non à notre requête.

Ainsi, de par le méthode même d’acquisition de l’Information, ces outils manquent d’exhaustivité: ils accumulent les sites les uns après les autre, au fur et à mesure que ceux-ci sont portés à leur connaissance. De plus, si on veut rechercher dans le bon sous-thème, il faut savoir à quoi celui-ci correspond ce qui signifie que l’on est tributaire des classifications existantes: elles manquent, par définition, de la précision nécessaire à l’obtention de l’information recherchée.

    1.2.1.2. Les moteurs de recherche

Leur objectif: indexer automatiquement le Web grâce aux logiciels robots. Ces derniers parcourent l’Internet pour en extraire l’information et constituer des bases de données interrogeables en ligne.

      1.2.1.2.1. Les robots d’exploration

 Chaque robot (ou spiders, crawlers, worms, etc.) a sa méthode de recherche et ne peut en aucun cas être assimilé à un virus qui se meut de façon quasi autonome au cœur des terrains qu’il infecte.

En général, il commence son parcours à partir d’une liste d’URL extraits de pages ayant beaucoup de liens, par exemple; il peut ainsi augmenter sa liste d’adresses. De même, les robots utilisent les listes créées manuellement par les utilisateurs. Enfin, il est possible de récupérer des adresses en parcourant les messages échangés dans les Newsgroups ou dans les archives des Listes de discussion  .

Une fois la liste de départ constituée, le robot visite et indexe les documents trouvés en utilisant, comme référant, les titres HTML des pages, les premiers paragraphes, les mots récurants des textes complets, etc. Pour faciliter ce travail il est d’ailleurs très important de bien remplir les « balises META » qui sont le descriptif en HTML de la page Web (il s’agit, le plus souvent, de mettre en évidence des mots clefs  à la recherche desquels est le robot).Voici ce que peuvent donner ces lignes en HTML (sont mis en italique les éléments de personnalisation):

 <HEAD>

  <TITLE>INTELLIGENCE STRATEGIQUE</TITLE>

  <Meta Name=« description »Content=« Site consacré à l’information stratégique en français »>

  <Meta Name= « keywords »Content=« renseignement, intelligence économique, infoguerre, forces armées, conflits, géostratégie, défense, terrorisme »>
  </HEAD>

 Par contre, on peut également demander aux des robots de ne pas indexer des pages et de ne pas explorer des liens :

  <HEAD>

  <Meta Name=« robots »Content=« nonindex, nonfollow »

  <TITLE>....</TITLE>

  </HEAD>

On compte plus d’une vingtaine de ses outils de recherche généraux sur Internet. Il n’en existe pas deux capable de fournir la même réponse à une question identique. De plus, d’un jour à l’autre, les résultats peuvent varier sur le même outil , à requête identique. Ainsi, en termes de sciences de l’Information, les performances des robots sont plus que médiocre puisque l’objectif est de se procurer tous les documents recherchés et seulement ceux-ci; sur Internet on se procure en fait souvent beaucoup de silence et de bruit .

      1.2.1.2.2. L’utilisation des robots par les moteurs

Il s’agit de bases de données constituées automatiquement par les robots que nous avons étudiés ci-avant. Ils indexent mot à mot les documents qu’ils visitent permettant ainsi à l’utilisateur de poser des questions par sujets. Selon le moteur utilisé, l’indexation porte soit sur le titre et/ou l’entête du document, voir les premières lignes, soit sur le document complet.

Le maître mot de l’utilisation des moteurs est la simplicité: on pose sa question en langage usuel avec possibilité de l’affiner en fonction du nombres de réponses correspondantes trouvées (ceci afin d’éviter un trop grand nombre de sites à visiter). La liste ainsi obtenue est le plus souvent classée par ordre de pertinence, reposant sur une pondération des documents, calculée à partir des critères de recherche.

On notera qu’il existe toujours une réponse et, donc, beaucoup de bruit (il suffit que le terme de la requête se trouve dans une des pages indexées par le moteur, et, ce, quel qu’en soit son sens). L’idéal est là encore de connaître le fonctionnement de l’outil que l’on utilise mais, chaque moteur possède son propre mode d’indexation ce qui rend difficile le simple fait de poser la bonne question. On peut également choisir de limiter le nombre de réponses, quand cela est possible.

Il est souvent très utile de maîtriser les opérateur booléens  qui reposent sur trois principales opérations que sont l’union (« ou »), l’intersection (« et ») et l’exclusion (« sauf »). L’union permet de rechercher des concepts proches , des synonymes, ce qui est incontournable dans le cadre d’une requête formulée en vocabulaire libre. L’intersection, quant à elle, impose la présence de tous les critères de la recherche dans la réponse. Enfin, l’exclusion, comme son nom l’indique, permet d’éliminer des notions non pertinentes. De manière, générale, les moteurs de recherche reconnaissent le « + » et le « - »: le premier, collé à gauche du terme, impose sa présence dans la réponse; le second, placé à droite, exclut les documents contenant ce terme.

Un autre moyen d’affiner sa recherche est d’utiliser des types de documents. Certains moteurs proposent en effet de vous fournir « plus de documents comme celui-ci ». Aussi l’utilisateur a-t-il l’opportunité de déterminer le document le plus proche de ses préoccupations et de le soumettre au moteur de recherche. Celui-ci, sans qu’on sache bien comment, en extrait les termes importants et les utilise pour interroger de nouveau la base de données.

En dépit du travail continu des robots, il est impossible, comme nous l’avons déjà signalé, d’indexer la totalité du Web. Il est de plus matériellement impossible d’assurer une mise à jour quotidienne des informations recueillies. En effet, les moteurs de recherche n’interrogent pas directement le Réseau mais leurs propres bases de données contenant les termes décrivant chaque page Web. Une indexation fiable d’un univers dynamique et interactif est réellement impossible (comment suivre l’évolution de tous les sites dont les informations changent tous les jours car tels sont leur vocation et leur intérêt).

  1.2.2. Les agents de recherche ou métamoteurs

 La spécificité des métamoteurs réside dans le fait qu’ils interrogent en une fois différents outils de recherche pour fournir, objectif ultime, la réponse souhaitée à la question posée. La mise en place de ces outils a posé de nombreux problèmes (le premier de tous, purement commercial, étant la baisse de fréquentation des bandeaux publicitaires des moteurs), aujourd’hui tous résolus. Ainsi, ces logiciels ont des fonctionnalités relativement comparables (tout en utilisant des techniques différentes) mais des spécificité intéressantes qui permettent de les utiliser de façon croisée.

Les cinq fonctions principales que l’on retrouve le plus souvent sont :

    - un fonction de recherche visant à permettre d’effectuer des recherches de manière la plus complète et la plus approfondie qui soit;

    - une fonction de veille qui consiste, de façon schématique, a relancer une recherche de façon régulière puis d’indiquer à l’utilisateur les nouveautés trouvées;

    - une fonction de gestion de l’information qui se traduit dans la façon dont sont édités, sauvegardés, modifiés, etc. les résultats des requêtes;

    - une fonction de filtrage de l’information: on peut choisir un domaine de recherche qui renvoie à des outils spécifiques, on peut choisir de ne trouver que des documents contenant une expression exacte, etc.

    - une fonction d’analyse sémantique ou statistique des documents qui peut se matérialiser par un surlignage des mots clefs correspondant à la recherche.

La fonction de recherche proprement dite s’effectue à partir de moteurs de recherche classique et généralistes (souvent on peut voir les résultats trouvés par chaque moteur ce qui autorise, ensuite, à relancer une autre recherche sur le moteur qui a donné les informations les plus pertinentes) mais également dans des sources spécialisées. En général, les deux méthodes sont utilisées de paire avec élimination des doublons lorsque les résultats sont fusionnés. Il est également possible d’ajouter ou de supprimer des répertoires ou de moteurs de recherche en fonction des requêtes ou pour toutes. L’un des avantages de cette méthode est de pouvoir intégrer les moteurs internes à certains sites d’Information que l’on connaît: c’est un gain de temps incontestable puisque il n’y a plus qu’une requête à faire. Enfin, certains métamoteurs fonctionnent également, en plus du reste comme des moteurs explorant les pages « oubliées » par les répertoires et les moteurs généralistes. DigOut4U arpente le Réseau en continu si un temps de recherche ne lui a pas été imposé (on peut tout de même exploiter les premiers résultats tandis qu’il continue de chercher... si l’ordinateur est suffisamment puissant en termes de mémoire vive); ce genre d’outil est d’une utilité limitée, mais incontestable, et ne peut être utilisé à chaque recherche sous peine de perdre tous les bénéfices escomptés des métamoteurs.

La formulation de la recherche tend de plus en plus à s’harmoniser d’un logiciel à l’autre. En fait, c’est la simplification qui semble être de mise en autorisant des requêtes en langage naturel. Par contre, il est toujours possible d’améliorer les réponses en déterminant, à sa façon, une reformulation de sa question qui permet d’affiner les premiers résultats trouvés. Lorsque les documents sont rapatriés sur le disque dur (ce qui signifie la perte de l’URL Internet d’origine), on peut les interroger de différentes façons. On se constitue ainsi une base de données interrogeable à tout moment, en interne.

On rejoint, ici, la fonction de veille de ces métamoteurs qui permet de réactualiser une requête sauvegardée. Dans le cadre d’une connexion numérique (ou par cable), l’avantage est évident puisque l’opération peut s’opérer dès que l’ordinateur ou le réseau est actif. Par, contre dans le cas d’une connexion par modem cela se complique d’autant qu’il n’est jamais très prudent de laisser constamment son ordinateur en veille avec son modem allumé.

Pour ce qui est de la gestion des résultats, tous les métamoteurs permettent d’éditer les documents en format HTML, de les trier (en en supprimant, par exemple), de modifier la présentation de la liste de résultats (par ordre chronologique, par ordre de pertinence, etc.), etc. Il est intéressant de noter que la liste de résultat peut « prendre la place » du navigateur de l’utilisateur en y intégrant ses propres fonctions (c’est le cas de Copernic 99) ou n’être qu’une simple page HTML avec des liens hypertextes (cf. Webseeker qui crée des bookmarks commentés par requête).

Viennent ensuite les capacité à présenter le contenu des documents trouvés, c’est ce qu’on appelle la fonction d’analyse sémantique ou statistique qui se traduit, comme pour les moteurs de recherche classiques, par des résumés à partir des textes recueillis et, certaines fois, par une mise en avant des mots clefs. Chaque métamoteur utilise sa méthode qui se différencie principalement dans le choix des paragraphes utilisés pour mettre au point le commentaire. Celui-ci tient d’ailleurs plus d’une compilation d’extraits, censés être les plus pertinents, que d’un véritable résumé . On peut également obtenir des tables des matières (cf. Ecosearch) et des listes de mots-clés et/ou concepts; on fait appel à l’intelligence artificielle avec tout ce que cela sous-entend d’à peu près.

Quoiqu’il en soit, ces métamoteurs ne sont qu’un assemblage de moteurs dont ils restent tributaires. Pourtant, le travail ne semble pas être beaucoup plus long qu’avec des moteurs et, ce, pour deux raisons principales: les moteurs sont interrogés en même temps sans qu’il soit nécessaire d’ afficher les pages d’accueil de ceux-ci et, deuxièmement, les résultats sont traités de façon beaucoup plus approfondie que par un moteur classique ce qui se révèle un gain de temps non négligeable au moment de leur exploitation. A ces deux avantages, s’ajoutent les outils uniquement dédiés à la gestion de l’Information (constitution de bases de données par aspiration des pages, relance d’une même requête, choix des sources à interroger, etc.)

Ainsi, ces logiciels, le plus souvent gratuits, sont très utiles pour effectuer un travail de veille et, ce, même s’ils n’ont rien à voir avec des outils tels que Péricles ou Taïga . De plus ils sont en parfaite adéquation fonctionnelle avec les caractéristiques de Web: un monde dynamique dans lequel il est nécessaire d’avoir ses propres repères, personnalisés en fonction de ses attentes et de ses besoins. Par contre, là encore, il faut connaître les outils que l’on utilise et savoir en quoi ils peuvent nous être utiles. C’est d’ailleurs pour cela que Copernic 99 semble être le plus approprié comparativement aux autres même si il s’agit d’un faux métamoteur client (il met à jour ses bases de données alors que l’ordinateur n’est pas connecté à Internet!). Autre avantage, et non des moindres, il est gratuit en version complète. Le second serait Webseeker (on peut très facilement choisir les moteurs et les répertoires sur lesquels s’effectueront les recherches) mais il est offert en version limitée dans le temps, ce qui nécessite une souscription au bout de la trentième utilisation. Enfin, pour les requêtes très larges ou ayant peu de chances d’aboutir, DigOut4U s’impose... au risque de faire planter votre ordinateur et les autres applications en cours (il vaut mieux le lancer de nuit).

  1.2.3. L’utilisation et la gestion de l’information

    1.2.3.1. Méthodologie de la recherche

Nous connaissons maintenant la structure de l’information et son évolution ainsi que le fonctionnement des principaux outils nécessaires à la capter. C’est à nous d’agir en fonction de ces éléments .

 Nous savons que, brièvement, l’information est multimédia (textes, sons, images animées ou fixes, etc.). De plus ses supports sont hypertextes (ce concept remonte aux années 1945 où un auteur avait proposé une lecture et une écriture non linéaires correspondant à la pratique de l’esprit humain, reliant des unités d’information par des liens ; le premier hypertexte utilisant l’informatique date, quant à lui, de 1965): l’accès à l’Information se fait par association d’idées et de concepts contrairement au modèle hiérarchique en vigueur et classiques fondé sur l’indexation, la classification (cf. les dictionnaires, les annuaires ou les chronologies). A ces premiers éléments s’ajoute l’absence d’exhaustivité qui interdit tout recensement centralisé et à jour de ce qui se trouve sur le World Wide Web. Cela entraîne d’indispensables requêtes auprès de logiciels spécialisés qui nous renvoient soit beaucoup de bruit (on croule sous l’information non pertinente) soit du silence (absence de réponse); dans les deux cas, rien ne nous garantit une réponse à notre question. Mais, Internet est aussi l’interactivité, que nous n’avons guère étudiée pour l’instant: une grande partie de l’information peut être trouvée sur des forums de discussion, des listes de diffusion, etc. (le travail de recherche est le même que ce que nous avons évoqué ci-avant; seul varie le traitement de l’information car les forums sont les vecteurs privilégiés de la désinformation).

Une fois cela pris en compte, il semble possible d’établir une méthodologie en huit points  de la recherche d’Information sur Internet qui, d’ailleurs, emprunte beaucoup aux concepts de la recherche documentaire « classique »:

    - il faut, avant toute chose, définir son sujet, ce qui revient à avoir une idée de ce que l’on veut trouver: cela consiste à rechercher les différentes approches possible (les siennes et celles que d’autres pourraient avoir), à s’approprier le sujet, à le délimiter et, enfin, à l’adresse des outils de recherche quel qu’ils soient, à le traduire en mots clefs. Ce premier travail n’est en aucun cas acquis et il est toujours possible de le modifier en fonction des premiers résultats obtenus.

    - ensuite, il faut déterminer les ressources pertinentes en utilisant une double approche complémentaires: d’abord se connecter sur les site de référence ou les sites tremplins (on parle également de pages ressources) des domaines relevant de notre requête puis, utiliser les outils dédiés à la recherche sur Internet. C’est une méthode classique qui consiste à trouver d’abord des éléments de synthèse qui nous permettront d’approfondir certains aspects du sujet choisi. Cela se traduit également par la découverte de l’outil adéquat et de son mode de fonctionnement;

    - on peut maintenant formuler et soumettre une équation de recherche... qui devrait se révéler efficace au regard de la liste d’URL qui apparaîtra en réponse;

    - il est maintenant temps d’accéder à la documentation primaire, c’est-à-dire aux résultats de ces trois premières étapes;

    - le travail de sélection et de hiérarchisation s’avère d’ores et déjà incontournable en raison des bruits que ne manque pas de provoquer la moindre requête ( des concepteurs de sites se sont spécialisés dans le bluff des moteurs afin que leur site apparaisse dans presque toutes les requêtes). Au-delà, on classe les documents en fonction de ce qu’ils apportent à notre recherche (approche qualitative). Copernic, par exemple, permet de mener une telle démarche tout en autorisant la constitution d’une base de donnée interne exploitable comme n’importe quel résultat de moteur de recherche;

    - enfin, vient l’issue habituelle de tout travail de recherche qui consiste en l’exploitation des documents en fonction de l’objectif que l’on s’est fixé;

    - pour finir, on fait la bibliographie de son travail, son bookmark personnel. On y reviendra plus en détail par la suite.

Comme nous pouvons le constater, la recherche d’information sur Internet observe les mêmes étapes qu’une quelconque recherche documentaire. Pourtant, l’erreur la plus commune est de négliger le réflexion préalable à la recherche et de poser directement sa question au premier moteur venu et d’obtenir ainsi un résultat très riche mais sans grand intérêt opérationnel.

La seule différence notable réside dans les sources obtenues: les informations trouvées doivent être traitées avec une extrême prudence, avec méthode.

    1.2.3.2. Evaluation de l’information sur Internet

Le regard critique est la seule chose pour laquelle les robots et autres agents dits intelligents  ne peuvent nous être d’aucune utilité. C’est l’intelligence humaine qui prend le dessus sur l’intelligence artificielle. Aussi faut-il répondre à un certain nombre de questions que nous allons succinctement évoquer .

Concernant, tout d’abord, le contenu, puisque c’est le fond de notre travail sur Internet, il faut tenter de savoir si cette information est unique aussi bien dans le temps que dans sa teneur (il est toujours utile de croiser ses sources). On peut également s’intéresser au site qui héberge l’information et voir s’il est dédié à ce genre de renseignement, ou si ce que l’on a trouvé a une présence anecdotique, etc. En même temps, on analyse la « visibilité » de ce site ce qui renvoie au travail de recensement (celui-ci est un gage de plus ou moins grande officialité, même si il est toujours possible de tricher quand on connaît un tant soit peu le fonctionnement des robots); la mesure d’audience peut également être un bon indicateur même si un compteur peut compter de 100 en 100 (1 visite = 100 visiteurs). Toujours dans la conception du site on peut également s’intéresser à la présence d’une bibliographie sous forme de bookmark, de préférence commenté, qui renverrait à d’autres sites intéressants (voir si les liens sont toujours valables); il faut se méfier des échanges de bannières qui n’ont pour seul objectif que l’augmentation des visites d’un site à l’autre et qui ne peuvent en aucun cas être assimilées à des références. Il est important de noter la présentation de cette information, même si avec la technologie ASP (les pages n’existent que lorsque l’utilisateur les génère lors de sa requête) on ne peut pas avoir directement accès aux archives et aux modifications. Enfin le travail classique d’analyse de l’information en elle-même: est-elle récente, quelle est sa fréquence de mise à jour, quel est son degrés de précision, la langue est-elle correcte (cela indique une relecture par un tiers), etc. ?

On peut ensuite tenter de cerner le profil des responsables qui ont mis en ligne l’Information qui nous intéresse. Dans le cadre du site d’une université, la question ne se pose pas en termes aussi importants que dans celui d’un site amateur (même si apparaît souvent la mention suivante, « ce texte n’engage que son auteur »). Dans ce dernier cas, il ne faut pas hésiter à contacter le concepteur du site et à lui poser toutes les questions que l’on juge pertinentes. L’absence de réponse peut-être révélatrice!

Il est également indispensable de s’intéresser à la façon dont est organisée l’Information. Cette étape rejoint un peu les précédentes sauf qu’elle est uniquement dédiée au contenu informationnel et à son appréhension par le lecteur, pour employer un terme générique. Les questions de la navigation, du téléchargement et de l’impression sont importantes pour identifier l’usage que l’auteur attend que l’on fasse de ses travaux et l’importance qu’il y accorde. A moins que celui-ci préfère que vous n’achetiez son ouvrage dont il fournit gracieusement quelques extraits en ligne qui par définition ne seront jamais actualisés, sauf si le livre l’est (ce qui est incompatible avec la dynamique d’Internet).

Comme nous l’avons vu, certains sites proposent des moteurs internes qui vont, dans leurs fonctions, bien au-delà des pages d’accueil ou des frames de navigation. Ces moteurs sont téléchargeables gratuitement si bien que n’importe qui, ou presque, peut en installer un sur son site. Le rendre efficace est une autre question. Un site qui se veut dédié à la fourniture d’informations se doit d’en posséder un ayant un mode de fonctionnement compréhensible, tant pour la requête que pour les résultats.

Un autre indicateur peut se révéler fort utile: le prix de cette information .En effet, celle ci peut-être gratuite, dans la philosophie d’Internet où tout le monde agit au profit de la communauté (cela n’est pas pour autant le signe d’un site amateur). Par contre, elle peut être gratuite mais accompagnée de publicités sur le sujet - plus ou moins bien séparées de celui-ci - voir être, en elles-mêmes, un publicité sous forme d’échantillon de ce que peut vous fournir une base de donnée payante. Les indications de copyright peuvent compléter cette approche, surtout si elles nous renseignent précisément sur l’auteur et l’institution, dans un sens large, auquel il appartient.

    1.2.3.3. La constitution d’un bookmark

C’est l’aboutissement en quelque sorte de toutes les étapes et méthodologies d’analyse que nous venons de décrire. Il s’agit de se faire son propre carnet d’adresses recensant les étapes de nos « navigations » (ou browsing) précédantes et dépassant les simples signets que nous proposent Netscape ou Internet Explorer. En effet, ces derniers peuvent disparaître lors d’une mise à jour du logiciel d’exploitation et surtout, sauf à être en réseau, ne serviront qu’à soi-même. L’idéal, en somme, est de mettre ses signets en ligne afin que chacun, visitant votre site, puisse en profiter et vous fournir d’autres adresses en rapport avec vos centres d’intérêts, voir vous signaler quand vos liens sont périmés ou peu valables. L’autre intérêt de conserver ces signets est de pouvoir bénéficier de tous les avantages d’une page Web en la consultant à son emplacement d’origine: si on se contente de la sauvegarder, de l’enregistrer, les images et les liens hypertextes seront perdus (sauf à l’aspirer ou à utiliser les fonctions « modifier » ? « enregistrer sous » de Netscape Navigator).

Avant même ce travail, il peut être utile de modifier la page d’accueil de son navigateur. En effet, si Internet est outil dédié à la recherche d’informations on peut choisir des pages de répertoires ou de compilations de liens hypertextes sur les outils de recherche:

    - le site (donné à titre d’exemple) http://www-scd-ulp.u-stratbg.fr/Urfist/ANNE_Sophie/class3.htm propose un bookmark commenté sur les outils de recherche qui se décompose en deux sous-ensembles: des analyses et méthodologies (avec toute une partie en français) suivies de liens conduisant directement aux outils;

    - le CIUF présente tous les outils de recherche en une page (http://www.ciuf.be/bibliotheques/repertoire_ressourcesweb/
reintron.htm et /motrech.html) et recense des guides d’introduction à Internet ainsi que des glossaires sur Internet, afin de commencer sa navigation par une petite leçon théorique;

    - l’INSA propose des « Sentier d’Accès et Pistes de Recherche d’Informations Scientifiques et Techniques sur l’Internet » (http://www.csidoc.insa-lyon.fr/sapristi/digest.html) avec des liens en fonctions des types de documents recherchés, les moyens pour obtenir des coordonnées en tous genres (des congrès aux laboratoires en passant parles personnes physiques et les sociétés), les outils de recherche, etc.

    - l’université de Valenciennes a mis au point un tableau sur les outils de recherche sur Internet, classés en fonction des recherches à effectuer avec, là encore, des liens pédagogiques (http://www.univ-valenciennes.fr) ;

    - l’ADIT a créé une page intitulée « Comment chercher une information sur le Web? » qui est tout de même relativement succincte au regard des travaux de certains amateurs en la matière (http://www.adit.fr/Recherche/Rech.html);

    - Lnet dépasse le simple concept de bookmark pour établir une classification en fonction de ses objectifs de recherche (http://ww.lnet.fr/ie/), dans un souci d’Intelligence Economique;

    - etc.

Nous venons de donner l’exemple d’un bookmark simple mais insuffisant. En effet, à force d’explorer le Web, on rencontre souvent les mêmes sites ou, à l’inverse, on tombe par hasard sur des sites qui nous apportent beaucoup d’informations mais qui sont très mal référencés. Certes, le principe des signets est un bon réflexe mais se constituer son site, puisque c’est de cela dont il s’agit, permet de travailler beaucoup plus efficacement sur Internet.

L’idéal pour mener à bien ce projet est d’utiliser les options de son navigateur, voir des deux navigateurs. Netscape Composer permet de faire du HTML sans en faire: le clic droit et la barre des tâches suffisent amplement à construire une page complète sans avoir à apprendre les lignes de codes adéquates : comme pour les métamoteurs, les options sont exprimées en langage usuel (un peu à la façon d’un traitement de texte). La seule règle à respecter est de tout inscrire dans un tableau (invisible en choisissant des bordures de 0 pixels) dont les dimensions seront exprimées en pourcentage de la page (ou de la cellule) afin que la présentation s’adapte aux tailles de tous les moniteurs. Netscape permet de visualiser son travail en langage HTML mais sans qu’on puisse le modifier sauf à passer sur le bloc-notes après un copier-coller. Par contre, avec Internet Explorer, on peut directement modifier le HTML ce qui est très utile lorsque l’on veut ajouter des compteurs, des bannières, des lignes Java, etc. en faisant attention de ne pas alourdir ses pages.

Le contenu consistera en un classement, en fonction de ses propres critères, de toutes les sites rencontrés et utilisés. Le plus simple est de mettre le titre du site ou du document sous forme hypertexte (avec un lien vers son URL) et un petit commentaire de quelques lignes.

Cela peut paraître fastidieux au premier abord. Mais, un fois le plan du document HTML déterminé, il suffit de l’enregistre au « bureau » pour pouvoir facilement l’atteindre. Lorsque l’on trouve une page intéressante, on réduit la fenêtre du navigateur (il occupe, idéalement, la moitié de l’écran), puis on ouvre son bookmak dans la partie restée libre de l’écran (il faut faire cela sous Netscape afin de bénéficier du Composer pour modifier directement la page). On entre le titre et le commentaire du nouveau document, on surligne le titre avec la souri ? on « insère un nouveau lien » (fonction de Netscape) en faisant un copier-coller de l’URL du document choisi (cette méthode évite de nombreuses erreurs). Lorsque le site est composé de multiples frames (ou bordures), il est indispensable de les « supprimer » car ils créent une adresse unique pour toutes les pages du site ce qui rend impossible de trouver la localisation exacte de celle qui nous intéresse. Pour ce faire, avec Netscape, on place le curseur de la souris sur la page choisie ? clic droit ? choix de l’option « ouvrir le cadre dans une nouvelle fenêtre » ? on obtient alors l’adresse exacte de la page sélectionnée (on peut utiliser également cette méthode pour imprimer ou enregistrer ce genre de pages; il ne faut pas hésiter à modifier une page si on veut en garder une trace correcte et sans oublis).

La dernière étape, la plus intéressante, consiste à télécharger un logiciel FTP, à trouver un hébergeur et à mettre ses pages HTML en ligne. Selon les sujets traités, il est conseiller de mettre des « mouchards », gratuitement disponibles sur le Web, (ils vous renseignent sur vos visiteurs: numéro IP, heure et jour de visite, nationalité, navigateur, chemin de connexion, etc.). Enfin, il ne faut pas hésiter à indiquer clairement ses (ou des) coordonnés électroniques pour être tenu informé des liens périmés et des liens que l’on ne connaît pas (pourquoi ne pas créer un forum relié à son site dédié à la recherche d’information dans son secteur d’intérêt?).

Si on a du temps, on peut enfin s’essayer au référencent pour comprendre le fonctionnement de tout ce que nous avons étudié dans cette première partie. C’est un excellent moyen de comprendre et d’analyser le travail effectué sur les sites que l’on visite dans sa recherche d’information.

Pour résumer, sur Internet, l’abondance et la carence , le meilleur et le pire, le vrai et le faux, l’utile et le futile se côtoient au quotidien, sont, même, intimement liés . Nous avons tenté d’en prendre conscience, en analysant l’Information du Web, et de développer des méthodes de travail adaptées. Maintenant, nous allons passer à l’application concrète de cette première méthodologie en examinant les liens unissant l’Intelligence Economique à Internet : le travail d’Intelligence Economique utilisant Internet.
 



INTELLIGENCE ECONOMIQUE

ET INTERNET


Le foisonnement et la croissance exponentielle d’Internet peuvent laisser penser que, finalement, quelque soit l’information on doit pouvoir la trouver. Le tout est donc de trouver des méthodes et une organisation permettant de rentabiliser ce qui pourrait rester à l’état de potentialité inexploitée.

En effet, face à la prolifération des outils et techniques en perpétuel devenir ainsi que des services du Web, l’utilisation d’Internet à des fins d’Intelligence Economique nécessite une double compétence, à la fois en informatique et dans le domaine de l’investigation. C’est à ce prix que l’on pourra connaître et maîtriser les outils, connaître les différentes sources et estimer leur fiabilité, interpréter les informations, etc. Cela est d’autant plus nécessaire que, comme nous l’avons vu dans la première partie, les informations sont, par définition, partielles et d’une fiabilité inégale.

Pourtant, cette information existe et possède sa spécificité qui la rend indispensable pour toute décision stratégique. Dans un premier temps, nous allons analyser ce que propose le Web à celui qui veut observer une démarche d’Intelligence Economique. Puis, nous étudierons les principes et modalités de la Veille. Enfin nous élargirons notre démarche aux autres aspects de l’Intelligence Economique.

2.1. Les outils d’Internet au service de l’Intelligence Economique

  2.1.1. Les outils d’échange

Tout d’abord, nous trouvons les messageries électroniques qui permettent une circulation de l’information, sous quelque forme que ce soit, en temps réel, voir de façon interactive.

Puis, viennent les listes de diffusion ou mailing lists qui sont autant de services d’information sur mesure : on peut les choisir, s’y inscrire de façon relativement anonyme, les croiser, etc. sans d’autres difficultés que de les trouver et de relever son courrier électronique. Il est intéressant de tenter d’identifier les autres inscrits ou ceux qui se désabonnent, ceux qui écrivent où ceux qui n’écrivent plus, l’emplacement de la liste (sur quel site faut-il aller pour s’abonner ?), la nationalité des intervenants, les objectifs des articles, etc. On risque, au passage, de tomber sur d’autres professionnels de la veille et, pourquoi pas, de s’échanger des tuyaux… en conservant toujours une indispensable réserve et circonspection.

Enfin viennent les forums de News spécialisés par domaines que l’on peut consulter et auxquels on peut participer, ne serait ce que pour demander des informations que l’on n’arrive pas à trouver. Au-delà, l’analyse des forums permet d’identifier les sujets à la mode, et les entités (personnes, collectivités ou institutions) qui s’y intéressent. Dans ce genre d’analyse, il est indispensable d’être  très critique car on entre dans le domaine de prédilection de la rumeur et de la désinformation.

On peut également citer les FAQ (Frequently Asked Questions) comme indicateurs des tendances et des sujets qui deviennent d’actualité. On notera que les entreprise les mieux placées pour faire ce genre d’analyse sont les moteurs de recherche… en majorité américains, ce qui représente une mine d’information stratégique pour les centrales de renseignement.

  2.1.2. Les outils d’accès

Ce sont, globalement, ceux que nous avons étudié dans la première partie de cette étude : les annuaires, les moteurs de recherche et les métamoteurs.

Il est nécessaire d’ajouter tous les sites de téléchargement de logiciels sur lesquels on peut trouver des utilitaires pouvant répondre à certaines préoccupations spécifiques comme les aspirateurs de sites (si on veut explorer un site, pas trop lourd, hors ligne afin de ne pas y revenir en risquant de laisser chaque fois son numéro IP), des « cartographieurs » d’information (cf. Umap : ce logiciel crée un thesaurus des mots employés dans les documents qu’il est allé chercher avant de représenter l’ensemble sous forme d’un arbre de connaissance : il reste à affiner la carte en ne retenant que les extraits les plus pertinents), etc. Il faut là encore être très prudents et se renseigner sur l’ancienneté du logiciel que l’on choisit d’utiliser ainsi que les avis de ceux qui s’en sont servis (il est d’ailleurs conseillé d’éviter les versions bêta qui ont le fâcheuse tendance de planter les systèmes d’exploitation).

  2.1.3. Le travail sur les sources

On estime à 100 millions le nombre de documents pouvant être recensés par les moteurs de recherche  étant entendu que ce chiffre double chaque année. Aussi ne peut-on se contenter de rechercher des réponses, les plus exhaustives possibles, à des questions précises et occasionnelles. Bien au contraire, il faut s’attacher à l’exploitation de l’information informelle.

Des méthodes ne cessent de voir le jour pour interpréter le contenu de ces flux continus qui peuvent dépasser les bases de données conventionnelles et spécialisées. Pour l’essentiel, il s’agit de logiciels d’infométrie visant à automatiser l’analyse statistique et l’interprétation d’informations latentes. Cela permet de dégager l’implicite grâce, par exemple, à l’étude des champs lexicaux.

Existent également des outils d’extraction ( on parle de datamining) qui ne sont pas axés sur le principe des statistiques (celles-ci fournissent des données certes précises mais trivialement descriptives ). L’objectif est,ici, de tenir compte de données non renseignées, de la fiabilité ou de la précision insuffisante de certaines, pour fournir une information pas nécessairement précise mais qui permet:

    - de découvrir des relations ou des faits inattendus, des connaissances inexplicites que recèlent de gros gisements de données (par exemple, un service de gestion de cartes de crédits peut soupçonner que la carte d’un client a été volée si les habitudes de consommation et de débit changent brutalement) ;

    - d’extraire des informations pertinentes dans des sources informelles et apparemment pauvres en données factuelles (Internet ne contiendrait que 10 % de sites fournissant réellement de l’information).

Ainsi, Internet se caractérise plus par ses potentialités en termes d’acquisition de l’Information que par son contenu explicite (plus que des données, se sont des connaissances dynamiques qui circulent sur le Réseau). Le tout est de transformer ces potentialités en leur donnant la valeur ajoutée qui naîtra de leur découverte et de leur traitement.

2.2. La veille informationnelle sur Internet

L’Intelligence Economique ne saurait se résumer à la Veille. Mais, au regard de ce qui précède, il semble que la première fonction d’une cellule d’Intelligence Economique soit de surveiller ce qui se passe sur le Réseau, aussi bien en termes de nouveautés qu’en termes d’informations dans un sens plus large.

  2.2.1. Qu’est-ce qu’un veilleur  ?

La préoccupation maîtresse est le futur. Cela passe par la gestion et l’utilisation de l’information en fonctions d’objectifs – et d’auditeurs – préalablement établis. L’objectif est de mener une veille stratégique, c’est-à-dire une veille technologique, environnementale, concurrentielle, etc. sur des sources théoriquement ouvertes à tous.

Le veilleur est, pour schématiser, un analyste de l’ombre. Sa mission : rechercher et gérer l’information avant de l’analyser (il peut s’agir de deux personnes distinctes car ces deux tâches font appel à deux spécialités différentes).

L’expertise fournie est multiple et, surtout, dans l’obligation de s’adapter constamment au public mais également aux informations recueillies et à recueillir (si le veilleur travaille comme un automate autant confier sa tâche à un logiciel). Aussi le travail porte sur la connaissance des sources d’information et des outils de recherche , la validation des sources et la gestion des renseignements. Puis, dans un second temps, c’est le travail d’analyse qui débute : il s’agit de transformer l’information en renseignement opérationnel. Cela passe par le discernement de l’information pertinente, celle qui fera la différence en permettent d’acquérir un avantage compétitif.

Pour mener à bien cette tâche, qui se caractérise avant tout par une ouverture d’esprit maximale, il existe un certain nombre d’invariants à surveiller qui, grâce à Internet, sont tous accessibles de son ordinateur, en temps réel et pour un coût modique voir nul. Ainsi, dans le contexte d’une entreprise, la veille s’effectuera essentiellement sur :

    - la concurrence dans toutes ses manifestations : sites officiels (avec rapport d’activité et revue de presse), sites miroirs (et « anti »), sites des syndicats, liste de diffusion du secteur d’activité, etc.

    - la surveillance des brevets ;

    - la surveillance des gouvernements et des organismes de réglementation

    - etc.

En aval, intervient la diffusion opérationnelle et ciblée des renseignements en vue de faciliter la prise de décision. La boucle est bouclée puisque la mission d’une cellule de veille est de repérer et de diffuser l’information stratégique pertinente aux décideurs de la structure à laquelle elle appartient.

  2.2.2. Mise en place d’une structure de veille

Rappelons avant toute chose que la veille n’est pas uniquement technologique, qu’elle ne concerne pas uniquement les brevets, mais aussi les domaines culturels, commerciaux et juridiques.

Il faut, tout d’abord, évaluer la typologie de l’information:

    - l’information à caractère général ou veille passive : recueil de brevets,, de normes, de comptes-rendus de colloques, etc. On est là dans le domaine de diffusion le plus large qui concerne tous les membres de notre entreprise ;

    - l’information cernée à caractère précis : on descend au niveau des experts de chaque service qui doivent effectuer une veille, là encore passive, mais relative à leurs compétences.

    - l’information ponctuelle : on s’intéresse ici à un domaine restreint, aussi bien dans le temps que dans les sujets. Le public, quant à lui, peut être des plus large. Il peut s’agir d’une évolution juridique, technique ou commerciale qui concernera donc une personne, un service, voir l’ensemble de l’entreprise.

Nous allons maintenant nous intéresser au matériel, envisagé comme un outil de gestion de l’information :

    - on peut utiliser un serveur central qui répartira l’information sur l’ensemble des terminaux de l’entreprise. Toutefois il faut envisager d’importantes capacités de stockage et la mise en place d’un système d’archivage sur bandes ou disques magnéto-optique (cette solution permet d’isoler les données dans un souci évident de protection et de sécurité).

    - les ordinateurs doivent être reliés à Internet par modem numérique. Ces ordinateurs devront être isolés de l’ensemble du réseau interne sans risque de confusion possible (les imprimantes sont également autonomes). Pour permettre des transferts vers les terminaux de l’entreprise, on peut utiliser des disquettes Zip de 100 méga (préalablement vérifiées par des antivirus, réactualisables le lus fréquemment possible). Il est absolument interdit d’installer des modems externes aux terminaux : il est très facile d’oublier de les débrancher et/ou de se faire pénétrer pendant une connexion (par le biais d’un « back orifice » par exemple).

    - il faut se munir de scanners afin d’accélérer l’intégration des informations au sein de notre mémoire artificielle. Chacun doit pouvoir le faire en temps réel et en parfaite autonomie. Bien choir les logiciels OCR (reconnaissance de caractère) car on est appelé à scanner de multiples supports (prospectus, publicités, actes de colloques, graphiques, rapports d’activités, listes de participants à des forums ou à des manifestations, etc.).

Quant aux sources d’informations, elles devront être choisies avec attention afin de ne pas être noyés par l’information.

Il est indispensable que la cellule de veille ne soit pas isolée hiérarchiquement. C’est pourquoi toutes les compétences doivent être sollicitées lors de l’élaboration de ce projet. Celui-ci peut être l’occasion de voir comment l’information circule par le biais de l’Intranet mais aussi des discussions au sein de l’entreprise. On peut ainsi détecter s’il existe déjà au sein de l’entreprise une culture de l’information et de son partage. Reste alors à instaurer une méthodologie qui ne doit en aucun cas être un carcan aux suggestions les plus diverses.

A cela s’ajoute un travail de protection et de sécurité. En effet, nous savons que 95% à 99% de l’information est ouverte. C’est le 1% restant qui constitue l’élément sensible, l’information à protéger. Les fuites existent (négligence, indiscrétions, espionnage, oreilles indiscrètes en tous genres dans les taxis, les restaurants, les trains…) et nous savons malheureusement que la France est un des pays les plus pillés. Nous savons également les dangers des GSM (l’affaire récente de Corse est là pour nous le rappeler). Le problème des fax est identique (cf. le réseau Echelon). Les principaux éléments de sécurité à retenir sont donc :

    - le développement d’une culture de veille défensive en faisant appel par exemple à la peur des employés, sans toutefois entraver la circulation de l’information dans l’entreprise.

    - la classification de l’information sans pour autant tomber dans une paranoïa qui rendrait une telle mesure ridicule et inefficace.

    - la réglementation de l’information (et des ordinateurs portables) : certains documents ne doivent pas quitter l’enceinte de l’entreprise et, en cas de déplacement, doivent être fragmentés.

    - en cas d’envoi de documents importants (des devis, par exemple), on peut les crypter, envoyer des versions multiples en indiquant, par un bref coup de téléphone laquelle est la bonne, etc.

    - ne pas hésiter à se créer un jargon qui nous soit propre – un code, pour être plus précis – à utiliser entre nous lors de conversations sur GSM et autres transferts d’informations par Internet.

Pour que toutes ces mesures soient réellement efficaces et non pas seulement des vœux pieux, il est indispensable que chacun identifie les dangers relatifs à ses fonctions dans l’entreprise. Le service d’Intelligence Economique ne peut à lui seul définir une ligne de défense : c’est à chacun de réfléchir à ces questions.

De manière générale, il faut faire face à l’imprévu en restant constamment en alerte et en éveil face au marché, à ses clients, à ses concurrents, aux informations recueillies (cf. la désinformation), aux stagiaires, aux nouveaux arrivants, à ses propos, à ses déplacements, aux rencontres imprévues à l’étranger ou dans des colloques, etc.

Enfin, nous aimerions rappeler l’existence de l’Etat : c’est de là que vient l’essentiel de l’information (pour note, la France est le troisième producteur mondial d’informations spécialisées mais n’en est que le seizième utilisateur mondial) et nombres d’administrations possèdent en mémoire des informations-réponses aux questions que nous posons. De manière générale, l’information publique ne relève pas uniquement des « services » ou des agences publiques spécialisées : elle irrigue tous les corps de l’administration. Mais, cette attitude ne doit pas être à sens unique : chacun a un devoir de renseignement vis-à-vis de l’Etat : cela le rendra plus apte à nous aider par la suite!

  2.2.3. La Veille

La stratégie réside plus dans la navigation et l’utilisation des outils de filtrage que dans l’interrogation de moteurs de recherche. L’objectif n’est pas de recueillir de l’information au coup par coup mais d’établir une surveillance de tous les instants du Réseau afin de  :

    - découvrir de nouvelles connaissances ;

    - identifier des compétences ;

    - signaler et corréler des événements ;

    - mettre en évidence des corrélations ;

    - prévoir et coordonner des comportements collectifs ;

    - comprendre et produire de la contre information ;

    - trouver de nouveaux usages aux archives.

Grâce aux techniques d’analyse automatique de l’information, la Veille devient, en fait, une écoute constante d’un environnement dynamique, c’est-à-dire en renouvellement continu. Ce n’est plus un travail de documentaliste attaché à recueillir le maximum d’informations et d’abonnements papiers afin de les archiver pour le jour, hypothétique, où le besoin s’en fera sentir ! Il s’agit maintenant d’être offensif, de s’attacher à anticiper, à détecter et à poursuivre des opportunités. L’objectif est la nouveauté et l’innovation et non plus la veille réactive qui consistait à répondre à des questions et à faire face à des problèmes. En effet, comprendre les informations en fonction d’un certain contexte et les interpréter au regard de prises de décisions opérationnelles facilite sans conteste l’anticipation des termes porteurs d’avenir ainsi que la détection des idées ou des technologies obsolètes.

Mais, tout cela n’est pas sans conséquences : en cherchant l’information sur Internet, on est aussi observé  si bien qu’il faut savoir se protéger. Il faut le prendre en compte dans le contenu de la démarche d’intelligence stratégique. Mais, on peut retourner cette dimension en tentant de savoir qui fait quoi, où, comment et avec qui : en agissant ainsi, on dépasse le contenu proprement dit pour prendre en compte la réalité du Réseau.

2.3. Internet à l’usage de l’Intelligence Economique

En bouleversant l’économie de l’information, Internet a fait de l’Intelligence Economique… un produit de masse. Dans chaque secteur économique, un internaute peut s’abonner gratuitement à une liste de diffusion, consulter les archives des forums de discussion  pour savoir ce qu’on dit de sa société et de ses concurrents, lancer des agents intelligents sur des sites qu’il juge prioritaires, etc.

Mais, parallèlement, les professionnels de l’Intelligence Economique tirent de nombreux bénéfices de cette ruée vers Internet. Tandis que l’accès à l’Information se démocratise, les experts valorisent leur savoir-faire, c’est-à-dire la partie complexe de l’Intelligence Economique : le traitement de l’Information, sa diffusion et son exploitation rationnelle. Il y a tout un travail d’apprentissage et, donc, de formation que seuls des professionnels peuvent fournir. Trivialement, il faut apprendre à digérer l’Information !

  2.3.1. Principes d’Intelligence Economique

Nous ne reviendrons pas sur l’extrait du Rapport Martre que nous avons déjà cité en Introduction. En effet, nous allons nous attacher à déterminer des principes plus concrets et opérationnels .

Avant toute chose il faut le support du ou des dirigeants de l’organisation où est implantée la cellule de renseignement. Cela se traduit par l’allocation de ressources suffisantes et par l’affirmation de la nécessité de cette structure.

Le ou les responsables de celle-ci doivent être, si possible, choisis en interne en raison de leur connaissance de la structure et pour des raisons évidentes de sécurité. Quoiqu’il en soit, rien n’interdit d’embaucher un professionnel qui apportera les compétences faisant justement défaut. L’ideal-type comprendrait un expert du secteur d’activité dans lequel s’effectue le travail d’Intelligence Economique, un professionnel de l’information (exploitation des ressources en lignes et constitution d’une base de données interne) et, troisième et dernier point, un spécialiste des technologies de l’information pour gérer les applications réseau en interne.

Ces présupposés étant acquis, il faut définir clairement ce que l’on attend de la cellule d’Intelligence Economique et, ce, pour deux raisons essentielles : assurer la crédibilité et l’efficacité du projet. En même temps il est nécessaire d’identifier les utilisateurs et leurs besoins ainsi que les grands objectifs de l’entreprise. La prise en compte de ces deux niveaux permet, en effet, de « rentabiliser » le travail sans pour autant l’enfermer dans une simple fonction de documentation.

Mais, avant de se lancer dans des frais excessifs, il est bon d’effectuer un audit des sources d’information et de renseignement existants déjà dans l’entreprise . Cela permettra de les valoriser tout en évitant de créer des doublons qui pourraient, à terme, se révéler conflictuels : l’Intelligence Economique est une intelligence collective où chacun doit être associé. La tâche du « Monsieur IE » est également celle d’un animateur des flux d’informations déjà présents en vue de les rationaliser et de les intégrer dans un ensemble plus large et cohérent.

Au quotidien, le travail va consister à transformer l’information en renseignement. Nous le savons maintenant, l’objectif est de trouver les informations pertinentes afin de créer un renseignement utile pouvant guider le processus décisionnel. Cela implique un effort tout particulier à accorder à sa diffusion (celle-ci doit se faire vers la bonne personne, dans le bon format et, surtout, au bon moment : l’Intranet doit être complété par des rapports d’alerte personnalisés). On risque, là, de se heurter à l’éternel problème qui veut que détenir l’information c’est avoir le pouvoir. Il faut donc créer – artificiellement – une culture qui permettra d’obtenir le pouvoir… en partageant l’information.

Quoiqu’il en soit, il ne faut pas s’attendre à pouvoir comptabiliser les résultats de la création de la cellule d’Intelligence Economique (peut-on estimer le prix d’une occasion ratée dont on a jamais entendu parler ?). De même, autre déconvenue potentielle pour un dirigeant d’entreprise, les analyses et les renseignements fournis peuvent heurter, doivent heurter. C’est en cela qu’ils apporteront la dynamique nécessaire à la croissance.

Tout cela sera réellement efficace si, en créant le système d’Intelligence Economique, on s’attache à protéger l’entreprise contre l’extérieur mais également contre elle-même. Il faut rendre hermétique les flux informationnels en sensibilisant le personnel sur les dégâts que peuvent provoquer une fuite qui n’apparaissait pas comme telle au premier abord. De même est-il nécessaire de codifier le champs d’action de l’Intelligence Economique, surtout dans sa dimension offensive : ne jamais oublier que de l’information obtenue illégalement est très difficilement exploitable et peut se retourner contre l’entreprise.

Ces quelques principes ne sont que de grandes lignes directrices. Ce qui est indispensable, avant tout, dans une telle démarche est de conserver une posture enthousiaste et constamment en éveil. Le maître mot est sans aucun doute la curiosité permettent la prise d’initiatives.

  2.3.2. L’Intelligence Economique sur Internet

Internet permet, en l’absence (et non en remplacement) d’informateurs et d’experts, d’obtenir de l’information ou de rentrer en contact avec des experts dont certains, bien qu’inconnus, se montrent d’une surprenante bienveillance (les mêmes difficultés, surtout scientifiques, rapprochent plus que l’appartenance à une entreprise). Ainsi se créent des réseaux d’experts virtuels, plus efficaces, plus réactifs et moins coûteux que les réseaux d’informateurs traditionnels .

Dans la dimension dynamique du Web, on peut utiliser les forums de discussion s’il en existe sur des thèmes proches des problèmes auxquels on est soi-même confronté. Aussi peut on directement poser ses questions en sachant que la probabilité qu’un expert du domaine ou qu’un particulier ait déjà rencontrée les mêmes difficultés est très élevée. Si, malgré tout, les réponses obtenues ne sont pas satisfaisantes, il est toujours possible d’entrer directement en contact – par courrier électronique – avec la ou les personnes ayant répondu (dans une telle démarche il est très facile de se créer une adresse électronique ad hoc si l’on souhaite conserver un relatif anonymat ; il est tout de même plus judicieux de s’attacher à bien rédiger son message car les « fausses » adresses ne permettent pas de vous situer suffisamment pour accorder du crédit à votre requête). Quoiqu’il en soit, la durée de vie des discussion sur les forums est assez limitée dans le temps ; quant aux informations échangées, sauf à tomber sur un forum dédié exclusivement à ses préoccupations - dans ce cas, il sera plus rapide de la créer - , elles seront parcellaires et, surtout, sans aucune structure. Aussi faut-il se tourner vers le W3 où les serveurs sont localisés dans des entreprises ou des universités et les informations gérées par les propriétaires du serveur.

C’est maintenant qu’il faut appliquer outils et méthodes que nous avons évoqué ci-avant. Le sens critique doit être utilisé à son maximum. En effet, il n’est pas rare que l’information pertinente ne se trouve pas sur les pages officielles mais bien sur les pages personnelles des employés des organismes auxquels appartiennent ces serveurs. Par exemple, on peut trouver le CV de l’employé, dans lequel il décrit ses activités actuelles… que l’on peur comparer avec la version officielle fournit par le site officiel. L’idéal étant en la matière de trouver les pages « coup de gueule » des employés mécontents (ou des consommateurs, des clients, etc.). Pour trouver ces sites il faudra utiliser un moteur qui fera la recherche en texte intégral et non un répertoire organisé par thèmes.

Maintenant, il faut régler la question du surplus d’information générée par une requête : les résultats obtenus ne permettent pas toujours de répondre à la question posée. Il est alors nécessaire de passer par une phase d’analyse et de lecture critique afin d’accéder à une certaine forme de connaissance. Paradoxalement, ces inconvénients de la recherche d’information sur Internet peuvent être mis à profit : l’assimilation de l’information va se faire tout au long de la phase de recherche en interaction constante avec les outils utilisés. Prenons l’exemple d’un forum sur lequel de nombreux messages ont été échangés en rapport étroit avec nos thèmes de recherche : on peut alors lire ce forum de manière exhaustive pendant quelques jours et/ou identifier les différents participants afin de les contacter par courrier électronique et/ou poser directement des questions aux utilisateurs et /ou se connecter sur les pages personnelles des participants qui signent leurs messages par une URL et sur lesquelles on peut trouver textes et bibliographies commentées (cela est surtout valable chez les anglo-saxons).

L’Intelligence Economique ne s’arrête pas là puisque jusqu’ici, finalement, chacun peut développer ses propres stratégies avec un succès relatif dans la localisation de l’information recherchée. La vigilance doit se renforcer pour ne pas sombrer dans les mirages de l’Internet : ce n’est pas un tout qui se suffit à lui-même : on ne peut se satisfaire de ce qui reste une réalité virtuelle. L’expertise humaine, la connaissance humaine, reste indispensable, au moins pour croiser et valider l’information électronique. Si on ne le fait pas, on risque tout simplement d’altérer la réalité car nous ne sommes pas tous des cyber-branchés !

Pour autant, il serait irresponsable de refuser les apports d’Internet au nom de dangers, somme toute virtuels. En effet, Internet ne risque pas de disparaître de sitôt et se retrouveront marginalisés ceux qui se refuseront à exister sur le Réseau. De plus, Internet étant du domaine privé il est nécessaire d’y participer activement en évitant de laisser à d’autres la responsabilité de fournir de l’information. Agir ainsi reviendrait à perdre le contrôle de l’information, de son contenu et de se voir imposer une connaissance qui n’aurait plus rien de dynamique et d’interactive. Déjà que les vecteurs « mécaniques » de l’information du Réseau sont détenus par les américains , si on se conduit passivement il leur sera encore plus facile d’imposer le contenu des tuyaux, c’est-à-dire la connaissance. Il faut investir le Réseau, comme un terrain de conquête, pour pouvoir s’en servir au maximum de ses possibilités. Internet n’est pas le Minitel qui fonctionne sur le mode serveur-client mais un monde interactif !

  2.3.3. Les outils de l’Intelligence Economique

Jusqu’à présent nous n’avons vu les technologies de l’information comme un handicap, comme une contrainte dans la quête d’information pertinente. On se heurte à une sorte de magma informationnel, à une nébuleuse insaisissable qui nous englobe en nous imposant sa réalité. Pourtant, si la technologie a permis de créer tout cela, elle devrait permettre de l’exploiter dans la même mesure : on doit pouvoir capter et exploiter l’information que nous avons, en quelque sorte, contribué à créer .

Nous savons maintenant que certains outils peuvent être d’excellents collecteurs de l’information. cela renvoie aux techniques de stockage, de l’aide à la recherche et de la gestion électronique des documents. Finalement il s’agit de la routine du travail de documentaliste qui n’apporte rien en termes de valeur ajoutée à l’information : ce n’est pas du renseignement car il n’y a eu aucun travail d’analyse.

Pourtant, existent des outils qui permettent de débuter la phase d’analyse voir de l’améliorer. Ainsi trouve-t-on les application de text-mining (synthèses de dépêches, revues de presse internationales, etc.) qui utilisent les techniques de la linguistique et des mathématiques pour faire l’analyse et la synthèse de gros volumes d’informations, en format texte.

Ce n’est pas encore suffisant car il faut également le non-structuré, le non-officiel qui, comme nous l’avons vu, constitue un des apports essentiels du Web. Cela passe par un nouveau type d’analyse bibliométrique. Schématiquement, on utilise des outils qui transforment des données en langage naturel en une représentation informatique structurée qui va ainsi pouvoir être traitée en fonction des besoins. Certes il y a toujours une possibilité pour que notre langage soit dénaturé lors de cette transformation mais des logiciels existent et sont utilisés par les professionnels de l’Intelligence Economique.

A titre d’exemple, on peut citer TOPIC  (société Verity) qui offre un système d’indexation plein texte dont le principe repose sur une recherche par concepts. De même, la société Inforama commercialise NOEMIC qui indexe en temps réel les informations en provenance de tous les sources disponibles sur Internet dans des bases thématiques préalablement définies manuellement par les utilisateurs du système. On trouve également des représentations cartographiques de l’information récupérée qui font apparaître des champ d’interrelation entre des événements a priori indépendants (l’établissement de liens entre des mots permet de dégager des signaux faibles, indispensables à l’anticipation stratégique).

Tout cela n’en est qu’à ses balbutiements dans la mesure où aucun des outils disponibles sur le marché ne peut travailler seul, même après avoir été longuement programmé. Cela est d’autant plus vrai que dans le contexte d’anarchie informationnelle qui règne sur Internet, tous les coups sont permis, y compris la contre information et la propagande. Ainsi, la plupart des tâches essentielles comme la gestion d’hypothèses, la synthèse de l’information et l’évaluation de la vraisemblance incombent à l’homme. L’intuition et la créativité, éléments moteurs de l’Intelligence Economique, ne sont pas prêts de recevoir le qualificatif « artificiel ».

Nous venons d’envisager l’Intelligence Economique dans une acception relativement classique : la quête de l’Information stratégique et la surveillance de l’environnement concurrentiel. Pourtant, une nouvelle dimension ne cesse de se développer, en rapport étroit avec la croissance d’Internet : l’Infoguerre, qui concerne aussi bien les Etats que les entreprises : depuis la fin de la Guerre Froide la lutte est économique, l’affrontement est l’Economie.

L’INFOGUERRE

On l’a compris, qui dit Intelligence Economique, dit recherche d’informations, capacité d’anticipation et d’influence sur un marché. Pour Philippe CADUC, directeur de l’ADIT, « le Japon et les Etats-Unis en ont fait l’outil de leur domination économique » . On estime que l’espionnage (l’Intelligence Economique peut facilement devenir une entreprise de pillage d’information sur la concurrence) et la recherche ouverte d’information touche à 60 % le domaine économique contre 20 % pour le militaire. Il est donc incontestable que la guerre a changé de terrain.

Depuis 1997-98, la mode, en stratégie, est ainsi caractérisée par l’Intelligence Economique et la guerre de l’Information, deux facettes d’une même dynamique . Le terme de mode n’est en aucun cas péjoratif : il faut le comprendre comme une prise de conscience de nouveaux enjeux. Nous serions entré dans la société de l’information à l’issue de la société industrielle. Les éléments dominants sont donc la production, la circulation et l’utilisation de l’Information comme source de pouvoir et de richesse.

De façon triviale la guerre de l’Information peut se matérialiser par une cabale de pirates informatiques perturbant les éclairages, les téléphones les feux de signalisation, les banques, etc. Mais est-ce tout ? Sans conteste, non !

Afin de mieux appréhender cette problématique nous tenterons d’allier les aspects de « science-fiction » et ceux de la réalité quotidienne. Nous étudierons, dans une première partie, les grands enjeux de l’Infoguerre et ses concepts opérationnels. Puis, nous rapprocherons la quotidienneté de ce combat avec les enjeux de l’information avant d’élargir ces éléments à l’Intelligence Economique, comme moyen de gestion et d’action ultime.

3.1. Infoguerre et Cyberterrorisme

Nous allons envisager les grands développement qui ont tous pour point commun le réseau Internet comme lien ou moyen d’accès à tous les systèmes d’information. Formulé autrement cela revient à se étudier les risques induits par le « tout informatique ».

  3.1.1. Mythe ou réalité ?

Tout d’abord, un constat : cette problématique nous vient des Etats-Unis qui ont inventé le Pearl Harbor électronique. A la base du phénomène, on trouve une simulation, un jeu de guerre mis au point par la Rand Corporation . Il s’agit de six exercices qui se sont déroulés entre janvier et juin 1995. Les participants étaient, comme il se doit, des hauts responsables de la sécurité nationale et des industriels du secteur des communications. La situation la plus connue mettait en cause l’Iran qui, en février 2000, tentait de couper la production de pétrole de l’Arabvie Saoudite afin de faire monter les prix. Les Iraniens décident de porter le combat sur le sol américain en s’attaquant aux systèmes d’information. Ainsi, les centraux téléphoniques des base américaines deviennent inutilisables, un train convoyant du matériel militaire destiné à être envoyé en Arabie Saoudite déraille, la Banque d’Angleterre déjoue une tentative de sabotage de son système de transferts de fonds, une banque voit son ordinateur créditer et débiter aux hasard des milliers de dollars, la panique s’étend à tous les épargnants du pays, tout Washington est privé de téléphone, des programmes pirates de propagande envahissent les chaînes de télévision, etc. Ainsi, force est de constater, face à un tel scénario, que n’importe qui peut vous attaquer, qu’il est impossible de savoir ce qui est réel et qu’il est très difficile de réaliser qu’il y a une attaque !

On le voit, un telle fiction est idéale pour entretenir psychose et … budgets des services de renseignements américains. Pourtant, il n’en reste pas moins que le danger existe et que, d’ailleurs, un certain nombre de gouvernements, les Etats-Unis en tête, possèdent des équipes de pirates informatiques pour tester leur systèmes d’information, mais pas seulement .

Pourtant on peut se demander, finalement, si le danger n’est pas ailleurs. En effet, l’Infoguerre peut également s’inscrire dans une stratégie de déstabilisation et d’affaiblissement général . En effet, il faut également prendre en compte la dimension psychologique de cette guerre au même titre que l’on s’intéresse à la destruction – ou la maîtrise - des systèmes de communication. Ainsi, on s’aperçoit qu’il s’agit aussi d’une guerre pour l’information , d’une lutte pour s’approprier l’information et maîtriser des secteurs jugés stratégiques au détriment des autres. Cela n’a rien de nouveau en soi si ce n’est la dimension induite par les Nouvelles Technologies de l’Information et de le Communication. A cela s’ajoute une guerre contre l’information (on parle aussi de stratégie d’interdiction) qui vise les infrastructures et systèmes de communication (cf. les bombes électromagnétiques utilisées pendant la Guerre du Golfe). Enfin, on trouve la guerre par l’information (ou guerre psychologique) dont la cible est l’esprit humain et non plus des composants électroniques. Internet joue un rôle important dans la mesure où, comme nous l’avons vu, chaque utilisateur laisse des traces qui permettent de définir son profil (surtout avec les nouveaux services d’accès gratuit) qui permettent de lui envoyer, sans qu’il s’en rende toujours compte, des informations ciblées sur lesquelles il n’a aucun impact, il n’effectue aucune démarche volontariste (on peut parler de « push d’intox »). Finalement on rejoint la problématique de la maîtrise de l’information que nous avons évoqué dans la partie consacrée à l’Intelligence Economique.

  3.1.2. Le Cyberterrorisme

Selon un rapport du service canadien de renseignement et de sécurité, « tout pays qui utilise les nouvelles technologies est vulnérable au cyberterrorisme » . Ainsi les terroristes ont accès à la télédétection spatiale et à l’imagerie par satellites. Ils peuvent pénétrer tous les sites, dans une acception large, et détecter les failles en matière de sécurité des installations militaires et nucléaires. De nouveaux systèmes de communication indéchiffrables sur Internet leur permettent de communiquer entre eux de façon sûre. Ils peuvent blanchir de l’argent en utilisant le système des cartes de débits à puce. Il n’y a pas à dire tout cela est impressionnant mais paraît bien loin de nos considérations. Pourtant, il s’agit de l’aspect maximal de dangers qui guettent n’importe quel utilisateur d’Internet.

Ainsi Winn SCHWARTAU propose la classification suivante : 

    - Classe 1 : Guerre de l'information contre les personnes : cette classe comprend les atteintes à la sphère privée de l'individu. Cela inclut la divulgation d'informations stockées dans une quelconque base de données. Nous n'avons aucun contrôle actuellement sur les données nous concernant qui se trouvent un peu partout telles que : l'historique des utilisations d'une carte de crédit, le montant d'un compte en banque, le dossier médical, les fiches de paye, le casier judiciaire, etc. En résumé, il faut retenir les points suivants : 1/ des centaines de bases de données contiennent ensemble une image digitale de notre vie ; 2/les informations disponibles ne sont pas forcément correctes ; 3/il est presque impossible de corriger des informations erronées. 

    - Classe 2 : Guerre de l'information contre les entreprises : concrètement, aujourd'hui, cette classe correspond à la concurrence entre entreprises qui s'affrontent dans une guerre sans pitié. L'espionnage industriel est une des activités possibles, mais la désinformation est un moyen très efficace de se débarrasser d'un concurrent. A l'heure actuelle, il est très facile de lancer des rumeurs avec une portée mondiale grâce notamment à Internet. De plus il est bien connu que plus un fait est démenti, plus l'opinion publique se dit qu'il doit y avoir quelque chose, qu'il n'y a pas de fumée sans feu. 

   - Classe 3 : Guerre globale de l'information : ce type de conflit vise les industries, l'ensemble des forces économiques, l'ensemble d'un pays. Dans cette classe, il faut multiplier la puissance des classes 1 et 2 par un grand facteur. Avec des investissements ridicules vis à vis de ceux consentis dans le cas d'armes "traditionnelles", il est possible pour un groupe terroriste ou un pays quelconque de mettre à genoux une grande puissance économique. L'avantage pour l'attaquant, s'il entre dans la catégorie des pays en voie de développement, est qu'il ne sera que très peu sensibles à des représailles de même nature. De plus, il serait très difficile pour un pays industrialisé et démocratique de répondre à une attaque de ce genre par des représailles armées, sans se mettre à dos l'opinion publique. 

Concrètement, cela peut se traduire par :

    - Un assaut sportif : le hacker a pénétré dans le réseau et le fait savoir par un message. Il a pu piéger le programme, modifier ou voler des informations. C'est la nouvelle version du guerrier qui prend des trophées, lance des cartes de la mort, fait une parade de victoire... 

    - Un assaut captif: son but est le vol ou la capture. Le paiement par communication du numéro de carte de crédit offre de grandes possibilités déjà exploitées. A un niveau supérieur, il est théoriquement possible de détourner des fonds considérables ou de prendre en otage un système. 

    - Un assaut massif: les caractères sur l'écran se déforment ou disparaissent, les mémoires sont vidées. C'est l'apocalypse informatique, la guerre totale! 

    - Un assaut furtif: il n'y a aucune trace d'attaque, tout est normal ... ou presque. Dans les millions de calculs nécessaires à l'élaboration d'un programme aérospatial une erreur est insérée. Le prototype s'écrase. Retard et surcoût considérable. Autre scénario, les informations à l'écran sont fausses, mais paraissent véridiques: vous êtes désinformés, voir anesthésiés... Sabotage et désinformation. Rien ne va plus, mais la victime ne sait pas pourquoi.

En définitive, l'attaque la plus efficace, la plus sournoise reste celle qui n'est pas détectée: le mal invisible. C’est ce qu’on appelle également l’attaque sémantique  : elle exploite la confiance qu’ont les utilisateurs dans leur système : il s’agit de modifier les informations entrant ou sortant dans le système à l’insu des utilisateurs afin de les induire en erreur.

Pour terminer passons en revue quelques outils dédiés à ce genre d’activités, étant entendu que la majorité des failles sont internes, de façon volontaire ou non  :

    - Chipping : c’est l'implantation matérielle d'un cheval de Troie. Cela consiste à rajouter une fonction, à l'insu de l'acheteur, dans un composant électronique d'une arme (ou autre matériel), de façon que si un jour cette arme devait être utilisée contre le pays vendeur, elle puisse être neutralisée à distance.

    - Bombes EMP-T : depuis le début de l'ère atomique, les militaires ont entrepris de protéger leurs systèmes électroniques des radiations électromagnétiques qui seraient produites lors d'une explosion nucléaire. Sans mesures adéquates, il est possible de détruire les systèmes électroniques d'un pays en faisant exploser une bombe atomique à haute altitude. Depuis des années, se préparent des armes non-mortelles, chargées de neutraliser les systèmes électroniques ennemis. D'après Winn SCHWARTAU, des bombes EMP-T (Electro-Magnetic Pulse Transformer) peuvent être construites pour quelques centaines de dollars, et sont capables effacer les information stockées sur un support magnétique à 200 mètre à la ronde.

    - Radiations Van Eck : jusque là, nous avons essentiellement traité des cas de piratages ayant pu avoir lieu parce que l'ordinateur pris pour cible était ouvert au monde extérieur, que se soit au travers d'un réseau informatique ou par téléphone. Envisager que son ordinateur personnel, coupé du monde extérieur et sur lequel on est en train d'éditer un rapport confidentiel, peut  tout révéler à une personne se trouvant à une centaine de mètres de son bureau, on entre dans le domaine la science-fiction. C'est tout à fait possible. Un écran d'ordinateur émet des radiations, même avec les normes les plus strictes (civiles), et il est possible avec l'équipement adéquat de reconstituer son contenu à distance. Cette technique a été employée par le FBI pour la surveillance de Aldrich AMES, un agent du KGB au sein de la CIA. Le terme utilisé par l'armée américaine pour décrire cette technologie est « TEMPEST monitoring ». Un équipement protégé contre ce type d'écoute est dit TEMPEST certified. La norme indiquant les détails, tels que la quantité de radiations émises autorisée afin d'éviter toute détection est classifiée. Aux Etats-Unis, comble de l'aberration, l'utilisation du TEMPEST monitoring est possible par le gouvernement sans demande d'autorisation, alors qu'il est illégal, pour un particulier ou une société privée, de s'en protéger! Frank JONES qui travaille dans une société produisant des équipements dans le domaine, entre autres, de la sécurité informatique, explique grossièrement comment ils ont conçut un tel équipement de détection afin de pouvoir réaliser des protections pour les ordinateurs de leurs clients. Une fois mis au point, ils ont testé avec succès leur matériel, sur des cibles tels que des banques, des postes de police, des distributeurs de billets de banques, des téléviseurs et des bureaux. 

 

3.1.3. Faut-il avoir peur de la guerre de l’information ?

Ce mélange habile de prospective et de réalité représente, reconnaissons le, une des stratégies classiques de la guerre psychologique. Aussi, faut il raison garder et analyser froidement la situation .

Tout d’abord, les Etats-Unis, qui sont informatisés depuis des décennies et qui ont une pléthore d’ennemis pouvant se permettre les coûts peu élevés d’un piratage, n’ont jamais connu l’ébauche d’un début de mise en œuvre du scénario de la Rand Corporation. Certes les systèmes d’information sont attaqués et les sites officiels sont piratés régulièrement. Pourtant cela reste à un niveau maîtrisable d’autant que l’attaque va de paire avec le renforcement de la protection. Ainsi, enfin d’empêcher de pirater les systèmes informatiques de leurs sites stratégiques, les autorités américaines ont créé, il y a un an, un centre de protection des infrastructures rattaché au FBI . Ce centre a mis en place un réseau de surveillance sur tout le territoire de tous les sites considérés comme stratégiques (les centrales électriques, l’approvisionnement en eau, les banques, les services d’urgence, la défense, etc.). De plus, le Plan National pour la Défense du Cyberespace Américain prévoit de mettre en place, avec le secteur privé un centre d’alerte pour combattre le Cyberterrorisme d’ici 2003. 1,4 milliard de US$ serait nécessaires pour construire un réseau permettant de détecter les attaques et pour favoriser la recherche et le développement de la sécurité des systèmes informatiques.

Quoiqu’il en soit on reste dans la continuité d’une problématique que l’on pourrait qualifier d’éternelle : les banques ont toujours fait l’objet de convoitises et les secrets industriels ont toujours attiré les espions. Il a donc toujours fallu se protéger contre cela. Reste un travail de prise de conscience à effectuer : beaucoup d’administrations sont en effet convaincues soit que les intrusions ne sont rien de plus qu’une nuisance soit qu’elles peuvent être prévenues par des mesures de sécurité occasionnelles. Par contre, si les incidents s’accumulent, les usagers prendront, de fait, la sécurité au sérieux et agiront en conséquence.

D’un point de vue technologique, il est probable que les firewalls et les détecteurs d’intrusion (on retrouve ce que nous avions évoqué quant à la maîtrise des flux d’information). Si on est capable de construire des systèmes, on doit également pouvoir en corriger les défauts. D’ailleurs ce n’est pas pour rien que la majorité des actes de malveillance commis de l’intérieur ou grâce à des complicités internes. Cela ne doit pas pour autant nous faire oublier que toute connexion à Internet représente une opportunité ou une potentialité d’être pénétré.

Face à la croissance du Réseau il est impossible de tout protéger. C’est pourquoi il est indispensable de déterminer le principal du périphérique et de s’attacher à ce que le second ne permette pas d’atteindre le premier comme c’est trop souvent le cas (un pirate s’attaque à un ordinateur d’un réseau ou à une application informatique afin de pouvoir atteindre l’ordinateur central).

Concernant les procédures de protection, il y a beaucoup à attendre des signatures numériques (formules mathématiques ne devant jamais entrer dans le réseau ou résider dans le serveur)… même si elles représentent, a contrario, autant de mouchards potentiels. En effet, aujourd’hui, la plupart des systèmes limitent l’accès grâce à des mots de passe envoyés en clairs, c’est-à-dire facilement devinables (avec un minimum de psychologie) ou induits grâce à des routeurs. De plus ils sont stockés dans les serveurs… qu’il servent à protéger.

Aujourd’hui, toutes les données peuvent être isolées grâce aux CD-ROM qui ne coûtent plus rien. De plus, ceux-ci sont immunisés contre les virus postérieurs à leur production. Quand le CD-ROM réinscriptible se sera suffisamment démocratisé, il sera possible d’enlever la mémoire de son ordinateur pour n’y laisser que les logiciels d’exploitation.

Dans l’imagination des parades, il ne faut pas oublier l’espace qui reste le meilleur isolant : si le système n’est pas raccordé en réseau et n’a pas d’accès à l’extérieur, il est tout simplement inviolable. Les systèmes confidentiels n’ont pas nécessairement besoin d’être équipés de back orifice qui peuvent se révéler incontrôlables. 

Enfin, pour en finir avec le scénario catastrophe de la Rand Corporation, il semble raisonnable d’estimer que la durée de l’attaque ne pourrait se prolonger au-delà de deux jours , sauf à considérer que les Américains restent inactifs et incompétents. Cela reviendrait approximativement à une perte de PNB de 20 milliards de US$ : l’ouragan Andrew en a coûté 25, le tremblement de terre de Northridge en Californie 15 et le tempête de neige du nord-est, en 1996, 10. Les Etats-Unis y ont survécu. Au-delà, si un groupe décide de soumettre les Etats-Unis ou d’affaiblir leur capacité de réaction, cela indique clairement une volonté d’assumer ces actes dans un dessein bien défini qui sera finalement identifié et permettra aux américains de riposter, en ayant la capacité de faire bien pire avec les soutien de la population et de leurs alliés. A titre anecdotique, en septembre 1998, le Pentagone a riposté contre des pirates par le biais d’une application Java qui inondait les ordinateurs des assaillants de textes et d’images… jusqu’à ce qu’ils soient hors service 

En définitive, la protection de l’infrastructure de l’information - nationale ou privée - est inéluctablement du domaine privé : il n’existe en général pas d’entré forcée dans le cyberespace. Si des personnes malveillantes sont parvenues dans un système c’est parce que des chemins existent qui le leur permettent. Il est donc temps que les propriétaires et les concepteurs de systèmes bloquent ou gardent ces chemins. Finalement, c’est en les rendant responsables des dommages occasionnés par leur inaptitude ou leur étourderie que l’on peut leur donner toute la motivation nécessaire pour trouver le juste équilibre entre le coût, la fonctionnalité et la sécurité (sans compter le marché que cela représente pour les concepteurs d’antivirus qui ont compris l’intérêt à se placer sur le créneau de la réparation de ce genre d’erreurs).

3.2. L’Infoguerre au quotidien

  3.2.1. Les hackers mis à part

Cet inventaire a pour but de montrer en quoi l’Infoguerre est quotidienne, en quoi, finalement, elle nous est connue, parfois sous d’autres noms .

Aux Etats Unis, les exemples sont multiples d’employés du secteur privé qui commettent des infractions informatiques tout simplement par appât du gain. Aucune entreprise n’est épargnée. Tout ce qui a une valeur peut faire l’objet d’une attaque interne : noms, adresses, dossiers de crédits, mots de passe, numéros de cartes de crédit, secrets industriels, scientifiques, technologiques et commerciaux, transferts de fonds, numéros de téléphones confidentiels, etc. 

Les vendeurs de matériel informatique et électronique et de services ainsi que les consultants sont très bien placés pour mettre hors d’usage le matériel et les systèmes sur lesquels ils ont travaillé, particulièrement lorsqu’il y a des contentieux commerciaux.

Les gouvernements et les Etats sont les premiers producteurs d’informations et de renseignements confidentiels et secrets. Cela concerne également les renseignements personnels sur les nationaux : cela vaut beaucoup d’argent pour quiconque sait les utiliser intelligemment. Quand on sait que la majorité des attaques viennent de l’intérieur d’un système…

On peut également s’intéresser aux représentants de la loi. Aux Etats-Unis, selon SCHWARTEAU, le service de police de Los Angeles a violé la loi pendant plus de 50 ans, accumulant illégalement des milliers de dossiers personnels sur des politiciens, des syndicalistes, des acteurs, des athlètes professionnels et des journalistes en ayant recours à l’écoute électronique illégale. Lorsqu’on ne parvient pas à obtenir un mandat de perquisition par la voie légale, on procède à l’écoute illégale, on va chercher des preuves que l’on attribue ensuite à un informateur anonyme pour obtenir ensuite un mandat.

Les narco-terroristes et la guerre de la drogue représentent une mine d’or pour les délinquants de tout acabit. Jamais les organisations criminelles et les mafias de toutes sortes n’ont eu autant d’argent et de moyens que maintenant grâce aux « Etats-voyous ». Avec l’argent dont ils disposent, il est logique de croire que ces groupes possèdent maintenant la technologie moderne pour faire trembler les Etats. Ils constituent déjà et ils constitueront de plus en plus dans l’avenir des redoutables guerriers de l’information.

Les petits criminels et le crime organisé se sont adaptés à l’argent digital et vont chercher l’argent où il se trouve, c’est-à-dire dans les systèmes informatiques. Le revolver est remplacer par le clavier tandis que les cibles restent les banques et les distributeurs de billets.

Les mailers et telemarketers sont des spécialistes de la collecte de listes de noms à des fins de sollicitations postale, téléphonique et « multimédiatique ». C’est ce qu’on appelle le junk mail . Une fois sur une liste, on y reste pour longtemps avec son adresse, ses habitudes de consommation, ses capacité de crédit, etc.

Les risques s’étendent même aux médecins, aux hôpitaux et aux compagnies d’assurances. Les informations contenues dans son dossier médical peuvent être étalées sur la place publique dans le seul but de nuire à l’individu concerné. C’est, par exemple, ce qui est arrivé à un représentant républicain américain, Tommy ROBINSON, qui se présentait pour le poste de gouverneur de l’Arkansas : pendant sa campagne électorale un article de journal a révélé qu’il buvait une bouteille de bourbon par jour : cette information, erronée, provenait de son dossier médical … qui avait été falsifié. D’autre part, les compagnies d’assurance sont de grosses consommatrices de dossiers médicaux et, souvent, les renseignements qui y sont contenus sont déterminants sur leur décision payer ou de ne pas payer. Il y a beaucoup d’argent en jeu et les informations contenues dans les dossiers médicaux valent de l’or. Tout cela constitue un attrait considérable pour les guerriers de l’information.

Bien évidemment, il nous faut s’intéresser aux agences d’investigation et de sécurité privées. SCHWARTEAU affirme que beaucoup d’entre elles sont dirigées par d’anciens policiers payés pour obtenir des informations confidentielles. Or, ces informations dont leurs clients ont besoin sont souvent détenues par des organismes dont la sécurité est assurée… par d’anciens policiers. Ainsi, la solidarité qui unit la grande confrérie des policiers et des ex-policiers joue alors à plein et ces derniers peuvent se procurer les précieux renseignements qui sont interdits aux citoyens ordinaires.

On peut continuer avec quelque chose d’aussi banal que les supermarchés. Avec les moyens modernes, chaque achat effectué est surveillé, enregistré, stocké, comparé et analysé par des centaines d’ordinateurs. Les résultats sont souvent vendus à des firmes de marketing qui ont des catalogues spécialisé par client… Imaginons les dégâts que ce genre d’agissements si un homme marié achète des préservatifs avec sa carte de crédit !

Viennent également les politiciens. Tout le monde se souvient des « plombiers » du Watergate et leurs dirigeants à la Maison Blanche. Ils étaient des guerriers de l’information. En France, nous avons l’exemple récent des écoutes de la Cellule de l’Elysée. De même beaucoup de groupes politiques, essentiellement extrémistes, utilisent Internet pour diffuser de la propagande haineuse. La prochaine étape sera la déstabilisation des Etats dans le Cyberespace.

Se pose également le problème des membres des services de renseignement du Pacte de Varsovie (cf. la Stasi et le KGB) qui se sont retrouvés au chômage après la chute du Mur de Berlin. Ces gens ont beaucoup d’expérience dans beaucoup de domaines, du chantage à l’intimidation en passant par la désinformation et la surveillance électronique. A qui vendent-ils leurs services ?

Nous ne nous appesantiront pas sur les terroristes. La Rand Corporation s’en est déjà chargée.

Par contre, l’espionnage industriel nous fait revenir en plein dans nos préoccupations d’Intelligence Economique. Il est intéressant de relever que ce terme est finalement inexacte : nous ne sommes plus dans l’ère industrielle mais dans celle de l’information. On devrait plutôt parler de guerre de l’information dirigée contre des concurrents, dans n’importe quel créneau de l’activité économique. La première illustration de ce phénomène, dans sa modernité, nous vient …des Etats-Unis lorsqu’il fallut reconvertir la CIA. Il s’agit de Friendly Spies de Peter SCHWEITZER qui analyse en détail comment les Français, les Allemands (le BND aurait un groupe de crackers spécialisé dans l’espionnage informatique), les Israéliens (ce sont les initiateurs de l’affaire Promis, premier logiciel rendu intéressant grâce à son back orifice ), les Coréens, les Japonais, les Anglais et les Canadiens ont espionné les entreprises américaines pour obtenir des renseignements commerciaux leur permettant de vaincre les Etats Unis… qui avaient sans aucun doute oublié d’utiliser le réseau Echelon et qui n’avaient pas encore eu des membres de la CIA sous couverture diplomatique expulsés de France.

En fait, se sont les grandes entreprises qui sont les acteurs de premier plan dans l’Infoguerre  : la majorité de l’infrastructure informationnelle leur appartient ou leur est dédiée et qu’elles peuvent s’impliquer dans l’Infoguerre de classe 2 contre un rival. Mais, elles donnent beaucoup plus de priorité à la communication qu’à la protection : elles préfèrent cacher le problème plutôt que d’en parler et de risquer de voire leurs actions baisser. Pourtant, il est incontestable que n’importe qui, ou presque (combien d’attaques sont perpétrées par des amateurs qui essayent les outils de piratage mis à la disposition sur le Réseau ?), peut attaquer un système civil. L’un des plus grands hackers de la décennie était un adolescent diagnostiqué avec un trouble d’apprentissage, une déficience mentale et un Q.I. de 70 qui n’avait rien d’autre à faire que de surfer sur le Réseau.

  3.2.2. Gestion stratégique de l’Information

La concurrence internationale, en termes de guerre de l’information, soumet les entreprises à une extraordinaire pression. En effet, la survie passe par un changement complet de méthodes. Concrètement, si les 10 dernières années ont conduit à remettre en cause 50 ans d’organisation - hiérarchique et réglementée - , les 5 prochaines risquent de mettre à bas 5 siècles de structures et procédures autour desquelles s’était faite la puissance de l’Europe  : le contrat social et d’entreprise, la relation entre l’entreprise, la banque, les actionnaires, les salariés, les administrations, la territorialisation de la firme, etc. Actuellement, la mondialisation des réseaux d’information confronte 800 millions de personnes qui croient encore au Droit et 5 milliards d’autres qui veulent à tout prix se faire une place au soleil et pour qui les règles de droit international n’ont pas de sens.

Finalement, c’est Internet qui traduit le mieux cet état de fait. Pour être crédible au plan international, une firme doit y faire connaître ses produits, ses clients et, souvent, ses références techniques. Ce faisant, elle ouvre une porte à l’espionnage électronique. Des concurrents ayant parfois un chiffre d’affaire dix fois plus important n’hésiteront pas à tout mettre en œuvre pour casser et systèmes de sécurité. De même, quand il s’agit de répondre à un appel d’offres, la consultation, nécessairement électronique, des sous-traitants et fournisseurs éventuels permet aux concurrents de tracer à l’avance le contenu de l’offre et de devancer l’entreprise ainsi espionnée sur le marché convoité.

En dehors de cette exacerbation de la concurrence, le Réseau permet l’épanouissement de nouveaux comportements de type maffieux. Ils aboutissent à de véritables manipulations de l’information, à des chantages et à des raids divers contre lesquels il faut apprendre à se protéger. 

La seule solution, pour les entreprises, et ce quelque soit leur taille, est d’effectuer une révolution managériale afin de privilégier la vitesse de réaction. L’idéal serait de développer l’autonomie et l’initiative individuelle ou locale tout en durcissant le management transversal afin de garder et de renforcer une indispensable cohérence d’ensemble. Finalement, nous retrouvons les qualités que nous avions évoquées dans notre partie sur l’Intelligence Economique : la flexibilité, la compétence et l’ouverture d’esprit font la différence. Malheureusement, apprendre à devenir plus compétent est difficile et long que d’acquérir de nouvelles ressources techniques. D’ailleurs, en ce qui concerne l’usage de l’information en vue d’une meilleure prise de responsabilités, personnels et dirigeants se montrent encore très réticents et continuent de reproduire des schémas plus que dépassés.

Pourtant une politique et une stratégie de l’information constituent la meilleure parade aux fuites inconscientes ou accidentelles. Ce la évite également à des personnels compétents dans leur domaine, mais novices dans le management de l’information de se substituer aux professionnels expérimentés et formés aux techniques de l’influence et de la manipulation de l’information. Finalement, le plan stratégique de contrôle et de maîtrise des communications doit prendre en compte la formations des personnels. Chacun doit connaître le discours et l’image que l’entreprise souhaite communiquer ; On rejoint le problème classique en Intelligence Economique de la maîtrise des flux d’informations sortant de l’entreprise et de leur organisation.

3.3. Désinformation et communication de crise

  3.3.1. Les principes de la désinformation

La désinformation est la technique la plus complexe, mais aussi la plus difficile à classifier. Elle peut être utilisée comme action en soi ou comme support à une autre action que ce soit de manière offensive ou défensive. 

Ce concept provient du mot russe « dezinformatzia » qui signifiait, dans l'encyclopédie russe de 1947, " l'utilisation de la liberté de presse pour manipuler les masses " . On peut la définir comme l'usage délibéré de l'information dans le but de fausser la perception de la réalité pour la cible. Elle vise soit à tromper l'antagoniste ou à influencer l'opinion publique soit à amener la cible à comprendre certaines croyances qu'ils auraient autrement en aversion ou soit à revendiquer un mensonge comme véridique. De façon plus générique, il s'agit d'un mensonge organisé dans l'intention de tromper la cible en faveur de la politique de l'émetteur à une époque où les moyens de diffusion de l'information sont omnipuissants.

En allant plus loin, on peut dire que toute information a une teneur en désinformation par ce que l'individu est incapable d'atteindre l'exactitude dans ses perceptions et que chaque individu possède une appréciation relative de l'importance des choses. Mais là, on s’égare de notre sujet.

Une information possède deux éléments : le contenu de l'information et sa source. Il y a mensonge, et donc désinformation, quand un de ces deux éléments manque d'intégrité. La désinformation comme action vise principalement l'opinion d’une population, dans un sens large excluant les dirigeants puisque la manipulation des dirigeants peut se faire par l'entremise de l'opinion publique. La désinformation comme support vise à renforcer l'effet d’autres actions psychologiques soit en augmentant leur impact, soit en favorisant leur caractère clandestin. 

Les opérations constituent les diverses façons d'altérer la représentation de la réalité . Elles sont fonction du choix que le « désinformateur » fait des éléments à montrer ou non et fonction de sa thèse. Ce dernier peut soit réduire des éléments (omission de faits, négation, minimisation ou suppression de trace), soit mettre en valeur des éléments (exagération, exhibition) ou soit faire une combinaison des deux (exagérer l'importance de certains faits et en omettre d'autres). S'il manque des éléments pour soutenir une thèse, le désinformateur peut en inventer. L'omission est l'opération la plus facile car elle ne soulève pas de contradiction.

Enfin, la surprésentation est une technique donnant l'illusion de participer à l'activité et de pouvoir faire quelque chose à la situation. Il suffit de présenter un maximum d'informations (souvent en direct) superflues afin de masquer les informations importantes (c’est un peu la stratégie américaine : tout est publié et en ligne mais si on ne sait pas où chercher on ne peut trouver, dans le meilleur des cas, ou on commet des erreurs, dans le pire des cas).

  3.3.2. La désinformation sur Internet

Elle a essentiellement lieu dans les Newsgroups. On estime leur nombre total à 17 000 ; certains sont modérés par un responsable qui filtre les articles (c’est un modérateur) tandis que d’autres sont totalement libres .

Certes, le culture communautaire de partage de l’information qu’est la philosophie originelle du Réseau encourage les échanges spontanés, les rencontres virtuelles. Pourtant, les sujets brûlants, intéressants ou pointus abordés dans ces forums sont automatiquement pollués ce qui oblige à vérifier et recouper les informations obtenues.

En effet, des techniques, au demeurant traditionnelles, de désinformation et d’influence sont régulièrement employées, pour des motifs, d’ailleurs, relativement diversifiés : il ne s’agit pas d’un complot planétaire. Il peut s’agir de plaisantins spécialisés dans les canulars, de groupes de pression, de concurrents camouflés en intervenants classiques, etc.

Les techniques sont multiples mais, là encore, il est possible d’éviter un certain nombre de pièges en les analysant et en essayant de les garder à l’esprit :

    - le plus neutre, mais également le sournois, est le mimétisme : on reproduit naturellement les comportements d’une communauté pour s’y insérer et être reconnu ;

    - de même on trouve les dangers de la sympathie : en dehors des échanges purement professionnels et donc implicitement codifiés, peut jouer la confusion concurrent/confrère qui conduit à des confidences entre « spécialistes » ;

    - la réciprocité de l’information (donnant-donnant) ne conduit pas toujours à un résultat à somme nulle quand on ne possède pas une vue ou une analyse stratégique complète de son entreprise, de celle d’en face, ou du secteur concerné ;

    - il est parfois dangereux de se fier aux avis d’experts qui orientent le débat : ils peuvent empêcher d’obtenir des réponses à ses questions ;

    - existent également des fuites organisées qui visent à faire réagir ou à compromettre ;

    - etc.

On l’a compris, manipuler et influencer un Newsgroup est d’autant plus facile lorsqu’un nombre important de participants semble avoir le même point de vue. Certaines entreprises n’hésitent pas à multiplier les foyers de désinformation, les agents anonymes, les participants fictifs, etc. pour influer sur l’orientation d’un groupe ou d’un sujet. Un professionnel de l’information peut aisément dessiner le profil des intérêts d’un participant ciblé et l’amener à se dévoiler. L’enjeu est de taille car ces forums sont de véritables caisses de résonance qui peuvent modifier les schémas de réflexion et les points de vue et révéler plus que ce que l’on a voulu dire.

La communication par ordinateur n’est pas étrangère à ce phénomène. Chacun sait qu’elle engendre un Etat proche de l’hypnose (dépravation sensorielle). Cela entraîne alors des comportements tels que la satisfaction permanente de la curiosité immédiate et non ciblée, l’irresponsabilité face à la facilité de l’anonymat (plus que relatif en fait) et la distance entre le connecté et le lieu des événements… ainsi que des conséquences de ses actes. En fait, dernier travers, mais de taille, l’exhibitionnisme propre à Internet qui permet de se faire valoir et d’obtenir une reconnaissance à bon compte.

Il est donc conseillé de choisir les Newsgroups auxquels un individu ou une entreprise souhaitent participer. Ce choix de consultation partielle limite peu l’accès à l’information, sachant que régulièrement des moteurs de recherche sur des serveurs de News peuvent être interrogés. De même, pour contourner la surveillance possible par autrui de ses centres d’intérêt, il est bon de passer un agent anonyme et d’opérer des aspirations (on télécharge les informations afin de les consulter en interne évitant que des connections répétées permettent de renseigner autrui sur ses centres d’intérêt). 

  3.3.3. Désinformation contre communication de crise ?

Des entreprises, notamment américaines, n’hésitent  donc pas à utiliser le multimédia pour résoudre un problème d’image ou déstabiliser un concurrent. Cela passe par la mise en place de sites de crise que les lobbyistes nomment les « autoroutes de la désinformation » .

Nous nous rappelons tous de l’exemple de la vodka Belvédère. La société française s’est opposée à une société américaine qui refusait de reconnaître ses droits de propriété sur une bouteille, pourtant conçue en France, mais qui avait rencontrée des « difficultés » à être brevetée en Pologne (l’existence de pots-de-vin américains est aujourd’hui connue avec certitude).

Plusieurs procès opposèrent Phillips Millenium et Belvédère SA et les engagèrent dans des opérations classiques de lobbying auprès des analyste financiers et de quelques journalistes minutieusement sélectionnés. Mais, le lundi 12 octobre 1998, Millenium met en ligne un site Web offensif destiné à contrer Belvédère qui devait présenter, le lendemain, ses résultats semestriels. Des questions à poser aux dirigeants de la firme française étaient suggérées sur le site (elles seront peu suivies par les analystes) . L’action Belvédère s’effondre d’autant que les lobbyistes français d’Edelman utilisèrent les méthodes classiques de leur profession (cf. exclusivités négociées dans les journaux, dossier de presse, etc.)

Bien sûr, les Français créèrent un contre site et ripostèrent mais le mal était fait d’autant qu’un site créé dans la précipitation ne peut rivaliser avec un concurrent préparé avant la crise. Certains proposent d’ailleurs de créer des sites fantômes pour répondre à ce genre d’attaques le plus rapidement possible ; c’est une solution douteuse sauf à connaître d’où vient l’attaque.

Face l’Infoguerre on voit à quel point il est vital d’identifier les sources potentielles de crise et de les désamorcer au plus tôt. On comprend une fois encore la nécessité de surveiller ce qui se passe sur les Réseau : cela n’a rien à voir avec de la veille documentaire ou de la bibliométrie bien que l’on recueille de l’information hautement stratégique.
 



Conclusion
Comme nous l’avons indiqué en introduction, le problème de l’information s’inscrit dans le concept plus vaste de l’Infoguerre… où tous les moyens sont bons que ce soit la manipulation, la désinformation ou l’intrusion .

Ainsi, le Sunday Time du 02/06/96 s’est intéressé aux intrusions subies par des institutions financières… qui se sont tout bonnement fait rançonnées pour un butin total de 400 millions de £ : le marché était simple : vous avez été pénétrés et nous pouvons effacer tous vos fichiers, sauf si vous nous payez. Internet, c’est aussi la « Cyberdélinquance ».

Internet permet à chacun de s’exprimer et de dénoncer ce que bon lui simple. Mais s’agit-il toujours de simples citoyens ou d’associations de gentils écologistes. On peut, par exemple, se demander qui est derrière la guerre subie par Total contre son chantier en Birmanie…

Il s’avère que les méthodes de recherche ne sont pas tout. Ce ne sont que des modes d’emploi mécaniques pour utiliser une machine ; pour schématiser, il s’agit de machines communiquant entre elles grâce à l’intelligence artificielle. Cela ne peut pleinement nous satisfaire dans la mesure où nous ne fonctionnons pas par le biais de cette intelligence.

On comprend alors la nécessité d’adopter une vigilance critique, une méthodologie du soupçon appliquée face à l’information obtenue sur le Web. Nous savons que chacun est libre d’y mettre ce que bon lui semble sans qu’il existe la moindre autorité de contrôle, surtout en ce qui concerne la partie écrite du « Réseau ». Aussi peut-on dire qu’ « il y a dans les canaux de communication une logique équilibrée qui nous présente à la fois le oui et le non, l’amour et la haine (…), bref ce que disait Esope quand il disait que la langue est la  meilleure et la pire des choses » . C’est en cela, également que réside la richesse, au sens valeur ajoutée de l’Internet : le pour et le contre qui s’y trouvent, qui s’y retrouvent permettent d’avoir, automatiquement, une approche croisée de l’information recherchée, ou à défaut, une approche multiformes. Il faut l’accepter comme tel et non le rejeter au nom d’une trop grande complexité. Il ne viendrait à l’idée de personne de cantonner à une seule source après avoir décrété que c’est elle et elle seule qui détient la vérité urbi et orbi. L’avantage du Web est que lorsqu’on lance une recherche, par le biais d’un métamoteur par exemple, tous ce qui contient les mots clefs de notre recherche nous est indiqué : inutile de chercher des versions alternatives d’un élément : elles le sont toutes, par définition, les une par rapport aux autres. L’Internet est a la fois le lieu et le vecteur de l’information alternative.

Au delà, il est indispensable de prendre conscience des enjeux sous-jacents. Ceux-ci peuvent aussi bien-être économiques, politiques que sociaux ou culturels. Comment le savoir ? C’est impossible. C’est une question de principe pourrait-on dire. Rien ne nous prouve que la page que nous visitons n’a pas été détournée par un hacker qui lui a fait subir de subtiles modifications dont le webmaster n’a pas eu conscience. Rien ne nous prouve que des coquilles ne se sont pas glissées dans le corps du texte comme cela peut arriver à n’importe quel support papier. On peut également se trouver sur un site miroir dont l’adresse nous a volontairement induit en erreur (il existe un marché florissant des noms de domaines : il suffit de déposer tous les adresses possibles relatives à une marque x ou y avant de les monnayer quand celle-ci se décide à créer son site… ; il est d’ailleurs indispensable de déposer toutes les adresses pouvant être celle de son site afin d’éviter ce genre de parasitage) et dont le contenu pourra faire bien pire…

Dans l’absolu, le Net n’est en aucun cas le moyen ultime pour approfondir ses connaissances. D’ailleurs si on n’en connaît pas assez sur le sujet recherché, il sera impossible de poser les bonnes questions nécessaires pour une recherche rapide et efficace.

Pour note, on peut citer des sites spécialisé dans la désinformation et qui revendiquent cette lutte contre la désinformation. Ainsi, il en existe un (http://www.esf.ch/ben/colere3.html) qui s’insurge chaque fois que les propos tenus à la télévision lui semblent mensongers ; un autre (http://home.worldcom.ch/~aderam/) sur lequel on trouve des articles refusés par la presse suisse. Les exemples pourraient ainsi se multiplier à l’infini surtout si on commence à se tourner vers les sites « anti » (cf. ceux des ONG, ceux des salariés en colère contre leur entreprises, etc.) qui concourent à donner à l’information tirée du Web sa valeur ajoutée à moindres frais. 

Pourtant, face à la désinformation et à la difficulté de s’informer, cela ne suffit pas : il vaut vraiment être un professionnel pour y voir clair.

Intelligence@ifrance.com