<URL: http://livretousfiches.xwiki.com/xwiki/bin/view/Main/Sourcesdesdoucmentsetcitationsutilisespourcelivre?xpage=comments
Cest dans la deuxième moitié de la décennie quatre-vingt-dix que jai renoué le contact avec le monde du renseignement. Quelques vingt années plutôt, javais eu loccasion de me frotter au renseignement et plus particulièrement à la problématique du terrorisme. Dès ma reprise de contact, jai pu constater que le monde avait changé. Pendant la seconde moitié du XXième siècle, le renseignement opérationnel sétait essentiellement focalisé sur lanalyse du bloc soviétique. Quand nous regardons derrière nous, nous pouvons constater que cette analyse était limpide. Tant du point de vue stratégique, que du point de vue tactique, la doctrine et la pensée soviétiques navaient pas ou peu évolué. Le facteur géographique nous était familier et nous possédions une bonne connaissance du volume de leurs forces. La combinaison de ces trois facteurs, doctrine, terrain et moyen, permettait aux analystes de réaliser une analyse de bonne facture. Dans les années 80, cette analyse sétait encore affinée par lemploi des nouveaux développements technologiques faisant appel à lanalyse des signaux électromagnétiques et aux moyens de limagerie opérationnelle (drones) et stratégique (satellites). Leffondrement de lempire communiste, qui du reste navait pas été prévu dune manière si abrupte par la plupart des analystes stratégiques, a généré un monde unipolaire et également lémergence de conflits régionaux comme ceux des Balkans. Cest au cours des conflits de Bosnie-Herzégovine et du Kosovo que jai pu exercer mon art de lanalyse et de découvrir les nouveaux challenges du renseignement dans un monde unipolaire. Les nouveaux axes du renseignement avaient pour noms : lutte contre les extrémismes, lutte contre la criminalité organisée et transnationale, lutte contre le terrorisme, lutte contre la criminalité cybernétique. Directement, jai découvert que le contexte général danalyse avait été bouleversé. Pendant toute la période de la guerre froide, linformation qui constitue la matière brute et première du renseignement était parcimonieuse ; avec les opérations humanitaires dimposition de la paix, cette information était devenue abondante et même envahissante. Le trop-plein dinformation tue le renseignement en étouffant sous une avalanche de données quil ne peut gérer. En 1998, javais la conviction que le seul moyen de manager ce flux gigantesque dinformation était de transformer les rapports dinformation rédigé en langage naturel en données élémentaires et de les enregistrer dans une base de données relationnelle. En 2000, sous limpulsion dun officier supérieur de la Gendarmerie française, létat-major du SHAPE dotait les quartiers-généraux opérationnels des théâtres dopérations des premiers logiciels danalyse : les outils de Link Analysis (notebook i2 Ltd UK). Je fus dans les premiers analystes à utiliser ces outils dans les Balkans. Après une période de six mois dutilisation régulière, jai adressé un rapport dutilisation à la chaîne de commandement en mentionnant que ce logiciel était très performant mais dangereux du point de vue analytique lorsquil et utilisé par des amateurs de lanalyse, et tenu compte de mon expérience opérationnelle je peux certifier quils sont nombreux. Je faisais également remarquer que pour exploiter tout le potentiel de cet outil, il fallait disposer dun robuste modèle de données afin de pouvoir échanger les informations entre les centres danalyse. En 2002, en tant que responsable des implémentations des systèmes de données structurées pour le renseignement en zone centre-europe de lOTAN, je demandais au NC3A, service OTAN équivalent en plus petit au DARPA américain de développer en collaboration ce modèle de données pour le système Link Analysis. Jai également proposé dajouter les outils de data mining dans le « capability package » du renseignement qui est le document récapitulatif des besoins en système de gestion du renseignement pour la période jusque 2010. Cette longue introduction pour vous dire que je connais très bien la problématique que vous avez soulevée dans votre livre et que malgré les problèmes causés par lutilisation des outils de data mining et de link analysis, je reste fermement persuadé que ces outils sont actuellement indispensable à lélaboration du renseignement.
Le rôle du renseignement est essentiellement prédictif et a pour but de déceler les niveaux de menaces à lencontre de nos sociétés. Dans notre monde unipolaire actuel, les sociétés démocratiques libérales sont confrontées à trois types de menaces : stratégique, opérationnelle et tactique. La menace stratégique peut être matérialisée par le terrorisme qui vise à lannihilation des structures fondamentales de lEtat. La menace opérationnelle est constituée par les formes de criminalités transnationales organisées. La menace tactique est représentative des multiples formes de la criminalité nationale qui sapent lautorité de lEtat ou qui créent un climat de défiance de la population vis-à-vis de cet Etat. La lutte contre les menaces tactiques est essentiellement une responsabilité des forces de police et de sécurité territoriales. La lutte contre les menaces stratégiques et opérationnelles est le domaine des organismes de sécurité extérieure, ou du renseignement opérationnel vu le caractère transnational ou multinational de la menace. En valeur relative, il est possible de quantifier le coefficient de risque pour ces deux types de menace par rapport à une population donnée. Selon les estimations, le terrorisme correspond à une population risque équivalente comprise entre 0,02% pour les estimations les plus pessimistes et 0,0002% pour les plus optimistes. La menace opérationnelle peut être estimée à un risque entre 1 et 10% selon les zones concernées. Vu la valeur de ces ratios, il est indéniable que la statistique classique ne peut proposer des solutions acceptables pour lanalyse du phénomène terrorisme. Même les outils de la qualité totale (SPC) sont inopérants pour des taux aussi petits. Les seuls outils actuellement en notre disposition pour trouver une réponse à nos souhaits de sélection dindividus à risque se révèlent être les outils de « Data Mining ». Ces outils sont intéressants à deux titres. En premier lieu, à partir de dindividus reconnus comme dangereux, ils permettent de déterminer un profil ou comportement à risque. En deuxième lieu, partant dun profil déterminé, ils peuvent extraire dune masse dindividus les individus à risque. La plupart des outils de « Data Mining » possèdent une intelligence artificielle qui leur permet de sadapter à lévolution du comportement criminel. La sélection des individus à risque requiert la connaissance de minimum 15 paramètres indépendants. Seuls les outils de « Data Mining » basés sur des algorithmes darbres de décision peuvent réaliser des analyses multicritères aussi complexes. Plus les outils utiliseront de paramètres et plus nous pourrons affiner lanalyse et ainsi réduire le nombre de faux positifs et faux négatifs. Par expérience, je confirme votre analyse au sujet des erreurs sur les données. Jai personnellement calculé ce taux de 20% dans les bases de données opérationnelles et je peux également affirmer que les bases de données américaines ne sont pas exemptes de ces erreurs de données. A côté de ce type derreurs, ce sont principalement les données manquantes que les « data miners » craignent le plus. Cest pour cette raison quil est indispensable de mettre en place des procédures de gestion et dassurance de la qualité dans le processus denregistrement des données.
En ce qui concerne le problème de la confidentialité des données et le risque de dérapage ou de bavures, je serais plus confiant pour les outils de « Data Mining » que pour les outils de « Link Analysis » qui constituent un réel risque de dérapage. Les outils de « Data Mining » tournent sans aucune visualisation des données dans leur phase de détermination des critères. Dans la phase de sélection des personnes à risque, seuls les individus satisfaisant aux critères de sélection apparaîtront sur écran ou en « output ». Il en est tout différemment pour les outils de « Link Analysis » qui opèrent principalement par visualisation en temps réel des données par « iconisation ». La visualisation des données est lune des raisons pour justifier lutilisation des outils de « Data Mining » en amont des outils de « Link Analysis » dans la chaîne de traitement de linformation. Il nexiste aucun système parfait garantissant au citoyen toute la confidentialité. Il appartient aux gouvernants des Nations de mettre en place les structures de contrôle et de garanties légales de protection des libertés individuelles. Il ne faut pas se leurrer, les Etats et les gouvernants seront toujours tentés par les aspects sécuritaires, il faut donc accepter lutilisation des données dans un but de protection pour autant que les modalités dutilisation des informations collectées soient régies par des lois et que les pouvoirs exécutifs, législatifs et judiciaires exercent les contrôles adéquats des utilisateurs de ces informations. Il doit en être de même pour les organisations internationales où les Etats doivent exercer un contrôle strict des organismes de sécurité et renseignement ce qui nest pas le cas actuellement.
Nous ne devons pas reporter la décision de désigner tel individu comme suspect à des machines ou à des logiciels, en final la décision de sélectionner un individu appartient à lanalyste et à sa hiérarchie. Les logiciels et les outils ne sont que des aides à la décision. Contrairement à ce que la vulgarisation cinématographique, principalement américaine, tente de nous monter,les outils informatiques danalyse ou de reconnaissance vocale ou faciale ne nous donnent que très rarement des certitudes, mais le plus souvent des probabilités de réalité. A ce titre, il y a trois ans, jai fait stopper limplémentation dun système de reconnaissance faciale devant être installé dans les Balkans parce que ce système était loin de satisfaire les besoins des utilisateurs qui espéraient obtenir pour chaque interrogation didentification une réponse unique, ce que le système ne proposait pas. Il en va de même des autres systèmes informatiques de transcription automatique du discours en texte, des systèmes de traduction qui nécessite une relecture approfondie. Ne parlons pas des logiciels dextraction des connaissances de textes rédigés en langage naturel qui ne sont pas encore suffisamment matures pour offrir aux analystes les résultats désirés.
Philippe DELBRUYERE [EMAIL PROTECTED] [EMAIL PROTECTED]
