<URL: http://livretousfiches.xwiki.com/xwiki/bin/view/Main/Sourcesdesdoucmentsetcitationsutilisespourcelivre?xpage=comments


C’est dans la deuxième moitié de la décennie quatre-vingt-dix que j’ai renoué le contact avec le monde du renseignement. Quelques vingt années plutôt, j’avais eu l’occasion de me frotter au renseignement et plus particulièrement à la problématique du terrorisme. Dès ma reprise de contact, j’ai pu constater que le monde avait changé. Pendant la seconde moitié du XXième siècle, le renseignement opérationnel s’était essentiellement focalisé sur l’analyse du bloc soviétique. Quand nous regardons derrière nous, nous pouvons constater que cette analyse était limpide. Tant du point de vue stratégique, que du point de vue tactique, la doctrine et la pensée soviétiques n’avaient pas ou peu évolué. Le facteur géographique nous était familier et nous possédions une bonne connaissance du volume de leurs forces. La combinaison de ces trois facteurs, doctrine, terrain et moyen, permettait aux analystes de réaliser une analyse de bonne facture. Dans les années 80, cette analyse s’était encore affinée par l’emploi des nouveaux développements technologiques faisant appel à l’analyse des signaux électromagnétiques et aux moyens de l’imagerie opérationnelle (drones) et stratégique (satellites). L’effondrement de l’empire communiste, qui du reste n’avait pas été prévu d’une manière si abrupte par la plupart des analystes stratégiques, a généré un monde unipolaire et également l’émergence de conflits régionaux comme ceux des Balkans. C’est au cours des conflits de Bosnie-Herzégovine et du Kosovo que j’ai pu exercer mon art de l’analyse et de découvrir les nouveaux challenges du renseignement dans un monde unipolaire. Les nouveaux axes du renseignement avaient pour noms : lutte contre les extrémismes, lutte contre la criminalité organisée et transnationale, lutte contre le terrorisme, lutte contre la criminalité cybernétique. Directement, j’ai découvert que le contexte général d’analyse avait été bouleversé. Pendant toute la période de la guerre froide, l’information qui constitue la matière brute et première du renseignement était parcimonieuse ; avec les opérations humanitaires d’imposition de la paix, cette information était devenue abondante et même envahissante. Le trop-plein d’information tue le renseignement en étouffant sous une avalanche de données qu’il ne peut gérer. En 1998, j’avais la conviction que le seul moyen de manager ce flux gigantesque d’information était de transformer les rapports d’information rédigé en langage naturel en données élémentaires et de les enregistrer dans une base de données relationnelle. En 2000, sous l’impulsion d’un officier supérieur de la Gendarmerie française, l’état-major du SHAPE dotait les quartiers-généraux opérationnels des théâtres d’opérations des premiers logiciels d’analyse : les outils de Link Analysis (notebook i2 Ltd UK). Je fus dans les premiers analystes à utiliser ces outils dans les Balkans. Après une période de six mois d’utilisation régulière, j’ai adressé un rapport d’utilisation à la chaîne de commandement en mentionnant que ce logiciel était très performant mais dangereux du point de vue analytique lorsqu’il et utilisé par des amateurs de l’analyse, et tenu compte de mon expérience opérationnelle je peux certifier qu’ils sont nombreux. Je faisais également remarquer que pour exploiter tout le potentiel de cet outil, il fallait disposer d’un robuste modèle de données afin de pouvoir échanger les informations entre les centres d’analyse. En 2002, en tant que responsable des implémentations des systèmes de données structurées pour le renseignement en zone centre-europe de l’OTAN, je demandais au NC3A, service OTAN équivalent en plus petit au DARPA américain de développer en collaboration ce modèle de données pour le système Link Analysis. J’ai également proposé d’ajouter les outils de data mining dans le « capability package » du renseignement qui est le document récapitulatif des besoins en système de gestion du renseignement pour la période jusque 2010. Cette longue introduction pour vous dire que je connais très bien la problématique que vous avez soulevée dans votre livre et que malgré les problèmes causés par l’utilisation des outils de data mining et de link analysis, je reste fermement persuadé que ces outils sont actuellement indispensable à l’élaboration du renseignement.

Le rôle du renseignement est essentiellement prédictif et a pour but de déceler les niveaux de menaces à l’encontre de nos sociétés. Dans notre monde unipolaire actuel, les sociétés démocratiques libérales sont confrontées à trois types de menaces : stratégique, opérationnelle et tactique. La menace stratégique peut être matérialisée par le terrorisme qui vise à l’annihilation des structures fondamentales de l’Etat. La menace opérationnelle est constituée par les formes de criminalités transnationales organisées. La menace tactique est représentative des multiples formes de la criminalité nationale qui sapent l’autorité de l’Etat ou qui créent un climat de défiance de la population vis-à-vis de cet Etat. La lutte contre les menaces tactiques est essentiellement une responsabilité des forces de police et de sécurité territoriales. La lutte contre les menaces stratégiques et opérationnelles est le domaine des organismes de sécurité extérieure, ou du renseignement opérationnel vu le caractère transnational ou multinational de la menace. En valeur relative, il est possible de quantifier le coefficient de risque pour ces deux types de menace par rapport à une population donnée. Selon les estimations, le terrorisme correspond à une population risque équivalente comprise entre 0,02% pour les estimations les plus pessimistes et 0,0002% pour les plus optimistes. La menace opérationnelle peut être estimée à un risque entre 1 et 10% selon les zones concernées. Vu la valeur de ces ratios, il est indéniable que la statistique classique ne peut proposer des solutions acceptables pour l’analyse du phénomène terrorisme. Même les outils de la qualité totale (SPC) sont inopérants pour des taux aussi petits. Les seuls outils actuellement en notre disposition pour trouver une réponse à nos souhaits de sélection d’individus à risque se révèlent être les outils de « Data Mining ». Ces outils sont intéressants à deux titres. En premier lieu, à partir de d’individus reconnus comme dangereux, ils permettent de déterminer un profil ou comportement à risque. En deuxième lieu, partant d’un profil déterminé, ils peuvent extraire d’une masse d’individus les individus à risque. La plupart des outils de « Data Mining » possèdent une intelligence artificielle qui leur permet de s’adapter à l’évolution du comportement criminel. La sélection des individus à risque requiert la connaissance de minimum 15 paramètres indépendants. Seuls les outils de « Data Mining » basés sur des algorithmes d’arbres de décision peuvent réaliser des analyses multicritères aussi complexes. Plus les outils utiliseront de paramètres et plus nous pourrons affiner l’analyse et ainsi réduire le nombre de faux positifs et faux négatifs. Par expérience, je confirme votre analyse au sujet des erreurs sur les données. J’ai personnellement calculé ce taux de 20% dans les bases de données opérationnelles et je peux également affirmer que les bases de données américaines ne sont pas exemptes de ces erreurs de données. A côté de ce type d’erreurs, ce sont principalement les données manquantes que les « data miners » craignent le plus. C’est pour cette raison qu’il est indispensable de mettre en place des procédures de gestion et d’assurance de la qualité dans le processus d’enregistrement des données.

En ce qui concerne le problème de la confidentialité des données et le risque de dérapage ou de bavures, je serais plus confiant pour les outils de « Data Mining » que pour les outils de « Link Analysis » qui constituent un réel risque de dérapage. Les outils de « Data Mining » tournent sans aucune visualisation des données dans leur phase de détermination des critères. Dans la phase de sélection des personnes à risque, seuls les individus satisfaisant aux critères de sélection apparaîtront sur écran ou en « output ». Il en est tout différemment pour les outils de « Link Analysis » qui opèrent principalement par visualisation en temps réel des données par « iconisation ». La visualisation des données est l’une des raisons pour justifier l’utilisation des outils de « Data Mining » en amont des outils de « Link Analysis » dans la chaîne de traitement de l’information. Il n’existe aucun système parfait garantissant au citoyen toute la confidentialité. Il appartient aux gouvernants des Nations de mettre en place les structures de contrôle et de garanties légales de protection des libertés individuelles. Il ne faut pas se leurrer, les Etats et les gouvernants seront toujours tentés par les aspects sécuritaires, il faut donc accepter l’utilisation des données dans un but de protection pour autant que les modalités d’utilisation des informations collectées soient régies par des lois et que les pouvoirs exécutifs, législatifs et judiciaires exercent les contrôles adéquats des utilisateurs de ces informations. Il doit en être de même pour les organisations internationales où les Etats doivent exercer un contrôle strict des organismes de sécurité et renseignement ce qui n’est pas le cas actuellement.

Nous ne devons pas reporter la décision de désigner tel individu comme suspect à des machines ou à des logiciels, en final la décision de sélectionner un individu appartient à l’analyste et à sa hiérarchie. Les logiciels et les outils ne sont que des aides à la décision. Contrairement à ce que la vulgarisation cinématographique, principalement américaine, tente de nous monter,les outils informatiques d’analyse ou de reconnaissance vocale ou faciale ne nous donnent que très rarement des certitudes, mais le plus souvent des probabilités de réalité. A ce titre, il y a trois ans, j’ai fait stopper l’implémentation d’un système de reconnaissance faciale devant être installé dans les Balkans parce que ce système était loin de satisfaire les besoins des utilisateurs qui espéraient obtenir pour chaque interrogation d’identification une réponse unique, ce que le système ne proposait pas. Il en va de même des autres systèmes informatiques de transcription automatique du discours en texte, des systèmes de traduction qui nécessite une relecture approfondie. Ne parlons pas des logiciels d’extraction des connaissances de textes rédigés en langage naturel qui ne sont pas encore suffisamment matures pour offrir aux analystes les résultats désirés.

Philippe DELBRUYERE [EMAIL PROTECTED]
[EMAIL PROTECTED]

Répondre à