FAIR un cadre ouvert de standardisation pour la gestion du risque lié à l'information

Classé dans la catégorie : Général

FAIR (Factor Analysis of Information Risk) est un cadre référence, placé sous licence Creative Commons, qui vise à fournir une standardisation des méthodes d'analyse aux professionnels de la gestion du risque lié à l'information.

FAIR (Factor Analysis of Information Risk) est un cadre ouvert qui est spécifique à la compréhension et à la gestion du risque lié à l’exploitation de l’information, il couvre tout autant les standardisations des définitions, des identifications et des mesures que celle des analyses du risque. Placé sous une licence libre Creative Commons 2.5, FAIR est un projet initialement issu de la société Risk Management Insight et plus particulièrement de Jack Jones, spécialiste dans ce domaine depuis plus de vingt années.

FAIR se base sur le fait que l’on ne peut pas gérer efficacement les risques de manière anticipée si l’on n’est pas en mesure d’identifier, de quantifier et de qualifier préalablement les ressources ASSETS (données, périphériques, composants) et le niveau (criticité, coût, sensitivité) des conséquences (productivité, réponse, remplacement, réputation, judiciaire, compétitivité) liées à une perte (accès, utilisation, divulgation, destruction, altération, vol, inaccessibilité) survenant lors d’une activité donnée ou d’une situation. Les fréquences de probabilité (pertes LEF, menaces TEF) qu’un événement (perte, menace) surgisse, ou un ensemble d’événements, sont également à prendre en compte, au même titre que la magnitude des impacts probables PLM et extrémistes WCL d’une l’exploitation réussie.

L’évaluation et la gestion du risque implique généralement la mise en place préventive d’outils systématiques de surveillance et de collecte des données qui sont à l’origine des alertes faisant office de déclencheurs pour des prises de décision rapides en réponse à un incident survenu. A l’heure actuelle, les termes risques, menaces et vulnérabilités sont assez régulièrement utilisées de manière interchangeable par les professionnels de la sécurité de l’information alors que ces termes représentent des concepts différents, ceci est principalement du au fait qu’il n’existe pas vraiment de lexique universel ayant pour vocation de standardiser la sécurité de l’information.

Les conséquences de ce constat ne sont pas favorables aux professionnels, elles sont en effet en partie responsables des difficultés qu’ils éprouvent à convaincre actuellement les équipes dirigeantes des organisations auditées à prendre au sérieux leurs recommandations pour l’avenir. Alors que les deux parties voient la gestion du risque comme un élément significatif et fondamental de leur travail quotidien, il résulte néanmoins un manque de crédibilité, certes réciproque, qui est directement imputable à une utilisation inefficiente des ressources et aux différences qui existent sur les définitions des termes utilisés les plus basiques.

Tant que la méthode choisie n’est pas fondée sur une nomenclature standard et sans une solide compréhension mutuelle, il s’avère difficile voir impossible d’être réellement efficace. Conscient de cela, des solutions ont été développées par certains professionnels pour commencer à sortir de cette impasse, FRAP ( Facilitated Risk Analysis Process ) et OCTAVE ( Operationally Critical Threat, Asset, and Vulnerability Evaluation ) en font partie. FAIR vise quant à lui à fournir un cadre de concepts fondamentaux aux professionnels de l’analyse du risque et à ces solutions, c’est une solution de renforcement pour les outils déjà existants, son objectif n’est donc pas de les remplacer.

Le risque et l’analyse du risque sont des sujets vastes et complexes, par conséquent les auteurs de FAIR ont du trouver un juste équilibre entre leur volonté de délivrer un référentiel de longueur acceptable et le besoin de fournir suffisamment d’informations pour définir efficacement les concepts nécessaires à la compréhension du risque et de ses facteurs. Certaines limitations sont ainsi volontairement appliquées ici et notamment le fait que les sources malicieuses inhérentes ont été restreintes aux seuls facteurs humains ; les erreurs applicatives, les dysfonctionnements système et les actes naturels (séisme, inondation, tornade) ne sont donc pas pris en compte.

FAIR repose concrètement sur six parties majeures, la première s’attache à définir le risque et l’analyse du risque, elle introduit les concepts de modélisation du risque par identification des ressources et les différences entre les notions de probabilité WCL et de possibilité PLM pour la magnitude d'une exploitation réussie, soit les fondamentaux nécessaires à la compréhension et à l’utilisation de FAIR. Viennent ensuite les quatre composantes primaires sur lesquelles reposent l’ensemble des scénarios de gestion du risque, chacun d’entre eux sont basés sur des facteurs (ressources, menaces, organisation, environnement externe) qui, lorsqu’ils sont combinés, peuvent faire fluctuer le niveau de prise de risque.

On retrouve donc ici les ensembles TCOMM de menaces (profil, motivation, individu, communauté) et leurs caractéristiques (fréquences de contact, impacts estimés ou probables), les ressources responsables d’informations exploitables et le niveau des conséquences de leur perte qu’elles soient probables ou extrémistes, l’organisation (nature, exposition, attractivité) et enfin l’environnement externe (concurrence, réglementations, médias, parties prenantes). La factorisation du risque s’attèle quant à elle à décomposer le risque, soit la fréquence LEF probable que l’agent de menace nuise avec succès à la ressource, LEF étant reliée à la fréquence TEF probable que l’agent de menace attaque la ressource, sans notion de succès contrairement à LEF, et à la notion de criticité VULN qui implique la probabilité que la ressource soit incapable de résister à l’agent de menace.

La criticité VULN est liée aux forces des contrôles CS et aux capacités TCAP de l’agent de menace, alors que le risque est lié à la fréquence LEF probable que l’agent de menace nuise avec succès à la ressource et à la magnitude PLM probable des conséquences d'une perte. PLM dépend distinctement des facteurs de perte primaires (pertes de ressources, menaces de pertes) et secondaires (pertes organisationnelles, pertes externes). La fréquence TEF probable que l’agent de menace attaque la ressource est liée elle à la fréquence CONTACT de mise en relation (régulière, aléatoire, intentionnelle) d’une ressource avec l’agent de menace mais aussi avec la probabilité ACTION que cet agent de menace attaque de façon effective la ressource selon différents facteurs (valeur de la ressource, efforts à fournir, risque inversé pour l’agent de menace) une fois le contact établi entre la ressource et l’agent de menace.

Il résulte de cette factorisation une taxinomie ( lien http externe url:[click] ) qui décrit globalement comment les facteurs se combinent entre eux pour faire fluctuer le niveau de risque d’une situation ou d’une activité. La partie suivante aborde quant à elle les contrôles, elle définit très brièvement les trois dimensions qui régissent le cycle de vie (conception, implémentation, utilisation, maintenance, désactivation) d’un contrôle, à savoir la forme (règle, processus, technologie), l’objectif (prévention, détection, réponse) et la catégorie (perte, menace, vulnérabilité) qui le caractérisent en tant qu’élément d’un processus plus global.

En ce qui concerne la mesure du risque, elle oppose les mesures objectives aux mesures subjectives, ainsi que les mesures qualitatives aux mesures quantitatives, tout en définissant des notions comme la détermination de la précision d’un résultat et les mesures intermédiaires comme les taux d’erreurs et la sensitivité. En premier lieu on retrouve les mesures pour la fréquence TEF probable qu’un agent de menace attaque une ressource, pour la capacité TCAP de l’agent de menace, pour la magnitude probable PLM ou extrémiste WCL des conséquences d'une perte et les mesures pour la force des contrôles CS. FAIR explique ensuite comment dériver VULN, la criticité d’une vulnérabilité, à partir de la capacité TCAP de l’agent de menace et de la force des contrôles CS.

Sur le même principe, la fréquence TEF probable qu’un agent de menace attaque une ressource et la criticité VULN permettent d’obtenir la fréquence LEF probable que l’agent de menace nuise avec succès à la ressource. La dernière partie concerne justement l’analyse des scénarios qui sera effectuée en quatre étapes, soit l’identification des composants (ressources, menaces), l’évaluation des mesures (capacité de l’agent de menace, force des contrôles, criticité de la vulnérabilité, fréquence LEF probable que l’agent de menace nuise avec succès à la ressource, fréquence TEF probable qu’un agent de menace attaque une ressource), la magnitude des conséquences de perte probables et extrémistes (PLM, WCL), les dérivations et les articulations du risque.

Quel est le niveau suffisant de gestion du risque à adopter ? Quel niveau de risque comporte une organisation à un instant donné ? De combien peut-on réduire le niveau de risque en appliquant une solution donnée ? Bien que la perfection soit une chimère en matière de sécurité, FAIR se présente comme un début de réponse à ces questions fondamentales qui n’ont semble t-il pas trouver de réponses fermes et définitives auprès des experts. Les prochaines versions de FAIR devraient par ailleurs apporter une approche plus en profondeur pour la définition des contrôles, des ensembles de menaces et des pertes tout en proposant des scénarios aux ramifications plus complexes pour la modélisation du risque.

Plus d’informations devraient y être disponibles sur les phases de capture et d’analyse des données. Les concepts de fragilité et d’instabilité devraient aussi être introduits dans cette prochaine version, au même titre que l’agrégation des risques et l’extension des facteurs aux erreurs qui ne sont pas directement imputables à l’humain. Sont également à l’étude la possibilité d’intégrer les concepts de FAIR dans un programme de gestion du risque organisationnel et l’application de ces facteurs à d’autres types de risques comme ceux qui sont spécifiquement reliés aux investissements, aux marchés financiers et au monde juridique.

Voir également nos articles « CERT Resiliency Engineering Framework un meta-modèle pour la gestion des risques et leurs conséquences » et « Le référentiel du NIST pour lutter contre les fuites d'informations personnelles d'identification » .

Source : Security Bloggers Network

Auteur : Par Xavier Poli, secuobs.com

Les derniers produits des risques professionnels