<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>FAIR Archives - Cyriskintel</title>
	<atom:link href="https://cyriskintel.com/tag/fair/feed/" rel="self" type="application/rss+xml" />
	<link>https://cyriskintel.com/tag/fair/</link>
	<description>Conseil et formations en GRC</description>
	<lastBuildDate>Mon, 13 May 2024 22:06:03 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://cyriskintel.com/wp-content/uploads/2025/06/cropped-CRI_Logo_New-32x32.png</url>
	<title>FAIR Archives - Cyriskintel</title>
	<link>https://cyriskintel.com/tag/fair/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>L&#8217;estimation des probabilités lors d&#8217;une évaluation des risques</title>
		<link>https://cyriskintel.com/2024/05/13/lestimation-des-probabilites-lors-dune-evaluation-des-risques/</link>
					<comments>https://cyriskintel.com/2024/05/13/lestimation-des-probabilites-lors-dune-evaluation-des-risques/#respond</comments>
		
		<dc:creator><![CDATA[IgorS]]></dc:creator>
		<pubDate>Mon, 13 May 2024 22:06:03 +0000</pubDate>
				<category><![CDATA[Évaluation des risques]]></category>
		<category><![CDATA[Risques]]></category>
		<category><![CDATA[CRQ]]></category>
		<category><![CDATA[évaluation]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[probabilités]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[risk]]></category>
		<category><![CDATA[risques]]></category>
		<guid isPermaLink="false">https://riskeval.ca/?p=448</guid>

					<description><![CDATA[<p>L&#8217;évaluation des risques se fait sur deux facteurs : la vraisemblance ou la probabilité d&#8217;occurrence d&#8217;un événement (généralement adverse) et la magnitude d&#8217;impact associé à [...]</p>
<p>The post <a href="https://cyriskintel.com/2024/05/13/lestimation-des-probabilites-lors-dune-evaluation-des-risques/">L&rsquo;estimation des probabilités lors d&rsquo;une évaluation des risques</a> appeared first on <a href="https://cyriskintel.com">Cyriskintel</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>L&rsquo;évaluation des risques se fait sur deux facteurs : la <em>vraisemblance</em> ou la <em>probabilité</em> d&rsquo;occurrence d&rsquo;un événement (généralement adverse) et la magnitude d&rsquo;impact associé à celui-ci. Le terme <em>vraisemblance</em> est souvent utilisé pour estimer qualitativement les événements, c&rsquo;est-à-dire en utilisant des catégories (faible, moyen, élevé) ou des valeurs ordinales (1, 2, 3, 4) reliées entre elles et servant à les hiérarchiser. On lit parfois que le fait d&rsquo;utiliser des nombres pour les hiérarchiser (les rangs) et effecteur des calculs (addition, multiplication ou moyenne) rend la méthode quantitative mais c&rsquo;est un abus de langage. Pour qu&rsquo;on puisse parler de méthode quantitative, il faudrait que les calculs aient un sens mathématique précis, or multiplier ou additionner des rangs n&rsquo;en a aucun. Un rang est comparé à un autre rang, mais ne signifie pas grand-chose dans l&rsquo;absolu. Il est absurde de le multiplier à une valeur d’impact si les valeurs ne sont pas strictement quantitatives et pas seulement numériques. En dehors de ce cas précis, l’expression mathématique multipliant les valeurs <em>ordinales</em> des deux critères n’a qu’une portée <em>pédagogique</em>&nbsp;: il met l’accent sur le fait que si l’un des facteurs est nul, le niveau de risque serait également nul …</p>



<p>La vraisemblance fait référence à la <strong>plausibilité</strong> qu&rsquo;un certain événement se produise, quand on juge celui-ci vraisemblable ou pouvant se produire sous certaines conditions. Pour estimer les chances qu&rsquo;un certain événement puisse se produire, en espérant aller au-delà d&rsquo;un vague sentiment qui peut comprendre beaucoup de biais potentiels, on estime sa <em>probabilité</em> afin de rendre l’évaluation plus objective. Les probabilités sont utiles à quantifier (avec plus ou moins d’exactitude) le niveau d’incertitude (et donc du risque).</p>



<p>L&rsquo;objectif de toute analyse de risque sérieuse est de n&rsquo;envisager que des informations pertinentes et les plus exactes possibles, sans tomber dans les spéculations spécieuses qui sont la marque des analyses de très mauvaise qualité. Mais est-ce que l’utilisation des probabilités rend l’évaluation plus objective&nbsp;et plus exacte ? Et quel est leur réel intérêt&nbsp;? Quelles techniques probabilistes utiliser et pour quoi faire&nbsp;? Nous allons tenter de répondre à ces questions dans cet article. Gardez à l’esprit que si mon intérêt pour les risques m’a porté de force vers ce sujet crucial de la quantification des risques, je suis issu d’une formation littéraire. Les scientifiques me pardonneront tout raccourci ou approximation et ils sont invités à me corriger.</p>



<p>Première chose à clarifier, il existe deux manières d&rsquo;estimer des probabilités :</p>



<ul class="wp-block-list">
<li>La méthode dite <strong>objective</strong> et autrement appelée <em>fréquentiste</em>, car utilisant l’estimation des fréquences d’un événement</li>



<li>La méthode dite <strong>subjective</strong> et autrement appelée <em>bayésienne</em> (de son découvreur Bayes).</li>
</ul>



<p>Dans la méthode <em>fréquentiste</em>, on estime le nombre des cas <em>favorables</em> (l’événement étudié se produit) par rapport au nombre des cas <em>possibles</em> pour un événement quelconque, tous les cas possibles étant supposés également possibles (il y a autant de chances qu&rsquo;un événement A, B ou C se produisent). C&rsquo;est le fameux tirage de dés non truqués : il y a normalement une chance sur 6 (un dé classique possède 6 faces) que n&rsquo;importe quelle valeur soit obtenue à chaque lancer, l’issue étant indépendante de l’observateur. Plus important, les lancers sont des événements distincts et sans aucune relation entre eux. Ces conditions sont importantes car elles définissent le sens du mot <strong>aléatoire</strong> en probabilités, ce qui a des implications directes avec son utilisation dans l’évaluation des risques.</p>



<p>Il faut ouvrir une parenthèse importante&nbsp;: il est fréquent de lire ou d’entendre les termes <em>aléatoire</em> et <em>incertain</em> comme s’ils étaient interchangeables. Or, il faut comprendre <strong>aléatoire</strong> comme se rapportant à l’observateur et à son incapacité à prédire les issues possibles à l’avance, à sa passivité relativement à l’événement dont il ne peut influencer l’issue. Cet événement est imprévisible (pour lui), mais on considère a priori que les issues possibles ont toutes une chance de se produire. On comprend de suite qu’un événement aléatoire est forcément incertain, mais est-ce que tous les événements incertains sont aléatoires et le fruit du hasard&nbsp;?<br>Un événement <strong>incertain</strong> est également difficilement prévisible même s’il n’est pas complètement le fruit du hasard. Il est fonction de paramètres qui ne sont pas ou mal connus. C’est notamment le cas d’un événement composé d’un nombre élevé de paramètres qui ne sont pas tous maîtrisables ou d’une absence de données pour tirer des conclusions définitives. C’est aussi le cas pour tous les événements associés à un choix humain pas toujours prévisible.</p>



<p>Selon les explications précédentes&nbsp;:</p>



<ul class="wp-block-list">
<li>Un événement cyber <strong>accidentel</strong> dû à un dysfonctionnement matériel mal maintenu est-il un événement aléatoire ou seulement incertain ?</li>



<li>Un événement cyber <strong>intentionnel</strong> à la suite d’une attaque complexe dont l’origine est un cybercriminel, est-il aléatoire ou seulement incertain ?</li>
</ul>



<p>Ces questions sont importantes car elles déterminent quelles techniques probabilistes sont utiles dans chaque cas et, surtout, les leurs limites pour estimer un événement de manière pertinente.</p>



<p><strong>Les probabilités objectives ou fréquentistes</strong></p>



<p>&nbsp;Avec la méthode fréquentiste, on se fait l&rsquo;observateur objectif des différents lancers. On peut ainsi réaliser 100 lancers de dés, observer les résultats et estimer les fréquences d’obtenir tel événement ou tel autre qui seront rapportées. On ne tient compte d’aucun autre paramètre pouvant influencer le résultat, c’est une des conditions d’utilisation de cette méthode.<br>De la même manière, on peut observer et noter toutes les attaques cyber résultant d’une méthode particulière, sans se soucier des motivations et de la foule de paramètres autour de ces attaques (intentionnelles), et ainsi obtenir la <em>fréquence</em> ou la <em>prévalence</em> de ces méthodes d’attaques. Ces chiffres sont importants lorsqu’on réalise une veille de cybersécurité. C’est la principale source permettant d’évaluer le niveau de risque <em>inhérent</em> (indépendamment de possibles facteurs d’atténuation) à un <em>événement de menace</em> (attaque).</p>



<p>En langage probabiliste, pour un événement A, on note cette probabilité P(A) dont la valeur se situe entre 0 et 1, avec 0 l’événement est <em>impossible</em> et 1 l’événement est <em>certain</em>.</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img  alt="" class="wp-image-450 lws-optimize-lazyload" style="width:367px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/05/Estimation-prob.png"></figure>



<p>Pour un dé possédant 6 faces numérotées de 1 à 6&nbsp;: le nombre total d’issues possibles (ou «&nbsp;l’univers des possibilités&nbsp;» est l’ensemble des nombres&nbsp;: 1, 2, 3, 4, 5, 6. Soit 6 éléments en tout.</p>



<p>Les probabilités ou les chances d’avoir une issue favorable pour un événement A seront toujours estimées sous la forme d’une proportion du nombre d’issues favorable, noté n(A) sur le nombre total de possibilités, noté N. Pour le cas du dé, N = 6. On décrit ensuite l’événement que nous souhaitons estimer, par exemple&nbsp;:</p>



<ul class="wp-block-list">
<li>Les probabilités d’obtenir un 6 à chaque lancer : <strong>P(A)</strong> = 1/6  = 0,166 ou 16,67%</li>



<li>Les probabilités d’obtenir un nombre impair (soit 1, 3 ou 5) <strong>P(A)</strong> = 3/6 = ½ = 0,5 = 50%</li>
</ul>



<p>Dans le premier cas nous avons 16,67% de chances d’obtenir un 6 à chaque lancer et dans le second, on a 50% de chances d’obtenir un nombre impair.<br>L’exemple du dé est important&nbsp;: toutes les faces ont les mêmes probabilités d’apparaître ET chaque lancer est indépendant des précédents (sinon la première condition serait fausse).</p>



<p>Lorsqu’on estimer les fréquences des différentes attaques (approche fréquentiste) on traite les événements comme étant indépendants les uns des autres et comme le fruit du hasard. Or, il n’en est rien&nbsp;: si l’issue d’une attaque ou leur simple occurrence est incertaine par la méconnaissance des motivations de chaque acteur et leur ciblage, celle-ci n’est pas aléatoire. Pour compenser cette approche un peu naïve, certains experts amateurs de criminalistique ou issus du monde militaire ont tenté d’évaluer les acteurs par le biais de leurs motivations et ressources, en gros leurs <strong>MOM</strong> (<em>Motivation</em> – <em>Opportunité</em> – <em>Moyens</em>). Sous sa forme basique, on modélise ces acteurs sous la forme qualitative ou semi-quantitative.</p>



<p>Dans l’exemple&nbsp;ci-dessous, je vais encore utiliser une distribution normale sur 4 critères pour faire correspondre avec des niveaux qualitatifs (0&nbsp;; 0,25&nbsp;; 0,50&nbsp;; 0,75&nbsp;; 1) :</p>



<figure class="wp-block-table"><table><tbody><tr><td><strong>Type d’acteur</strong></td><td><strong>Motivation</strong></td><td><strong>Opportunité</strong></td><td><strong>Moyens</strong></td><td><strong>Probabilité</strong></td></tr><tr><td>Cyber<em>délinquant</em></td><td>2. Modérée / 0,5</td><td>2. Modérée / 0,5</td><td>1. Faible / 0,25</td><td>2. Modérée / 0,41</td></tr><tr><td>Cyber<em>voleur</em></td><td>3. Élevée / 0,75</td><td>1. Faible / 0,25</td><td>3. Faible / 0,25</td><td>2. Modérée / 0,41</td></tr><tr><td>Cyber<em>soldat</em></td><td>4. Très élevée / 1</td><td>3. Élevée / 0,75</td><td>4. Très élevé / 1</td><td>4. Très élevée / 0,91</td></tr></tbody></table></figure>



<p>Dans cet exemple on utilise juste 3 paramètres (MOM), le plus fluctuant étant celui de l’opportunité qui revient un peu à évaluer une certaine forme de prédisposition, mais il est possible d’en ajouter beaucoup d’autres pour tenter de compenser son simplisme. Mais ça n’enlèvera pas ses défauts&nbsp;intrinsèques&nbsp;:</p>



<ul class="wp-block-list">
<li>On connaît rarement le type d’acteur en cause après coup, l’attribution est souvent compliquée, c’est encore plus difficile d’anticiper ;</li>



<li>Le modèle est figé, les mêmes valeurs se répèteront pour chaque événement, les valeurs sont relativement absolues et étant associées à chaque catégorie d’acteur ;</li>



<li>De quelle probabilité s’agit-il : d’une occurrence d’attaque ou du succès d’une attaque ? Les valeurs ne seraient pas les mêmes dans un cas ou dans l’autre ;</li>



<li>L’estimation se base sur du gros bon sens et parfois sur des statistiques assez vagues, ça ne les rend pas pour autant exactes ;</li>



<li>Selon l’évaluation, la probabilité qu’une attaque soutenue par un État (que j’appelle cybersoldat) serait presque certaine, ce qui ne correspond pas si on ne modère pas par d’autres critères.</li>
</ul>



<p>Comme souvent lorsqu’on essaye d’estimer un événement incertain, on se rassure en pensant que les paramètres pris en compte et leur évaluation, même approximatifs et simplistes, c’est mieux que de ne rien prendre en compte du tout et de considérer que cela est le fruit du hasard. Mais est-ce vraiment le cas&nbsp;? J’ai personnellement des doutes.</p>



<p>La méthode FAIR, à partir d’un certain niveau de granularité, utilise cette méthode appelée «&nbsp;Capacité de la menace&nbsp;» censée déterminer la susceptibilité à une attaque. Je la trouve archaïque et peu pertinente même si elle est drapée d’une approche mathématique qui semble faire du sens. D’ailleurs Jack Jones dit lui-même dans son livre qu’il utilise rarement ce niveau de granularité à cause de l’absence de consensus sur le mode d’évaluation …</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img  alt="" class="wp-image-451 lws-optimize-lazyload" style="width:586px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/05/FAIR-Capacite.png"></figure>



<p>Peut-être qu’un jour nous disposerons de données statistiques abondantes et exactes, donc exploitables, mais pour l’instant la seule chose que l’on puisse raisonnablement avancer se rapporte à la typologie des attaques&nbsp;:</p>



<ul class="wp-block-list">
<li>Les attaques <strong>opportunistes</strong> sont les plus nombreuses avec un impact limité</li>



<li>Les attaques <strong>ciblées</strong> sont les moins nombreuses mais leur impact peut être considérable</li>
</ul>



<p>Peut-on mettre ça sous forme de formule&nbsp;? Peut-être, en appliquant de manière un peu péremptoire un rapport respectif de 80/20&nbsp;: considérons qu’environ 80% des attaques seront opportunistes et leur impact sera <em>limité</em> (faible à modéré) et 20% seront ciblées et leur impact sera <em>significatif</em> (disons élevé à très élevé). Parmi&nbsp;les attaques ciblées on pourrait avoir un rapport aussi 80/20 comme suit&nbsp;: 80% des attaques seront d’origine <strong>externe</strong> et 20% d’origine <strong>interne</strong>, avec l’idée derrière d’identifier un <em>black swan</em> (un événement rare mais particulièrement impactant). Les acteurs internes, si le processus d’embauche est efficace, seront probablement et majoritairement respectueux des règles déontologiques et craindront les conséquences s’ils se font attraper (appétit au risque faible, dirait-on) et ce, même s’ils possèdent des permissions étendues sur les systèmes. Les négligences sont plus fréquentes au sein des organisations que des actes revanchards d’un employé mécontent. Et si on a tous un cas ayant défrayé la chronique ces dernières années, on l’évaluerait probablement à quoi, un incident tous les dix, quinze ou vingt ans dépendant du secteur d’activité de l’entreprise et du pays.</p>



<p>C’est là que la méthode FAIR est intelligente et prévoit un critère appelé «&nbsp;probabilité d’action&nbsp;» ou «&nbsp;probabilité de passage à l’acte&nbsp;» qui vient modérer à la hausse ou à la baisse la modélisation MOM. Dans l’exemple précédent, on pourrait considérer que la «&nbsp;valeur&nbsp;» associée à l’organisation étudiée serait faible car située dans une région et appartenant à un secteur d’activité dont on a des statistiques montrant une faible activité.</p>



<p>Tout ce que nous avons vu jusqu’ici se rapporte à l’évaluation du risque inhérent. Nous n’avons pas ou très peu pris en compte les <em>facteurs de prédisposition</em> (ma terminologie) ou <em>susceptibilité</em> (FAIR) à une attaque, et particulièrement les contre-mesures éventuellement en place. Selon ma taxonomie, on doit considérer deux types de facteurs de prédisposition <strong>PEST(I)LE</strong>&nbsp;:</p>



<ul class="wp-block-list">
<li>Facteurs <strong>politiques</strong> : quelle est la probabilité que la politique menée par notre pays puisse conduire à des attaques cyber dont nous serions la cible ?</li>



<li>Facteurs <strong>économiques</strong> : à quel point notre organisation évolue dans un secteur compétitif ?</li>



<li>Facteurs <strong>sociaux</strong> : à quel point la politique interne à l’entreprise est susceptible de conduire à un mécontentement des employés ?</li>



<li>Facteurs <strong>technologiques</strong> : à quel point la technologie que nous utilisons est susceptible d’être la cible d’attaquants ?</li>



<li>Facteurs <strong>informationnels</strong> : à quel point les attaquants s’intéresseraient à nos informations et lesquelles, dans quel but ?</li>



<li>Facteurs <strong>légaux et réglementaires</strong> : est-ce que notre organisation est sujette à des contraintes réglementaires dont la conformité pourrait être volontairement mise à mal par les attaquants ?</li>



<li>Facteurs <strong>environnementaux</strong> : à quel point l’organisation est affectée par les phénomènes climatiques, géologiques ou écologiques ?</li>
</ul>



<p>Au final, quel que soit le nombre et le type de critères que vous voulez examiner, l’objectif est toujours d’estimer une fréquence, soit inhérente, observée/constatée, après coup ou bien <em>anticipée</em>. Dans les évaluations de risques c’est ce sont les fréquences anticipées qui nous intéressent. Si vous vous rappelez du calcul de l’<strong>ALE</strong> (Annual Loss Expectancy) abordée lors d’un précédent article, la formule considère l’<strong>ARO</strong> (Annual Rate of Occurrence) multiplié par les pertes anticipées pour un seul événement ou SLE (Single Loss Expectancy). Les fréquences anticipées vues précédemment permettent de déterminer l’ARO.</p>



<p>La question que l’on doit se poser c’est si les méthodes vues jusqu’ici, dites objectives, permettent de faire une estimation exacte. Et jusqu’à quel point l’estimation est vraiment objective&nbsp;? La réponse est clairement que l’estimation des incidents cyber n’est jamais complètement objective, car elle repose sur les perceptions d’un certain nombre de personnes, à commencer par l’analyse de risque, mais toutes les parties prenantes peuvent ajouter des biais et des inexactitudes qu’il sera difficile d’éliminer totalement.<br>Voici un exemple qui m’est arrivé par le passé. Réalisant une veille d’anticipation des menaces pour une entreprise, j’ai introduit le déni de service dans la liste des possibilités. Je disposais d’un grand nombre de sources externes concordantes pour me rassurer sur la pertinence à la fois de ce choix, mais aussi des statistiques (donc des fréquences) de ces attaques, leur magnitude par pays ou région géographique. Cependant, malgré tous ces éléments, le RSSI ne voulait pas en entendre parler. Il soutenait que le déni de service n’était pas pertinent et que même si cela risquait de se produire, il n’aurait aucun impact significatif pour l’organisation. Sur quelles données s’appuyait-il pour dire cela&nbsp;? Aucune. Juste le sentiment, la fausse certitude, de disposer des meilleures informations possibles de manière parfaitement arbitraire.<br>Dans ce cas, qu’est-ce qu’il faudrait retenir&nbsp;: les choix informés avec des données à l’appui comme toute démarche rationnelle commanderait ou bien le sentiment d’un professionnel de la sécurité qui semblait arbitraire&nbsp;? La réponse est bien souvent politique. C’est la raison pour laquelle, il faut sensibiliser tous les professionnels impliqués directement ou indirectement dans la gestion des risques, et la nécessité d’avoir une démarche rationnelle pltôt que spéculative. Cette démarche nous impose de collecter des données de qualité et en quantité suffisantes avant de tirer la moindre conclusion. Mais aussi d’éliminer les nombreux biais cognitifs qui nous empêchent de voir clair. Malheureusement, ce type de démarche doit s’apprendre, elle n’est pas innée. Et comme tout apprentissage, cela demande d’y consacrer du temps et aussi d’avoir conscience de nos limites pour chercher la remédiation adéquate. C’est toute une culture qu’il faut mettre en place progressivement.</p>



<p>Du fait du grand nombre de paramètres incertains et si la quantité ou la qualité des données sont insuffisantes, les méthodes objectives appliqués aux événements intentionnels ne nous sont pas d’un grand secours. Il faudrait disposer d’un très grand nombre de données et même si c’était le cas, les probabilités usuelles ne s’appliquent pas vraiment aux événements intentionnels complexes qui ont un niveau variable de dépendance entre eux. Pourquoi&nbsp;?</p>



<p>Voici les difficultés rencontrées&nbsp;:</p>



<ul class="wp-block-list">
<li>Les attaques cyber ont pour origine une décision à un moment donnée de la part d’un acteur de passer à l’acte selon des paramètres insuffisamment compris les rendant très incertains à défaut d’être aléatoires ;</li>



<li>Les attaques cyber qui comptent, celles qui ont un impact significatif, sont des événements complexes, c’est-à-dire qu’ils se composent d’un grand nombre de variables soit inconnues, soit méconnues et d’événements <em>interreliés</em> ;</li>



<li>Les attaques cyber impactantes suivent une stratégie constituée des <strong>objectifs stratégiques</strong> de l’acteur qu’on ne connaît pas à l’avance, eux-mêmes nécessitant d’atteindre au préalable un certain nombre d’<strong>objectifs tactiques </strong>qui eux dépendent grandement du niveau de résistance rencontré ;</li>



<li>Puis il est fort à parier que l’organisation va réagir d’une certaine façon lors du premier événement, ce qui va considérablement modifier les paramètres applicables au suivant, elle ne va pas regarder sans rien faire et rester la proie béate aux attaques ultérieures identiques. Si l’organisation est un minimum efficace, elle va modifier ses capacités de prévention, de détection, et de réaction pour tout événement similaire au premier ;</li>



<li>En outre, parce que les mesures de contrôle du risque sont rarement spécifiques à un événement de menace (par exemple le contrôle d’accès), la modification des capacités pour un événement risque fort de modifier les probabilités qu’un autre événement même différent se produise.</li>
</ul>



<p><strong>Probabilités bayésiennes</strong></p>



<p>Comment fait-on pour estimer les probabilités d’événements complexes dont les paramètres eux-mêmes sont incertains&nbsp;? C’est là que les méthodes bayésiennes sont d’un précieux secours. Dans les probabilités bayésiennes, la probabilité est «&nbsp;une mesure du degré de croyance ou de confiance associées avec l’occurrence d’un événement&nbsp;».<br>Ces méthodes sont particulièrement adaptées à l’évaluation des risques lorsque les événements dépendent de plusieurs variables partiellement connues (probabilités conditionnelles), dont les observateurs possèdent une croyance particulière que vous avez besoin d’actualiser en continu, et que les probabilités a posteriori dépendent des probabilités a priori … comme c’est le cas lorsque l’évaluation dépend de facteurs tels que le niveau de <strong>vulnérabilité</strong> (les faiblesses observées) et le degré de <strong>résistance</strong> face aux événements (les mesures de contrôle implémentées) qu’on veut comparer au niveau de risque inhérent précédemment évalué. Elles permettent d’évaluer, par exemple, la croyance <em>a priori</em> (ou inhérente) puis la croyance a posteriori (ou résiduelle) après avoir évalué la présence et l’efficacité des mesures de contrôle.</p>



<p>Les arbres bayésiens nous permettent également de déterminer des événements complexes ayant des issues de probabilité variable … et ça c’est génial à mon avis, car cela résout les limitations associées aux évaluations de risque traditionnelles qui touchent des événements très (trop) simples, les excluant de fait, alors qu’ils sont la plupart du temps complémentaires.</p>



<p><strong>Exemple d’évaluation du risque associé à la modélisation d’une attaque complexe</strong></p>



<p>Ci-dessous un exemple de modélisation d’une attaque complexe (un rançongiciel) dont on suppose que l’on ait d’abord réalisé une évaluation de chacune des phases pour déterminer le niveau inhérent (à moins de disposer déjà de cette estimation). Ensuite, on détermine le niveau de probabilité pour chacune des étapes une fois considéré la présence de mesures d’atténuation standard attendues pour chacune de ces étapes et on calcule la probabilité agrégée en multipliant toutes les valeurs. Ce type d’estimation tient compte du degré de complexité de ce type d’attaques, ce qui les rendrait moins fréquentes. Une attaque pa <em>rançongiciel</em> de ce type aurait (les valeurs attribuées sont arbitraires) une probabilité de 7,96%. Mais pour obtenir le risque résiduel, il faut aussi déterminer la magnitude d’impact, de préférence en dollars sonnants et trébuchants.</p>



<figure class="wp-block-image aligncenter size-full"><img  alt="" class="wp-image-452 lws-optimize-lazyload"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/05/ThreatModel.png"></figure>



<p>&nbsp;Pour voir les explications sur la modélisation maison adaptée à la fois de la cyber et de MITRE Att&amp;ck, vous pouvez lire l’article suivant&nbsp;: https://cyriskintel.com/menaces/</p>



<p><strong>Évaluation du niveau de risque par des probabilités bayésiennes</strong></p>



<p>Établissons une hypothèse à étudier&nbsp;: «&nbsp;Quel est la probabilité qu’un attaquant passe le périmètre en contournant le pare-feu sur Internet&nbsp;?&nbsp;».</p>



<p>P(A) désignerait la probabilité qu’un événement soit validé comme un incident (attaque réelle) en se basant sur les constats de l’équipe de SOC de l’organisation.</p>



<p>P(B) désignerait la probabilité qu’un tel événement soit détecté à temps <em>a priori</em>, grâce au SIEM dont il faudra ensuite évaluer l’efficacité.</p>



<p>P(A|B) désignerait la probabilité qu’un événement de détection B soit effectivement une attaque confirmée (événement A).</p>



<p>P(B|A) désignerait la probabilité qu’une attaque confirmée A ne soit pas détectée et que l’attaquant aurait contourné les règles du pare-feu à cause. C’est l’étape durant laquelle il faut mesurer le niveau de <em>vulnérabilité</em> (ou <em>susceptibilité</em> selon FAIR).</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img  alt="" class="wp-image-453 lws-optimize-lazyload" style="width:227px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/05/Bayes1.png"></figure>



<p>Pour illustrer l’exemple, les équipes du SOC sont assez sûres de n’avoir détecté que peu de contournements de ce pare-feu&nbsp;: P(A) = <strong>0,1 </strong>ou 10%.</p>



<p>Après avoir étudié l’implémentation du pare-feu, il s’est avéré que certaines règles n’étaient pas journalisées concernant des protocoles connus pour être exploitables. La probabilité de détecter une violation de la politique de sécurité dans ce pare-feu est estimée à&nbsp;: P(B) = <strong>0,2</strong> ou 20%. Cette probabilité concerne la simple détection de tentatives d’intrusion, pas forcément des attaques réussies et caractérisées.</p>



<p>Par ailleurs, les équipes d’administration des pares-feux sont sous l’eau et elles ont rarement l’occasion de vérifier que tous les flux autorisés sont encore justifiés. Et il apparaîtrait qu’il subsiste certaines vulnérabilités dans ce pare-feu, toujours pas corrigées, permettant à l’attaquant de potentiellement contourner les règles&nbsp;: P(B|A) = <strong>0,8</strong> ou 80%.</p>



<p>La formule bayésienne pour tenir compte de ces estimations&nbsp;serait&nbsp;:</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img  alt="" class="wp-image-454 lws-optimize-lazyload" style="width:323px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/05/Bayes2.png"></figure>



<p>En calculant la valeur d’ALE, on se rend compte que le coût d’un tel événement serait au-delà de la tolérance de l’entreprise qui mandate l’équipe de sécurité pour trouver des mesures d’atténuation du risque nécessitant de diminuer aussi bien l’impact potentiel (les pertes envisagées) en améliorant les <em>mesures réactives </em>ainsi que les probabilités en améliorant la <em>prévention</em> de ce type d’attaque. Les experts décident donc d’améliorer le processus de surveillance, notamment la journalisation et l’alertage, de créer un nouveau cas d’usage permettant au SIEM de mieux intégrer les données issues de la journalisation de ce pare-feu, cela pour diminuer la magnitude d’impact. En même temps, ils décident de créer un projet consistant à passer en revue avec les secteurs d’affaires concernés toutes les règles pour vérifier qu’elles sont toujours nécessaires. Un autre projet est lancé pour corriger la vulnérabilité du pare-feu dans les plus brefs délais.</p>



<p>On demande à l’équipe de réévaluer le risque en tenant compte de ces nouvelles informations. Les analystes reviennent avec l’évaluation suivante&nbsp;:</p>



<p>Les probabilités issues des détections courantes par les équipes du SOC ne changent pas : P(A) = <strong>0,1 </strong>ou 10%.</p>



<p>La probabilité de détecter et empêcher une violation de la politique de sécurité dans ce pare-feu est maintenant estimée à&nbsp;: P(B) = <strong>0,05</strong> ou 5%.</p>



<p>La possibilité de contourner le pare-feu et de traverser le périmètre est maintenant estimée&nbsp;: P(B|A) = <strong>0,1</strong> ou 10%.</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img  alt="" class="wp-image-455 lws-optimize-lazyload" style="width:325px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/05/Bayes3.png"></figure>



<p>En appliquant cette probabilité à la formule d’ALE précédente, la magnitude d’impact a diminué sous l’action de l’amélioration du processus de détection et la quantité de perte envisagée est maintenant considérée comme acceptable et sous contrôle. L’équipe de surveillance de risque de la deuxième ligne de défense vient confirmer que l’estimation entre maintenant dans les limites définies de l’appétit au risque, qui peut maintenant être accepté.</p>



<p>Vous avez apprécié l’article, avez des suggestions pour l’améliorer, ou vous voudrez que je clarifie un point sur la gestion des risques&nbsp;: vous pouvez me contacter sur LinkedIn ou laisser un commentaire.</p>



<p>Igor S., CISSP, CRISC, FAIR, ISO 27001 LI, etc.</p>



<p></p>
<p>The post <a href="https://cyriskintel.com/2024/05/13/lestimation-des-probabilites-lors-dune-evaluation-des-risques/">L&rsquo;estimation des probabilités lors d&rsquo;une évaluation des risques</a> appeared first on <a href="https://cyriskintel.com">Cyriskintel</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cyriskintel.com/2024/05/13/lestimation-des-probabilites-lors-dune-evaluation-des-risques/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Quantification des risques</title>
		<link>https://cyriskintel.com/2024/03/09/quantification-des-risques/</link>
					<comments>https://cyriskintel.com/2024/03/09/quantification-des-risques/#respond</comments>
		
		<dc:creator><![CDATA[IgorS]]></dc:creator>
		<pubDate>Sat, 09 Mar 2024 18:03:53 +0000</pubDate>
				<category><![CDATA[Non catégorisé]]></category>
		<category><![CDATA[CRQ]]></category>
		<category><![CDATA[évaluation]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[risk]]></category>
		<category><![CDATA[risques]]></category>
		<guid isPermaLink="false">https://riskeval.ca/?p=417</guid>

					<description><![CDATA[<p>Voici un sujet qui est particulièrement à la mode ici, au Québec, notamment l&#8217;utilisation de la méthode FAIR qui mérite une page dédiée. Je recommande [...]</p>
<p>The post <a href="https://cyriskintel.com/2024/03/09/quantification-des-risques/">Quantification des risques</a> appeared first on <a href="https://cyriskintel.com">Cyriskintel</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Voici un sujet qui est particulièrement à la mode ici, au Québec, notamment l&rsquo;utilisation de la méthode FAIR qui mérite une page dédiée. Je recommande d&rsquo;ailleurs la lecture de l&rsquo;ouvrage de jack Jones qui a créé la méthode pour quantifier le risque cyber (la nouvelle version de son livre est attendue en août 2024).</p>



<p>Les analystes de risque ayant un peu d&rsquo;expérience n&rsquo;ignoreront pas qu&rsquo;il existe deux approches d&rsquo;évaluation des risques : <strong>qualitative </strong>et <strong>quantitative</strong>. Les deux procèdent d&rsquo;une même phase d&rsquo;analyse du risque qui est la plus importante. Si les données en entrée de l&rsquo;évaluation sont erronées ou non pertinentes, aucune approche ne pourra sauver l&rsquo;évaluation : « garbage in, garbage out. » <br>La méthode qualitative utilise des valeurs <em>ordinales </em>(qui se mesurent les unes par rapport aux autres pour montrer une gradation) pour <em>hiérarchiser </em>les risques entre eux. Elle est relativement facile à modéliser et à utiliser et c&rsquo;est la raison pour laquelle elle est largement utilisée. Surtout, la plupart des analyses de risques que nous faisons en TI et cyber n&rsquo;ont aucune conséquence grave comme la perte d&rsquo;une vie humaine, et nous n&rsquo;envoyons aucune fusée sur la lune &#8230; ce n&rsquo;est pas tant la précision qui est recherchée, mais une hiérarchisation des événements qui seront ordonnées entre eux, du moins grave au plus grave. Elle fait l&rsquo;affaire pour gérer les priorités dans un programme. Le livrable le plus répandu pour présenter ces risques à la direction est la <em>carte thermique</em> de ces risques (heatmap) avec des zones de couleur représentant les degrés de gravité relative.</p>



<figure class="wp-block-image size-full is-resized"><img  alt="" class="wp-image-418 lws-optimize-lazyload" style="width:558px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/03/image-4.png"></figure>



<p>L&rsquo;avantage de ce type de représentation est sa simplicité, sa compréhension est assez intuitive même pour des personnes qui ne sont pas dans le métier. Son inconvénient c&rsquo;est que cela peut être simpliste et rigide, tout repose sur la qualité de l&rsquo;analyse et de son argumentation pour soutenir la décision de placer un risque dans une zone ou dans une autre &#8230; et généralement la partie analyse est souvent très faible pour justifier ces choix qui semblent arbitraires. <br>Surtout, l&rsquo;idée est juste de hiérarchiser et donc de donner une priorité d&rsquo;investissement de chacun des risques. Le problème s&rsquo;aggrave lorsque cette simplification dont la valeur est purement pédagogique donne lieu à des abus comme de placer des <em>seuils d&rsquo;acceptabilité </em>des risques appelés parfois <em>seuils de tolérance</em> et d&rsquo;autres, moins bien inspirés, seuils d&rsquo;appétit au risque (ce qui mérite un autre article). C&rsquo;est dangereux parce qu&rsquo;ils règlent de manière excessivement rigide les risques dont on va s&rsquo;occuper et ceux dont on ne s&rsquo;occupera pas (ou moins vite). Or les risques sont toujours plus que les valeurs qui leur sont attribuées. Des risques de non-conformité réglementaire, même placés dans la zone modérée, méritent probablement une attention particulière (on dira que l&rsquo;organisation a un appétit limité pour ce type de risques, surtout dans un secteur très réglementé comme le secteur financier). Il est aussi possible de pondérer davantage les impacts de certains types de risque, par exemple les risques de non-conformité seraient relativement plus élevés que des risques opérationnels. <br>L&rsquo;autre problème avec cette approche réside dans le raccourci méthodologique qui consiste à multiplier (souvent) ou additionner (plus rarement) les valeurs estimées de vraisemblance et d&rsquo;impact. Or, à moins de quantifier des risques, multiplier des valeurs ordinales n&rsquo;a absolument aucun sens car elles ne représentent rien dans l&rsquo;abslu sauf un degré relatif dans une échelle rigide allant de 4 à 10. C&rsquo;est aller un peu vite dans l&rsquo;interprétation de la formule (non mathématique) décriant un risque :</p>



<figure class="wp-block-image size-full is-resized"><img  alt="" class="wp-image-429 lws-optimize-lazyload" style="width:457px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/04/image.png"></figure>



<p>La véritable signification de cette formule, exploitant des propriétés arithmétiques basiques, c&rsquo;est de dire que si un facteur est nul (on dirait sa valeur est égale à zéro), alors le risque est nul également. C&rsquo;est une manière d&rsquo;exprier simplement la nécessité de conjuguer les deux facteurs et non une formule magique permettant de qualifier des risques. Pour ma part, j&rsquo;ai choisi depuis longtemps d&rsquo;utililser la moyenne. Elle a pour avantage de ne jamais dépasser les valeurs extrêmes de base. Pr exemple si l&rsquo;échelle est de 4 valeurs, de 1 à 4, la valeur moyenne ne sera jamais inférieure à 1 et ne sera jamais supérieure à 4. Par ailleurs, le calcul de la moyenne est une manière presque intuitive de conjuguer plusieurs facteurs. Si l&rsquo;envie nous prenait de pondérer un facteur, il suffirait d&rsquo;opter pour une moyenne pondérée. Mais en aucun cas on ne doit oublier qu&rsquo;on ne calcule que la moyenne de valeurs ordinales, c&rsquo;est-à-dire, représentant une hiérarchie, un ordre relatif et non une valeur absolue. En revanche, la multiplication prend tout son sens lorsqu&rsquo;on souhaite quantifier des risques, car il n&rsquo;y a pas une infinité de moyens pour conjuguer la probabilité d&rsquo;un événement avec une perte financière &#8230;</p>



<p>Une carte thermique est un outil de discussion et de débat, sur la base des <strong>valeurs relatives</strong> et de leurs <strong>catégories </strong>(ou taxons). C&rsquo;est, pourrait-on dire, un début plutôt qu&rsquo;une fin en soi. C&rsquo;est la raison pour laquelle on l&rsquo;utilisera même pour des risques quantifiés, en remplaçant les valeurs ordinales par des fourchettes de valeurs. On retiendra alors sa portée pédagogique, plus que sa pertinence.</p>



<p>Revenons à la différence d&rsquo;approches qui soulève toujours des débats houleux du même calibre qu&rsquo;entre la <em>science dure</em> (mathématiques, physique) et la <em>science molle</em> (sciences sociales). Les défenseurs des évaluations quantitatives expriment des reproches très durs envers les évaluations qualitatives, excessives à mon sens, nourris d&rsquo;idéologie et d&rsquo;incompréhension. Les deux approches sont complémentaires, et cela aboutit souvent à une approche hybride ou semi-quantitative, surtout si on veut épargner aux différentes parties prenantes la douleur de se retrouver sur le banc de l&rsquo;école pour apprendre ou réapprendre les probabilités.</p>



<p>Un risque est lié à un <strong>événement</strong>, souvent simpliste lui-même et à toute <strong>l&rsquo;incertitude </strong>qui l&rsquo;entoure. C&rsquo;est un événement de <em>menace </em>ou événement <em>redouté</em>. Il fait peur et donc on veut pouvoir l&rsquo;anticiper. Au début de l&rsquo;analyse on connaît peu de chose sur lui, le plus souvent des idées préconçues nourries de lectures rapides de sources supposées autoritaires. L&rsquo;objectif de l&rsquo;analyse est donc d&rsquo;étudier tous les aspects relatifs à cet événement afin de pouvoir évaluer les deux facteurs d&rsquo;incertitude que sont son <em>impact </em>sur l&rsquo;organisation et la <em>vraisemblance </em>de son occurrence. En effet, un événement a toujours une <em>cause </em>et une <em>conséquence</em>, cette dernière peut avoir un certain impact sur l&rsquo;organisation.  Pour en savoir plus au sujet de l&rsquo;analyse, on pourra lire mon article dédié.<br></p>



<p>Si on veut qualifier un événement, on utilisera généralement une échelle de gradation explicite de type :</p>



<ul class="wp-block-list">
<li>Très élevé (ou Critique)</li>



<li>Élevé</li>



<li>Modéré</li>



<li>Faible</li>
</ul>



<p>La gradation a, idéalement un nombre de niveaux pair de sorte à éliminer le biais qui consiste à sélectionner la valeur moyenne par défaut. Je trouver personnellement que 4 niveaux est insuffisant pour avoir un minimum de granularité, mais il faut bien commencer quelque part. Imaginez-vous donner un niveau de<em> risque agrégé</em> pour l&rsquo;ensemble de l&rsquo;entreprise en 3 ou 4 niveaux. Est-il facile de faire comprendre à la haute direction la bonne utilisation des budgets, si d&rsquo;année en année le niveau de risque est identique ? La réponse est évidemment non. Si on avait un ou deux niveaux additionnels, il serait plus facile de montrer une certaine progression, dans les sens où le niveau de risque diminuerait avec le temps et au fil de l&rsquo;injection de dollars dans </p>



<p>Il reste qu&rsquo;avec des niveaux qualifiés, des valeurs ordinales, des zones de couleur différentes, on peut facilement saisir visuellement le regard des lecteurs. Les gradations de couleurs thermiques du bleu/vert (pourquoi vert ?) au rouge sont suffisamment intuitives sans expertise en gestion des risques. Un drapeau de couleur comme sur les abords de la plage ou un sémaphore pourraient tout aussi bien faire l&rsquo;affaire, tant que les niveaux suivent une logique simple saisissables par tous de manière uniforme.</p>



<p><strong>La révolution de la quantification des risques ?</strong></p>



<p>La question est rhétorique. Quantifier des risques n&rsquo;est pas une révolution en soi, elle a toujours existé, juste pas dans tous les domaines. La manière la plus simple de quantifier les risques c&rsquo;est d&rsquo;utiliser la fameuse formule de Perte Annuelles Attendues (ou <strong>ALE</strong>, Annualized Loss Expectancy). Dans le sens de la quantification des risques, un risque est lié à un <em>événement de perte</em>. Donc une perte annualisée permet, en conjonction de la fréquence anticipée d&rsquo;un événement de perte, d&rsquo;évaluler un risque. Vous vous souvenez de la fameuse (non) formule pour qualifier un risque ? Voici donc sa version quantifiée : </p>



<figure class="wp-block-image size-large is-resized"><img  alt="" class="wp-image-430 lws-optimize-lazyload" style="width:596px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/04/image-1-1024x90.png"></figure>



<p>C&rsquo;est si basique, que même la méthode FAIR si en vogue de nos jours, est articulée autour de cette formule. Elle ne fait qu&rsquo;ajouter avec plus ou moins de bonheur des éléments additionnels qu&rsquo;on verra un peu plus loin.</p>



<p>Décomposons cette formule :</p>



<ul class="wp-block-list">
<li><strong>ALE </strong>(<em>Annualized Loss Expectancy</em>, ou Perte Annuelles Attendues), c&rsquo;est le coût du risque, la conjugaison des coûts engendrées par un événement de perte multiplié par la fréquence anticipée de ce type d&rsquo;événement.</li>



<li><strong>ARO </strong>(<em>Annual Rate of Occurrence</em>, ou Taux d&rsquo;Occurrence Annuel), c&rsquo;est le nombre d&rsquo;événements qu&rsquo;on anticipe par an (p. ex. 0,5 c&rsquo;est un événement tous les deux ans, 1 ce sera un seul événement, etc.)</li>



<li><strong>SLE </strong>(<em>Single Loss Expectancy</em>, ou Perte Unique Attendue), c&rsquo;est le montant estimé pour un seul événement de perte, avant donc d&rsquo;y appliquer le nombre d&rsquo;événements attendus sur base annuelle.</li>
</ul>



<p>Il reste à déterminer le coût d&rsquo;un unique événement de perte. Selon la formule, on doit déterminer les éléments complémentaires par la formule  <strong>SLE = EF x AV</strong> :</p>



<ul class="wp-block-list">
<li><strong>EF </strong>(<em>Exposure Factor</em>, ou Facteur d&rsquo;Exposition, c&rsquo;est la quantité réelle de perte qu&rsquo;on anticipe et dont l&rsquo;utilisation est plus intuitive si elle est appliquée en cas de dommage physique d&rsquo;un actif, dont c&rsquo;était la portée initiale. UN événement de perte peut détruire une portion variable d&rsquo;un actif, cette portion est exprimée en ratio ou en pourcentage : un bâtiment, un serveur peut être détruit à 10, 30, 80%.</li>



<li><strong>AV </strong>(<em>Asset Value</em>, ou Valeur de l&rsquo;Actif) : c&rsquo;est la valeur en dollars sonnant et trébuchants qu&rsquo;on attribue à l&rsquo;actif affecté par l&rsquo;événement étudié. </li>
</ul>



<p>Application de la formule simple de ALE dans le cas d&rsquo;un bâtiment dont le coût est estimé à 800 000$ et dont on étudie le risque en cas de tremblement de terre. L&rsquo;événement de perte étudié serait exprimé sous la frome d&rsquo;un scénario de type : « Destruction (conséquence) de la salle de serveurs (actif) <em>suite à</em> un tremblement de terre (agent ET événement de menace) ».</p>



<ul class="wp-block-list">
<li><strong>AV </strong>= 800 000$</li>



<li><strong>EF </strong>= destruction à 80%</li>



<li><strong>SLE </strong>= EF x AV = 800 000$ x 80% = 640 000$</li>



<li><strong>ARO </strong>= 0,083 (soit un événement tous les 12 ans, 1/12)</li>



<li><strong>ALE </strong>= ARO x SLE = 0,083 x 640 000$ = 53 333$ (annuels)</li>
</ul>



<p>Si une organisation ne souhaitait pas atténuer ce risque <strong>inhérent</strong>, il lui faudra provisionner pour ces coûts. Dans le cas contraire, il lui faudrait trouver une solution pour réduire (ou atténuer) ce risque à hauteur de ce coût annuel.</p>



<p>Imaginons que le perte concerne un événement cyber, un serveur par exemple, le coût d&rsquo;un événement de perte devra inclure l&rsquo;ensemble des coûts induits par cet événement, soit : le coût annuel de licence logicielle de la solution de mitigation, le coût du support de cette solution, l&rsquo;intervention en cas d&rsquo;incident, etc. La <em>Valeur de l&rsquo;Actif</em>  reviendra potentiellement à évaluer le coût total d&rsquo;un investissement ou coût total de possession (<strong>TCO</strong>, <em>Total Cost of Ownership</em>). Si on ne connaît pas la valeur de l&rsquo;actif ou l&rsquo;ensemble des pertes qui pourraient être engendrées en cas d&rsquo;incident, ne pensez plus à quantifier le risque. Le résultat sera bien exprimé en dollars que comprendra la haute direction, mais clui-ci sera archi faux. </p>



<p>Dans le cas d&rsquo;un événement cyber, la décomposition des pertes en utilisant le facteur d&rsquo;exposition appliqué à la valeur aura moins de sens que pour un incident physique. Il y a deux alternatives, soit on ne considère que le coût estimé de l&rsquo;incident, soit on applique le facteur d&rsquo;exposition au processus sous-jacent.<br>Imaginons que l&rsquo;actif affecté est un système de mission qui génère une partie non négligeable des ventes de l&rsquo;organisation. Le facteur d&rsquo;exposition pourrait être compris comme le pourcentage de ventes que le système sert à générer annuellement et donc les pertes potentielles <em>directes</em>.<br>toute la pertinence de la quantification des risques réside dans la capacité à obtenir des probabilités d&rsquo;occurrence plausible des événements étudiés et de déterminer précisément les coûts engendrés par de tels événements. </p>



<p>Pour vous aider à trouver d&rsquo;un coût d&rsquo;oeil la valeur d&rsquo;ARO qui s&rsquo;appliquerait, voici un tableau de correspondances :</p>



<figure class="wp-block-image size-large is-resized"><img  alt="" class="wp-image-433 lws-optimize-lazyload" style="width:368px;height:auto"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/04/image-2-775x1024.png"></figure>



<p>Pour voir les correspondances avec la taxonomie de la méthode FAIR :</p>



<figure class="wp-block-image size-large"><img  alt="" class="wp-image-434 lws-optimize-lazyload"/ data-src="https://cyriskintel.com/wp-content/uploads/2024/04/image-3-1024x412.png"></figure>



<p><strong>Comment calculer la perte générée par un événement ?</strong></p>



<p><strong>FAIR </strong>distingue très justement les pertes <strong>directes </strong>(appelées <em>primaires</em>) des pertes <strong>indirectes </strong>(appelées <em>secondaires</em>), et souligne aussi que les pertes secondaires sont généralement plus élevées que les pertes primaires, mais qu&rsquo;elles sont plus rares. Je précise qu&rsquo;à mon avis, les pertes indirectes sont également plus difficiles à connaître avec exactitude, en dehors d&rsquo;une divulgation de renseignements personnels fournissant des repères gravés dans la loi. </p>



<p>Sans aller trop dans le détail, voici la liste des catégories possibles de pertes qu&rsquo;il faut prendre en compte durant une analyse quantitative :</p>



<ul class="wp-block-list">
<li>Pertes <strong>directes</strong>
<ul class="wp-block-list">
<li>Destruction physique avec la diminution de la valeur de l&rsquo;actif</li>



<li>Indisponibilité (des données, du système support)</li>



<li>Coûts de réaction aux incidents (ne pas tenir compte du salaire des analystes dont c&rsquo;est le métier, mais plutôt des heures supplémentaires qui seront dues)</li>



<li>Perte de revenu, de chiffre d&rsquo;affaires</li>



<li>Coûts engendrés par l&#8217;emploi de personnel supplémentaire, intérimaire</li>



<li>Coûts de remplacement matériel ou logiciel</li>



<li>Coûts de la perte de propriété intellectuelle</li>
</ul>
</li>



<li>Pertes <strong>indirectes</strong>
<ul class="wp-block-list">
<li>Coûts relatifs à toute procédure judiciaire</li>



<li>Coûts liés à la perte d&rsquo;une licence pour les activités clé de l&rsquo;entreprise (p. ex. licence bancaire)</li>



<li>Coûts liés à l&rsquo;intervention d&rsquo;une autorité de régulation (p. ex. l&rsquo;AMF)</li>



<li>Coûts liés à la récupération de l&rsquo;image de marque (p. ex. une agence de relations publiques)</li>



<li>Coûts liés au remplacement d&rsquo;un haut directeur démis de ses fonctions, emprisonné, etc.</li>
</ul>
</li>
</ul>



<p>Il est tout à fait possible, sinon souhaitable, d&rsquo;associer une évaluation <em>quantitative </em>de certains risques à une évaluation <em>qualitative </em>qu&rsquo;elle complétera avantageusement. Par exemple, on sélectionne certains risques qualifiés <em>d&rsquo;Élevés </em>et <em>Très élevés</em>, et on les évalue financièrement pour donner un point de vue additionnel. On pourra challenger la qualification initiale et on vérifiera le niveau de perte associée afin de communiquer ces risques précis à la haute direction ou aux secteurs d&rsquo;affaires pour les aider davantage à se situer. Je préconise d&rsquo;ajouter cette évaluation non pas dans l&rsquo;analyse de risque mais dans le registre des risques. Cette évaluation financière pourrait être la responsabilité de la deuxième ligne de défense (ou de la ligne 1B ou 1,5 lorsqu&rsquo;elle existe).</p>



<p>Le calcul de l&rsquo;ALE qui sert de base à la quantification des risques depuis les années 70 permet de déterminer le niveau de risque <strong>inhérent</strong>, c&rsquo;est-à-dire sans prendre en considération les mesures de contrôle de ce risque. La partie de la quantification la plus délicate est celle justement liée à l&rsquo;évaluation de l&rsquo;efficacité de ces mesures et de trouver une manière de répercuter cela dans les résultats du risque inhérent, sans perdre en pertinence et en évitant de s&rsquo;éloigner trop loin du rivage rassurant de la rationalité. S&rsquo;il est relativement facile de quantifier un risque inhérent, il est infiniment plus difficile d&rsquo;évaluer le risque <strong>résiduel</strong>. Je n&rsquo;ai vu à ce jour aucune méthode ou outil facilitant cet exercice, je ne pense pas non plus qu&rsquo;il y ait un consensus sur ce sujet (d&rsquo;ailleurs aucun consensus n&rsquo;est capable d&rsquo;assurer un niveau de pertinence suffisant) mais j&rsquo;essaierai dans un prochain article de proposer une approche qui me paraît logique à défaut d&rsquo;être parfaite en tout point.</p>



<p>Igor S., CISSP, CRISC, ISO 27001</p>



<p></p>
<p>The post <a href="https://cyriskintel.com/2024/03/09/quantification-des-risques/">Quantification des risques</a> appeared first on <a href="https://cyriskintel.com">Cyriskintel</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cyriskintel.com/2024/03/09/quantification-des-risques/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
