Utilisateur:JV1995/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

La méthode de Morris[modifier | modifier le code]

La méthode de Morris[1] est une méthode d'analyse de sensibilité. Elle permet d'analyser un modèle non monotone et discontinu et est peu couteuse en temps de calcul[2] pour ce type de méthode. C'est une méthode intermédiaire qui permet un bon compromis entre l'exactitude et l'efficacité.

Fonctionnement[modifier | modifier le code]

Il faut, dans un premier temps, définir les entrées et les sorties du modèle.

Plages d'entrées du modèle[modifier | modifier le code]

On note X, le vecteur contenant les k paramètres d'entrées du modèle  (X1, X2 , ..., Xk).

Des intervalles de variation sont définis pour chacun des paramètres puis dimensionnés pour obtenir, pour tous les paramètres, un intervalle sans dimension, c'est à dire qui varie entre 0 et 1. Ces intervalles sont divisés en un nombre p de segments (p est souvent égal  à 4, à 6 ou à 8). L'espace des paramètres est donc un hypercube de dimension k, noté Ω.

Ensuite dans cet espace de dimension k (que l'on peut visualiser comme une grille), on va venir choisir un certain nombre de points, qui correspondent chacun à un vecteur X (données d'entrée), qui vont permettre d'évaluer le modèle. Une méthode d'échantillonnage permet de choisir ces points.

Méthode d'échantillonnage[modifier | modifier le code]

Figure 1 - Représentation d'Ω et de deux trajectoires pour un modèle avec k=3 et p=4.

L'idée est de venir sélectionner un certain nombre de trajectoires dans Ω. Une trajectoire est un chemin dans Ω tracé en variant une fois tour à tour chacun des paramètres. Une trajectoire comporte donc k+1 points (k+1 vecteurs X). La figure 1 présente un exemple avec deux trajectoires pour un modèle régi par k=3 paramètres pour faciliter la visualisation.

Pour que l'analyse de sensibilité soit correcte il faut un nombre suffisamment élevé de trajectoires pour que tout l'espace d'existence des paramètres soit pris en compte. On cherche ainsi, en augmentant le nombre de trajectoires, à explorer la globalité de Ω pour avoir une vision globale de l'impact des paramètres sur la ou les sorties du modèle. Le nombre d'évaluation du modèle est T(k+1), où T désigne le nombre de trajectoires, chaque évaluation est représentée par un point noir dans la figure 1.

Il existe différentes méthodes d'échantillonnage de Ω[1][3][4]. La méthode initiale de Morris, repose sur des choix aléatoires : on tire aléatoirement le point de départ ainsi que les directions successives qui permettent de créer une trajectoire. Plusieurs auteurs [3][4]ont travaillé pour rendre l'exploration de Ω meilleure sans avoir à augmenter le nombre de trajectoires. En effet, si la stratégie d'échantillonnage n'est pas suffisamment performante, l'analyse risque d'être erronée, en identifiant, par exemple, comme paramètres significatifs des paramètres qui ne le sont pas.

Campolongo et al[3] ont mis au point une stratégie pour rendre plus uniforme la distribution des différentes valeurs prises par un paramètre au cours de l'analyse. Ils ont proposé une méthode combinatoire pour trouver parmi un grand nombre de trajectoires, noté NT, (entre 500 et 1000) générées aléatoirement les T trajectoires les mieux réparties dans l'espace Ω. Cette méthode est utilisable seulement pour un petit nombre de trajectoires parmi les NT, car le temps de calcul croît exponentiellement dû à l'aspect combinatoire. Ruano et al[4] ont mis au point une autre méthodologie, pour sélectionner les T trajectoires, qui pallie au problème du temps de calcul. Ils se basent, comme Campolongo, sur les distances entre les NT trajectoires générées aléatoirement, mais sélectionnent les T trajectoires parmi les NT par l'enchainement de plusieurs étapes itératives.

Cette approche n'assure pas de trouver la combinaison optimale globale, mais assure seulement un optimum local. D'autres techniques d'échantillonnage existent dont la conception ne repose pas sur le principe de trajectoires, comme par exemple celles dont la conception repose sur un principe de radiation[5]. Alors que les méthodes basées sur le principe de trajectoires utilisent la même largeur de pas entre deux points d'une trajectoire mais change de point à chaque fois, les méthodes de radiation utilisent des pas différents mais repartent à chaque itération du même point initial.

Une fois choisie la méthode d'échantillonnage, il faut construire le plan d'expérience. On réalise ensuite toutes les évaluations du modèle et on obtient pour chacune la sortie du modèle, notée Y(X) pour l'évaluation à partir du vecteur d'entrée X.

Évaluation et analyse des effets élémentaires[modifier | modifier le code]

La méthode de Morris[1] fonctionne avec une méthode d'échantillonnage OAT (One At a Time). Cela signifie qu'entre deux évaluations du modèle un seul paramètre change de valeur. Pour évaluer l'impact d'un paramètre, on calcule son effet élémentaire. L'effet élémentaire (EE) d'un paramètre est l'ampleur de la variation induite par la variation prédéfinie d'un paramètre. L'idée de la méthode de Morris est que les EE sont des approximations des dérivées partielles du premier ordre de la sortie du modèle.

Pour une variation Δi du paramètre i, l'EE est calculé à l'aide de l'équation suivante,  :

ei est un vecteur de la même taille que X rempli de zéro excepté à l'index i (du paramètre testé) où il y a un 1.

Morris souhaite classer les paramètres en trois groupes :

  • les paramètres négligeables, qui correspondent aux paramètres pour lesquels la dérivée partielle de la sortie par rapport au paramètre est nulle,
  • les paramètres importants avec un effet linéaire, qui correspondent aux paramètres pour lesquels la dérivée partielle de la sortie par rapport au paramètre est une constante (plutôt élevée) différente de zéro,
  • les paramètres avec des effets non linéaires et/ou qui interagissent avec d'autres paramètres, qui correspondent aux paramètres pour lesquels la dérivée partielle de la sortie par rapport au paramètre n'est pas constante et dépend du paramètre et/ou de la valeur d'autres paramètres.

Comme expliqué précédemment, chaque trajectoire fait varier une fois chaque paramètre, on peut donc calculer pour chaque paramètre autant d'EE qu'il y a de trajectoires. La grandeur proposée par Morris pour mesurer l'importance de l'influence globale d'un paramètre i est la moyenne des EE, μi. La mesure de la non linéarité ou des interactions est réalisée à l'aide de l'écart type des EE, σi.

Campolongo et al[3] proposent d'utiliser plutôt la moyenne de la valeur absolue des EE, μi*, pour éviter que les EE se compensent s'ils ne sont pas de même signe.

Figure 2 - Graphe qui permet de classifier les paramètres à l'issu de l'analyse de sensibilité de Morris.

La perte d'information vis à vis de la monotonie liée à l'utilisation de μi* peut être compensée en comparant μi* et μi. Si les deux grandeurs sont égales alors l'effet est monotone puisque tous les EE ont le même signe.

Figure 3 - Représentation d'une distribution gaussienne et lien avec les EE.

En résumé, μi* permet donc d'identifier l'importance des paramètres et de les classer. σi mesure la dispersion dans la sortie du modèle due à un paramètre spécifique. Elle indique l'ampleur de la dépendance du paramètre avec les autres paramètres ou l'impact non linéaire du paramètre. Globalement, si σi est élevé, on se trouve face à de la non linéarité ou/et de l'interaction avec d'autres paramètres. Si σi et μi* sont faibles, le paramètre est considéré comme négligeable. Si μi* est grand et σi petit, le paramètre est important et a un impact linéaire. Le graphe de σ en fonction de  μ*,  illustré dans la figure 2, est souvent tracé pour visualiser les résultats. Garcia Sanchez et al [6]ont défini des critères, illustrés dans la figure 2, qui permettent d'approfondir l'analyse de σi en fonction de μi* :

  • si σi est inférieur à 0.1μi* alors le paramètre a un impact presque linéaire,
  • si σi est inférieur à 0.5μi* alors le paramètre a un impact monotone,
  • si σi est inférieur à μi* alors le paramètre a un impact presque monotone,
  • si σi est supérieur à μi* alors le comportement est non linéaire (interaction,...).

Ces limites sont justifiées, par Garcia Sanchez et al [6], par le fait que si la distribution des EE est normale, la limite σ < 0.1μi* implique que 95% des EE sont contenus dans ±20% autour de la valeur moyenne (illustration figure 3), et que donc la plupart des EE ont des valeurs presque identiques, ce qui implique donc que l'impact du paramètre est presque linéaire (pour une linéarité parfaite il faut que σ=0). De même, la limite σ < 0.5μi* implique que 95% des EE ont le même signe que la moyenne et que donc l'impact du paramètre est monotone. Si les distributions des EE ne sont pas normales, on peut justifier la limite de la monotonie en traçant en fonction de. On peut identifier la limite jusqu'à laquelle, les points se situent sur la droite x=y. En effet si , on peut supposer que , et donc que tous les EE ont le même signe, ce qui implique la monotonie. En traçant ces graphes, Garcia Sanchez et al[6] se sont aperçus que pour <1, les points étaient tous très proches ou confondus avec x=y, ce qui explique l'ajout de la zone presque monotone entre  σ < 0.5μ* et σ < μ*.            

μ* et σ sont donc les grandeurs usuellement utilisées pour exploiter les résultats. Menberg et al[7] rappellent que l'utilisation de ces grandeurs est appropriée lorsque la distribution est continue et symétrique, comme c'est le cas pour la distribution normale. En présence de valeurs extrêmes qui se dissocient de la majorité des valeurs ("outliers"), le classement des paramètres basés sur la moyenne risque d'être biaisé. Menberg et al proposent alors d'utiliser la médiane pour le classement des paramètre afin d'obtenir des résultats plus stables. En effet, la médiane est moins influencée que la moyenne par les valeurs extrêmes et l'allure de la distribution. Ils ont montré sur un exemple, qu'utiliser la médiane des valeurs absolues des EE permet d'obtenir des classements plus stables et donc probablement des résultats plus fiables avec un nombre moins élevé de trajectoires.

Fiabilité de l'analyse[modifier | modifier le code]

Pour que l'analyse de sensibilité soit fiable, il faut s'assurer que le nombre de trajectoires est suffisamment élevé pour assurer la stabilité des résultats. Il faut identifier pour quel nombre de trajectoires les résultats convergent, c'est à dire, à partir de quel moment augmenter le nombre de trajectoires ne fait plus varier le rang d'importance des paramètres ou tout du moins le rang de groupes de paramètres. Pour cela, on peut utiliser un facteur de position, similaire à celui proposé par Ruano et al [8] :

Pp,i est la position dans le classement obtenue par le paramètre p lorsque le nombre de trajectoires est égal à ti et Pp,j est la position dans le classement obtenue par le paramètre p lorsque le nombre de trajectoires est égal à tj. μPp,i,Pp,j est la moyenne des deux positions du paramètre p pour les deux valeurs de trajectoires. Si alors aucun paramètre n'a changé de position en passant de ti à tj trajectoires. On divise par la moyenne pour réduire l'importance des paramètres les moins influents.

Exemples d'utilisation               [modifier | modifier le code]

La méthode de MORRIS[1] est utilisée pour analyser de nombreux modèles dans domaines comme par exemple :

  • les installations nucléaires[9],
  • les batteries[10],
  • les pesticides[11],
  • le systèmes de refroidissement[12] ,
  • les cocktails chimiques[13],
  • la fermentation de la bière[14],
  • la localisation de source sismique[15],
  • l'analyse de modèles de contraction musculaire[16][17].

Références[modifier | modifier le code]

  1. a b c et d Max D. Morris, « Factorial Sampling Plans for Preliminary Computational Experiments », Technometrics, vol. 33, no 2,‎ , p. 161–174 (ISSN 0040-1706, DOI 10.2307/1269043, lire en ligne, consulté le )
  2. Bertrand Iooss et Paul Lemaître, « A review on global sensitivity analysis methods », dans Uncertainty management in Simulation-Optimization of Complex Systems: Algorithms and Applications, Springer, (lire en ligne)
  3. a b c et d Francesca Campolongo, Jessica Cariboni et Andrea Saltelli, « An effective screening design for sensitivity analysis of large models », Environmental Modelling & Software, vol. 22, no 10,‎ , p. 1509–1518 (ISSN 1364-8152, DOI 10.1016/j.envsoft.2006.10.004, lire en ligne, consulté le )
  4. a b et c M.V. Ruano, J. Ribes, A. Seco et J. Ferrer, « An improved sampling strategy based on trajectory design for application of the Morris method to systems with many input factors », Environmental Modelling & Software, vol. 37,‎ , p. 103–109 (ISSN 1364-8152, DOI 10.1016/j.envsoft.2012.03.008, lire en ligne, consulté le )
  5. Francesca Campolongo, Andrea Saltelli et Jessica Cariboni, « From screening to quantitative sensitivity analysis. A unified approach », Computer Physics Communications, vol. 182, no 4,‎ , p. 978–988 (ISSN 0010-4655, DOI 10.1016/j.cpc.2010.12.039, lire en ligne, consulté le )
  6. a b et c D. Garcia Sanchez, B. Lacarrière, M. Musy et B. Bourges, « Application of sensitivity analysis in building energy simulations: Combining first- and second-order elementary effects methods », Energy and Buildings, vol. 68,‎ , p. 741–750 (ISSN 0378-7788, DOI 10.1016/j.enbuild.2012.08.048, lire en ligne, consulté le )
  7. Kathrin Menberg, Yeonsook Heo et Ruchi Choudhary, « Sensitivity analysis methods for building energy models: Comparing computational costs and extractable information », Energy and Buildings, vol. 133,‎ , p. 433–445 (ISSN 0378-7788, DOI 10.1016/j.enbuild.2016.10.005, lire en ligne, consulté le )
  8. M.V. Ruano, J. Ribes, A. Seco et J. Ferrer, « An improved sampling strategy based on trajectory design for application of the Morris method to systems with many input factors », Environmental Modelling & Software, vol. 37,‎ , p. 103–109 (ISSN 1364-8152, DOI 10.1016/j.envsoft.2012.03.008, lire en ligne, consulté le )
  9. Chenyang Wang, Minjun Peng et Genglei Xia, « Sensitivity analysis based on Morris method of passive system performance under ocean conditions », Annals of Nuclear Energy, vol. 137,‎ , p. 107067 (ISSN 0306-4549, DOI 10.1016/j.anucene.2019.107067, lire en ligne, consulté le )
  10. A. Janse van Rensburg, G. van Schoor et P.A. van Vuuren, « Stepwise Global Sensitivity Analysis of a Physics-Based Battery Model using the Morris Method and Monte Carlo Experiments », Journal of Energy Storage, vol. 25,‎ , p. 100875 (ISSN 2352-152X, DOI 10.1016/j.est.2019.100875, lire en ligne, consulté le )
  11. Laura Gatel, Claire Lauvernet, Nadia Carluer et Sylvain Weill, « Global evaluation and sensitivity analysis of a physically based flow and reactive transport model on a laboratory experiment », Environmental Modelling & Software, vol. 113,‎ , p. 73–83 (ISSN 1364-8152, DOI 10.1016/j.envsoft.2018.12.006, lire en ligne, consulté le )
  12. Riccardo Talami et J. Alstan Jakubiec, « Early-design sensitivity of radiant cooled office buildings in the tropics for building performance », Energy and Buildings, vol. 223,‎ , p. 110177 (ISSN 0378-7788, DOI 10.1016/j.enbuild.2020.110177, lire en ligne, consulté le )
  13. Jingwen Song, Zhiyuan Ma, Haoyue Kong et Hongling Liu, « A mechanistic effect modeling approach to the prioritization of hidden drivers in chemical cocktails », Science of The Total Environment, vol. 748,‎ , p. 142525 (ISSN 0048-9697, DOI 10.1016/j.scitotenv.2020.142525, lire en ligne, consulté le )
  14. Alistair D. Rodman et Dimitrios I. Gerogiorgis, « Parameter estimation and sensitivity analysis for dynamic modelling and simulation of beer fermentation », Computers & Chemical Engineering, vol. 136,‎ , p. 106665 (ISSN 0098-1354, DOI 10.1016/j.compchemeng.2019.106665, lire en ligne, consulté le )
  15. Anna Franczyk, « Using the Morris sensitivity analysis method to assess the importance of input variables on time-reversal imaging of seismic sources », Acta Geophysica, vol. 67, no 6,‎ , p. 1525–1533 (ISSN 1895-6572 et 1895-7455, DOI 10.1007/s11600-019-00356-5, lire en ligne, consulté le )
  16. Ines Douania, Jeremy Laforet, Sofiane Boudaoud et Kiyoka Kinugawa, « Assessment and sensitivity analysis of a motor units recruitment model during isometric contractions of the Biceps Brachii », 2019 Fifth International Conference on Advances in Biomedical Engineering (ICABME), IEEE,‎ (DOI 10.1109/icabme47164.2019.8940248, lire en ligne, consulté le )
  17. Jolanthe Verwaerde, Jeremy Laforet, Alain Rassineux et Catherine Marque, « Sensitivity analysis of a realistic electrical model of the Uterine activity », 2021 Sixth International Conference on Advances in Biomedical Engineering (ICABME), IEEE,‎ (DOI 10.1109/icabme53305.2021.9604817, lire en ligne, consulté le )