Modèles réduits à partir d’expériences numériques
Journal de la société française de statistique, Tome 152 (2011) no. 1, pp. 89-102.

Les expériences numériques apparaissent dans un grand nombre de problématiques actuelles car elles permettent de remplacer des expériences physiques difficilement réalisables. Elles consistent en des évaluations d’une fonction pour des entrées fixées. Cette fonction est généralement de type boîte noire c’est-à-dire qu’elle n’est accessible qu’à travers des appels souvent coûteux à un code de calcul. Il est alors intéressant de proposer un modèle réduit de cette fonction qui pourra être appelé de manière intensive du fait du faible coût de ses évaluations. Ce modèle réduit est généralement nommé dans la littérature un méta-modèle. Dans cet article, la fonction type boîte noire considérée décrit le comportement d’un moteur d’avion. Une difficulté supplémentaire est que le domaine de définition de la fonction (c’est-à -dire l’ensemble des conditions de vol admissibles) n’est pas connu. L’objectif est d’abord de fournir une estimation de la fonction indicatrice associée au domaine de définition, puis un méta-modèle aussi fidèle et simple que possible qui approchera la fonction sur le domaine de définition. Ce travail est un préalable à une analyse de sensibilité ou à des estimations de probabilités concernant les sorties.

Computer experiments are used when physical experiments are impracticable. A computer experiment consists of an evaluation, for a given input, of a function which describes the physical model. This function is said to be an expensive black-box function since it is known through a long time-consuming code only. Thus, a reduced model which approximates it and is fast to compute is needed to make analyses tractable. It is usually called a metamodel. In this study, the expensive black-box function modelizes the behaviour of an aircraft engine. Another difficulty comes from the fact that the domain of definition of the function which represents the acceptable flight conditions is unknown. Hence, we aim at providing an estimation of the indicator function associated to the domain and a metamodel which will approximate the function. This work is preliminary to a sensitivity analysis.

Mot clés : expériences simulées, krigeage, classification supervisée
Keywords: computer experiments, Kriging, classification
@article{JSFS_2011__152_1_89_0,
     author = {Auffray, Yves and Barbillon, Pierre and Marin, Jean-Michel},
     title = {Mod\`eles r\'eduits \`a partir d{\textquoteright}exp\'eriences num\'eriques},
     journal = {Journal de la soci\'et\'e fran\c{c}aise de statistique},
     pages = {89--102},
     publisher = {Soci\'et\'e fran\c{c}aise de statistique},
     volume = {152},
     number = {1},
     year = {2011},
     language = {fr},
     url = {http://archive.numdam.org/item/JSFS_2011__152_1_89_0/}
}
TY  - JOUR
AU  - Auffray, Yves
AU  - Barbillon, Pierre
AU  - Marin, Jean-Michel
TI  - Modèles réduits à partir d’expériences numériques
JO  - Journal de la société française de statistique
PY  - 2011
SP  - 89
EP  - 102
VL  - 152
IS  - 1
PB  - Société française de statistique
UR  - http://archive.numdam.org/item/JSFS_2011__152_1_89_0/
LA  - fr
ID  - JSFS_2011__152_1_89_0
ER  - 
%0 Journal Article
%A Auffray, Yves
%A Barbillon, Pierre
%A Marin, Jean-Michel
%T Modèles réduits à partir d’expériences numériques
%J Journal de la société française de statistique
%D 2011
%P 89-102
%V 152
%N 1
%I Société française de statistique
%U http://archive.numdam.org/item/JSFS_2011__152_1_89_0/
%G fr
%F JSFS_2011__152_1_89_0
Auffray, Yves; Barbillon, Pierre; Marin, Jean-Michel. Modèles réduits à partir d’expériences numériques. Journal de la société française de statistique, Tome 152 (2011) no. 1, pp. 89-102. http://archive.numdam.org/item/JSFS_2011__152_1_89_0/

[1] Auffray, Y.; Barbillon, P.; Marin, J.-M. Maximin Design on non-hypercube domain and Kernel Interpolation (2010) (Technical report) | arXiv | Zbl

[2] Bratley, P.; Fox, B. L. Algorithm 659 : Implementing Sobol’s quasirandom sequence generator, ACM Trans. Math. Softw., Volume 14 (1988) no. 1, pp. 88-100 | DOI | Zbl

[3] Breiman, L.; Friedman, J.; Olshen, R.; Stone, C. Classification and Regression Trees, Wadsworth and Brooks, Monterey, CA, 1984 | Zbl

[4] Bishop, C. M. Pattern Recognition and Machine Learning, Springer, New-York, 2006 | Zbl

[5] Cressie, N. Statistics for Spatial Data, Wiley, New York, 1993 | Zbl

[6] Fang, K.-T.; Li, R.; Sudjianto, A. Design and Modeling for Computer Experiments, Computer Science and Data Analysis, Chapman & Hall/CRC, 2005 | Zbl

[7] Hastie, T.; Tibshirani, R.; Friedman, J. The Elements of Statistical Learning, Springer Series in Statistics, Springer, New York, 2001 | Zbl

[8] Johnson, M. E.; Moore, L. M.; Ylvisaker, D. Minimax and maximin distance designs, Journal of Statistical Planning and Inference, Volume 26 (1990) no. 2, pp. 131 -148

[9] Koehler, J. R.; Owen, A. B. Computer experiments, Design and analysis of experiments (Handbook of Statistics), Volume 13, North Holland, Amsterdam, 1996, pp. 261-308 | Zbl

[10] Lophaven, N.S.; Nielsen, H.B.; Sondergaard, J. DACE, a Matlab Kriging Toolbox (2002) no. IMM-TR-2002-12 (Technical report Available to : http ://www2.imm.dtu.dk/ hbn/dace/dace.pdf)

[11] Marrel, A.; Iooss, B.; Dorpe, F. Van; Volkova, E. An efficient methodology for modeling complex computer codes with Gaussian processes, Computational Statistics & Data Analysis, Volume 52 (2008) no. 10, pp. 4731-4744 | Zbl

[12] Mitchell, T.; Morris, M.; Ylvisaker, D. Existence of smoothed stationary processes on an interval, Stochastic Processes and their Applications, Volume 35 (1990) no. 1, pp. 109 -119 | Zbl

[13] Oakley, J. E.; O’Hagan, A. Probabilistic Sensitivity Analysis of Complex Models : A Bayesian Approach, Journal of the Royal Statistical Society, Series B, Volume 66 (2002), pp. 751-769 | Zbl

[14] Santner, T. J.; B., Williams; W., Notz The Design and Analysis of Computer Experiments, Springer-Verlag, 2003, 283 pages | Zbl

[15] Schölkopf, B.; Smola, A. J. Learning with Kernels : Support Vector Machines, Regularization, Optimization, and Beyond, MIT Press, Cambridge, MA, USA, 2001

[16] Sacks, J.; Schiller, S. B.; Mitchell, T. J.; Wynn, H. P. Design and analysis of computer experiments (with discussion), Statistical Science, Volume 4 (1989), pp. 409-435 | Zbl

[17] Sacks, J.; Schiller, S. B.; Welch, W. J. Designs for Computer Experiments, Technometrics, Volume 31 (1989) no. 1, pp. 41-47 http://www.jstor.org/stable/1270363

[18] Stein, M. L. Interpolation of Spatial Data : Some Theory for Kriging, Springer, New York, 1999, 247 pages | Zbl

[19] Tibshirani, R. Regression Shrinkage and Selection Via the Lasso, Journal of the Royal Statistical Society, Series B, Volume 58 (1994), pp. 267-288 | Zbl

[20] Vapnik, V. N. The Nature of Statistical Learning Theory, Springer-Verlag, New-York, 1996 | Zbl

[21] Wahba, G. Spline models for observational data, CBMS-NSF Regional Conference Series in Applied Mathematics, 59, Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1990, xii+169 pages | Zbl