**DOE** = Design Of Experiment / Plan d’expériences. ^DOE
**RMS Error** = Abréviation de "Root Mean Square", représente l’écart-type à 1 $\sigma$ des résidus, (+/- 1 $\sigma$ = 68.3% de la distribution). Il est calculé à partir de la variance normalisée au [[Analyse de la validité de la modélisation#^ea6233|degré de liberté des résidus]], et donne une estimation de l'erreur de prédiction du modèle . ^RMS
> [!Info] **[Parcimonie](https://blogs.futura-sciences.com/luminet/2015/09/03/le-rasoir-dockham-1-le-principe-de-simplicite/) ou [Rasoir d’Ockham](https://fr.wikipedia.org/wiki/Rasoir_d%27Ockham)**
> (Définition importée de Wikipédia)
> - En science et en philosophie, la parcimonie (du latin parco, « s'abstenir », et munia, « le devoir ») est un **principe consistant à n'utiliser que le minimum de causes élémentaires pour expliquer un phénomène**.
> - Une formulation plus moderne est que « les hypothèses suffisantes les plus simples doivent être préférées (il faut et il suffit) ». C'est un des principes heuristiques fondamentaux en science, sans être pour autant à proprement parler un résultat scientifique.
> - Dans le langage courant, le rasoir d'Ockham pourrait s'exprimer par les phrases « **l'explication la plus simple est généralement la bonne** » ou « **Pourquoi chercher compliqué quand plus simple suffit ?** ».
> - Cependant, « la simplicité » dont il est question ici ne signifie pas que l'hypothèse la plus simpliste, la plus évidente ou la plus conventionnelle soit forcément la bonne.
> - **Le rasoir ne prétend pas désigner quelle hypothèse est vraie, il indique seulement laquelle devrait être considérée en premier.**
> - La rationalité est aujourd'hui comprise comme la pratique de la logique à laquelle on a adjoint le principe de parcimonie.
> - Ce principe, ou principe d'économie d'hypothèses, implique que lorsqu'un chercheur propose « une inférence sur le monde réel, le meilleur scénario ou la meilleure théorie est celui qui fait intervenir le plus petit nombre d'hypothèses ad hoc, c'est-à-dire hypothèses non documentées ». ^Parcimonie
**T-Value** = Valeur relative du coefficient / Erreur standard (1 $\sigma$) du coefficient, permet de calculer la probabilité d’hypothèse zéro à partir du test de Student. ^T-value
> [!Tip] [Fonction Logit](https://fr.wikipedia.org/wiki/Logit)
> $Log_{10}\frac{x}{1-x}$
> Elle permet de transformer un domaine borné entre 0 et 1 d’une variable, en un domaine de - $\infty$ à + $\infty$. Si nécessaire vous normalisez la réponse dans l’échelle 0 à 1 ^Logit
> [!Info] **Réseaux uniforme de Doehlert**
> - Uniform Shell Designs - David H. Doehlert 1970
> - https://doi.org/10.2307/2346327
> - [Forme du design avec 3 facteurs](https://www.researchgate.net/publication/336086779_Chemometric_Optimisation_of_a_Copper_Sulphide_Tailings_Flocculation_Process_in_the_Presence_of_Clays)
>
> ![[Doehlert-designs-for-the-optimization-of-three-variables-29-The-cuboctahedron-exhibits.jpg|400x400]] ^Doehlert
<br>
> [!Info] **Designs gigognes de Doehlert jusqu’à 5 facteurs**
>
> <br>
>
| Facteurs | X1 | X2 | X3 | X4 | X5 |
|----------|--------|---------|---------|---------|---------|
| Min | -1,0 | -0,866 | -0,816 | -0,791 | -0,775 |
| Max | 1,0 | 0,866 | 0,816 | 0,791 | 0,775 |
|**Expériences**||||||
| Exp1 | 0 | 0 | 0 | 0 | 0 |
| Exp2 | 1 | 0 | 0 | 0 | 0 |
| Exp3 | 0,5 | 0,866 | 0 | 0 | 0 |
| Exp4 | -1 | 0 | 0 | 0 | 0 |
| Exp5 | -0,5 | -0,866 | 0 | 0 | 0 |
| Exp6 | 0,5 | -0,866 | 0 | 0 | 0 |
| Exp7 | -0,5 | 0,866 | 0 | 0 | 0 |
|||||||
| Exp8 | 0,5 | 0,2887 | 0,816 | 0 | 0 |
| Exp9 | -0,5 | -0,2887 | -0,816 | 0 | 0 |
| Exp10 | 0,5 | -0,2887 | -0,816 | 0 | 0 |
| Exp11 | 0 | 0,5774 | -0,816 | 0 | 0 |
| Exp12 | -0,5 | 0,2887 | 0,816 | 0 | 0 |
| Exp13 | 0 | -0,5774 | 0,816 | 0 | 0 |
|||||||
| Exp14 | 0,5 | 0,2887 | 0,2041 | 0,7906 | 0 |
| Exp15 | -0,5 | -0,2887 | -0,2041 | -0,7906 | 0 |
| Exp16 | 0,5 | -0,2887 | -0,2041 | -0,7906 | 0 |
| Exp17 | 0 | 0,5774 | -0,2041 | -0,7906 | 0 |
| Exp18 | 0 | 0 | 0,6124 | -0,7906 | 0 |
| Exp19 | -0,5 | 0,2887 | 0,2041 | 0,7906 | 0 |
| Exp20 | 0 | -0,5774 | 0,2041 | 0,7906 | 0 |
| Exp21 | 0 | 0 | -0,6124 | 0,7906 | 0 |
|||||||
| Exp22 | 0,5 | 0,2887 | 0,2041 | 0,1581 | 0,7746 |
| Exp23 | -0,5 | -0,2887 | -0,2041 | -0,1581 | -0,7746 |
| Exp24 | 0,5 | -0,2887 | -0,2041 | -0,1581 | -0,7746 |
| Exp25 | 0 | 0,5774 | -0,2041 | -0,1581 | -0,7746 |
| Exp26 | 0 | 0 | 0,6124 | -0,1581 | -0,7746 |
| Exp27 | 0 | 0 | 0 | 0,6325 | -0,7746 |
| Exp28 | -0,5 | 0,2887 | 0,2041 | 0,1581 | 0,7746 |
| Exp29 | 0 | -0,5774 | 0,2041 | 0,1581 | 0,7746 |
| Exp30 | 0 | 0 | -0,6124 | 0,1581 | 0,7746 |
| Exp31 | 0 | 0 | 0 | -0,6325 | 0,7746 |
> ^DesignsDoehlert
<br>
> [!Note] Genichi Taguchi
>[Taguchi](https://nairaquest.com/fr/topics/9568-genichi-taguchi-biography-of-this-japanese-statistician) est un statisticien Japonais qui - pour ce qui nous intéresse ici - a, dans les années 50 et 60, intégré des notions fondamentales de qualité et d’efficacité aux méthodes expérimentales pour le développement et l’industrialisation.
>
> Plus particulièrement :
> - Une méthode manuelle de construction et exploitation de plans d’expérience orthogonaux, permettant une démocratisation des DOE au niveau des ingénieurs et techniciens, qu’elle que soit la taille de l’entreprise.
>> - Ces plans sont connus sous le nom de [“Table Lx”](https://support.minitab.com/fr-fr/minitab/help-and-how-to/statistical-modeling/doe/supporting-topics/taguchi-designs/catalogue-of-taguchi-designs/#l9-34)
> - La notion de perte de qualité, sous forme d’une fonction continue proportionnelle au carré de l’écart entre la cible visée et le résultats moyen obtenu.
> - En relation avec cette fonction, une fonction de robustesse qui est un **rapport Signal sur Bruit (S/N)**
>> - Le S/N de Taguchi est une réponse qui permet d’optimiser la robustesse d’un procédé, c’est à dire qui produit la réponse la plus stable vis à vis de perturbations non maîtrisables.
>> - **Elle nécessite de créer des conditions de variations de ces bruits pour chaque configuration d’expérience, ce qui multiplie fortement le nombre d’essais.**
>> - L’’objectif est de **maximiser le S/N**, selon 3 variantes de calcul dépendantes de l’objectif.
>>> - *Les Yi sont les différentes valeurs d’une réponse, correspondant aux “n” niveaux de bruit, à une configuration d’expérience donnée*
>> - si la cible est le minimum : $-10\cdot Log_{10}{\frac{1}{n}\sum_{i=1}^n{Y_i}^2}$
>> - si la cible est le maximum : $-10\cdot Log_{10}{\frac{1}{n}\sum_{i=1}^n(1/{Y_i})^2}$
>> - si la cible est une valeur spécifique, et sous contrainte d’être proche de cette valeur : $10\cdot Log_{10}{\frac{\bar{Y}^2}{\frac{1}{n}\sum_{i=1}^n(Yi-\bar{Y})^2}}$
> - Exploration détaillée de la [méthode Taguchi](https://fastercapital.com/fr/contenu/Conception-robuste---obtenir-une-conception-robuste-grace-aux-principes-de-test-Taguchi.html#la-mesure-de-la-robustesse)
^0c5f94
<br>
> [!Tip] Modélisation/simulation par un outil multi-physique par élément finis.
> Lorsque l’on décrit un phénomène physique sous forme d’une équation différentielle locale, il n’est pas toujours possible de trouver la fonction solution sur le champ complet d’application du phénomène. C’est notamment le cas lorsque plusieurs équations différentielles interagissent entre elles.
> - Une solution consiste à résoudre ce système par un calcul pas à pas sur tout le champ, avec un intervalle local suffisamment petit compatible avec ces équations différentielles. Méthode dite “aux dérivées partielles”.
> - Si le champ d’application est par exemple un seul axe spatial, il est relativement facile d’écrire un petit algorithme de calcul, y compris dans votre tableur favori, même s’il faut utiliser par exemple 1000 pas (noeuds de calcul).
> - Le problème devient vite **explosif en puissance de calcul, si vous devez adresser un espace tridimensionnel** avec en plus un déroulement temporel. Pour prendre l’exemple précédent le nombre de noeuds spatial de calcul devient 1 milliard !
>
> Ce type de calcul pas à pas sur une telle grille s’appelle la [Méthode des Eléments Finis](https://fr.wikipedia.org/wiki/M%C3%A9thode_des_%C3%A9l%C3%A9ments_finis).
>
> Des logiciels ont été développé avec des algorithmes optimisés et des systèmes d’équations couvrant presque tous les champs de la physique/chimie; l’un des plus connus est [COMSOL](https://www.comsol.fr/)
> - Pour réduire la charge de calcul, différentes astuces sont utilisées, comme par exemple réduire les dimensions spatiales par symétrie et lorsque le calcul est borné sur un ou deux coté.
>- On peut aussi utiliser un pas de grille variable, dense où la précision est nécessaire, aéré là où un estimation grossière suffit.
>- **Cette méthode et astuces associées a pris beaucoup d’ampleur depuis 2010 environ, grâce à la fois à la performance et fonctionnalité de ces logiciels et surtout l’accès de plus en plus facile à une grosse capacité de calcul.**
^a9a3c3
<br>
> [!Note] Algorithmes d’optimisation et leur utilité
>
> Supposer qu’à la suite d’un plan d’expérience :
>- vous disposez d’une surface de réponse à deux dimensions (deux facteurs)
>- la surface présente plusieurs bosses et creux
>- vous cherchez un optimum, par exemple un min qui correspond au creux le plus profond.
>- Il vous suffit alors d’un seul coup d’œil pour identifier le couple de valeurs des facteurs correspondant à cet optimum.
>
> Maintenant supposons que l’exploitation de cette surface de réponse revienne à un logiciel dans un processus automatique, quelles sont les méthodes pour trouver l’optimum ?
> - Méthode bourrin : il réalise tous les calculs correspondant à tous les noeuds d’une grille à pas fixe qui couvre uniformément toute la surface.
> - Par exemple avec un pas de 1% de chaque dimension, cela fait 100^2 = 10 000 calculs, puis un tri pour trouver la plus petite valeur.
> - Certes faisable, mais supposer maintenant qu’il s’agit d'une surface de réponse à 5 facteurs, 100^5 = 10 milliards !
> - Ajouter aussi qu’il y a plusieurs réponses, et que évidemment l’optimum de chacune n’est pas commun, bonjour la complexité pour trouver des “bons” compromis !
>
> Bref pour ces cas, divers algorithmes on été développés adaptés à différentes situations.
> - Littéralement il s’agit de **se déplacer dans cet espace multi-dimensionnel, pour trouver “LE Creux ou LA Bosse”, mais comment savoir qu’il ne s’agit pas d’un min ou max local ?**
> - Pour éviter ce piège, les algorithmes utilisent des déplacements aléatoires (en pas ou “vitesse”, en direction) et suivent différentes lois (suivre une pente, un indice de performance par sous ensemble de points, etc…)
> - Ici les auteurs en utilisent un de type PSO ([Particule Swarm Optimization](https://fr.wikipedia.org/wiki/Optimisation_par_essaims_particulaires)).
> - Ces outils sont-ils fiables à 100 % ? Ha non, ils peuvent parfois passer à coté de l’optimum, surtout dans les cas où la zone marquée est étroite.
>
>> [!bug] Vous en avez déduit que dès une dimension 3 et au-delà, ces outils magiques sont inévitables,…et bien Non !
>> - En fait **la caractéristique clé qui les rend indispensables est la complexité du modèle**.
>>> - Un modèle est réellement complexe s’il y a des interactions à effets moyens à très forts.
>>> - De telles interactions signifient que les fonctions de réponses ne sont pas indépendantes entre facteurs, en conséquence il est impossible de visualiser en un seul graphe ces fonctions.
>>> - **Rechercher manuellement un optimum devient très difficile voir infaisable s’il y a plusieurs interactions fortes**.
>> - A l’inverse si le modèle ne comporte pas d’interactions ou si elles sont à faible effet, vous pouvez visualiser chaque fonction de réponse par facteur indépendamment les unes des autres.
>>> - L’optimum général correspond à la combinaison des optimums indépendants de tous les facteurs, et ce quelle que soit le nombre de facteurs ! [[Un réseau bien net !#^17d04a|Exemple]]
>>> - **Cette règle de base semble oubliée de nombreux auteurs** 🙄
^b14b31