Optimisation
Glossaire des termes

Méthode adjointe

La méthode adjointe calcule les sensibilités d’un objectif scalaire par rapport à de nombreuses variables de conception, à un coût à peu près indépendant du nombre de variables. Après avoir résolu la simulation principale (écoulement, structure), une équation adjointe est résolue, fournissant les gradients de l’objectif. Cela rend l’optimisation en haute dimension (par ex. forme, topologie) réalisable. La méthode est particulièrement puissante en CFD, où une recherche basée sur les gradients sur des centaines de paramètres de forme serait autrement infaisable.


Ajustement de courbe

L’ajustement de courbe est le processus de construction d’une fonction mathématique qui s’adapte au mieux à un ensemble de points de données. Le processus utilise des méthodes telles que l’interpolation pour un ajustement exact ou le lissage pour un ajustement approximatif.


Plan d’expériences

Le plan d’expériences (DOE) est une technique permettant de déterminer scientifiquement l’emplacement d’un certain nombre de points d’échantillonnage pour obtenir une bonne compréhension de la réponse d’un système. En général, ces points sont des variables d’entrée, bornées par des valeurs maximales et minimales. Lorsqu’on considère plusieurs variables d’entrée, le nombre de combinaisons possibles peut rapidement devenir trop élevé. Avec le DOE, ce nombre est réduit à un niveau gérable. Les résultats des analyses basées sur le DOE sont souvent présentés sous forme de surface de réponse pour prédire le comportement d’un système sans analyses supplémentaires.


DOE

voir Plan d’expériences


Optimisation déterministe

L’optimisation déterministe suppose que toutes les entrées, modèles et réponses sont exacts et reproductibles — exécuter deux fois le même problème donne des résultats identiques. Les techniques classiques (programmation linéaire, non linéaire, optimisation convexe) tirent parti de cette certitude pour garantir la convergence et une recherche efficace. Contrairement à l’optimisation stochastique ou à l’optimisation probabiliste, qui traitent explicitement de l’aléa, les méthodes déterministes gèrent l’incertitude séparément ou via un post‑traitement. Elles excellent lorsque les modèles sont précis et que le coût de calcul est critique, mais peuvent produire des conceptions sensibles à la variabilité réelle, à moins d’être combinées à des analyses de robustesse ou de fiabilité.


Algorithmes évolutionnaires (EA)

Les algorithmes évolutionnaires (EA) sont des optimiseurs stochastiques basés sur une population, inspirés de l’évolution naturelle. Un ensemble de solutions candidates (« population ») subit sélection (les individus les plus aptes sont choisis), croisement (recombinaison des variables de conception) et mutation (perturbations aléatoires). Au fil des générations, la population évolue vers de meilleures solutions. Les EA excellent dans la recherche globale, la gestion d’objectifs complexes, discontinus ou bruités, mais nécessitent généralement de nombreuses évaluations de fonction.


Algorithme génétique (AG)

Les algorithmes génétiques sont une classe d’algorithmes évolutionnaires où les solutions sont codées sous forme de « chromosomes » — chaînes de bits, entiers ou valeurs réelles. Les opérateurs imitent la génétique biologique : le croisement échange des segments entre parents ; la mutation inverse des bits ou perturbe des valeurs. La pression de sélection conduit la population vers une meilleure aptitude. Les AG gèrent bien les problèmes discrets, mixtes et très non linéaires, mais l’ajustement des paramètres (taille de population, taux de croisement/mutation) est crucial pour l’efficacité.


Descente de gradient

La descente de gradient est une méthode itérative du premier ordre : à chaque étape, les variables de conception se déplacent à l’opposé du gradient de l’objectif selon une taille de pas (taux d’apprentissage). C’est simple et peu gourmand en mémoire, mais peut converger lentement dans des vallées étroites ou mal conditionnées. Des variantes — momentum, pas adaptatif (AdaGrad, RMSProp) — atténuent ces problèmes. En ingénierie, des améliorations par recherche linéaire ou trust-region remplacent souvent la descente de gradient à pas constant pour plus de robustesse.


Méthode basée sur le gradient

Les méthodes basées sur le gradient utilisent les dérivées de l’objectif et des contraintes pour guider la recherche. Les méthodes du premier ordre (steepest descent, conjugate gradient) utilisent des vecteurs de gradient ; celles du second ordre (Newton, quasi-Newton) utilisent également l’information de la Hessienne pour la courbure. Lorsque l’objectif et les contraintes sont lisses et différentiables, elles convergent rapidement près de l’optimum. Elles peinent en présence de dérivées bruitées (simulations Monte Carlo) ou de discontinuités (changements de topologie), et peuvent nécessiter des sensibilités précises par différences finies ou adjointes.


Métamodèle

voir Modèle de substitution


Optimisation multi‑objectif

L’optimisation multi‑objectif consiste à optimiser simultanément deux objectifs ou plus qui sont en conflit. Au lieu d’un objectif scalaire unique, les algorithmes génèrent une population de solutions approchant le front de Pareto. Les techniques incluent la méthode de la somme pondérée (combinaison des objectifs en un seul scalaire), les algorithmes évolutionnaires basés sur Pareto (NSGA‑II, SPEA2) et les méthodes d’atteinte d’objectif. Ce paradigme est courant en ingénierie lorsque des compromis (coût vs performance, poids vs résistance) doivent être explicitement évalués.


Fonction objective

La fonction objective (également appelée fonction de coût ou d’aptitude) est une expression mathématique qui quantifie la “qualité” d’un design ou d’une solution, généralement sous forme d’une valeur scalaire (bien que des objectifs vectoriels apparaissent en optimisation multi‑objectif). En ingénierie, elle peut représenter le poids, la conformité, la traînée ou la consommation d’énergie. Lors de l’optimisation, les algorithmes cherchent à minimiser ou maximiser cette fonction sous contraintes. Une fonction bien formulée reflète clairement la métrique de performance et équilibre souvent des priorités concurrentes (par ex. rigidité vs poids) en les combinant en une mesure unique.


Optimisation paramétrique

Dans l’optimisation paramétrique, un ensemble de paramètres d’entrée, tels que la géométrie, les propriétés du matériau, les charges, etc., est varié pour étudier la réponse d’une structure. Des techniques comme le DOE et les surfaces de réponse sont utilisées en combinaison pour éviter d’exécuter une analyse distincte pour chaque valeur possible d’une variable d’entrée.


Optimisation probabiliste

L’optimisation probabiliste est une branche spécialisée de la optimisation stochastique qui modélise les entrées incertaines avec des distributions de probabilité explicites et formule les objectifs ou contraintes en termes probabilistes — comme “limiter la probabilité de défaillance à 1 %” ou “maximiser la probabilité d’atteindre un seuil de performance”. Contrairement à l’optimisation déterministe, qui traite toutes les entrées comme exactes et gère l’incertitude en post‑traitement, les méthodes probabilistes intègrent directement les techniques de fiabilité (p. ex. FORM/SORM, RBDO basé sur un modèle de substitution) dans la boucle d’optimisation.


Optimisation par essaims de particules (PSO)

La PSO est une méthode basée sur une population où chaque “particule” ajuste sa position dans l’espace des concepts en fonction de sa meilleure position connue et de la meilleure globale (ou de voisinage). Les particules équilibrent exploration et exploitation via des mises à jour de vitesse influencées par des composantes cognitives et sociales. La PSO est simple à implémenter, possède peu de paramètres et fonctionne bien pour les problèmes continus, mais peut souffrir de convergence prématurée et avoir du mal avec les espaces discrets ou fortement contraints.


Surface de réponse

Une surface de réponse est une courbe de meilleur ajustement pour un ensemble de points de données à plusieurs variables. Elle prédit ou approche une variable de sortie en fonction de deux variables d’entrée ou plus, à partir d’un nombre limité de points calculés ou mesurés.


Optimisation de conception robuste

L’optimisation de conception robuste recherche des solutions qui maintiennent la performance malgré la variabilité (tolérances de fabrication, propriétés des matériaux, conditions de charge). Les objectifs peuvent inclure la minimisation de la moyenne et de la variance des métriques de performance. Les techniques reposent sur la modélisation probabiliste, les scénarios du pire cas ou l’utilisation de modèles de substitution pour approcher les moments statistiques. Les conceptions robustes sacrifient les performances maximales au profit de la stabilité, assurant la fiabilité en conditions réelles.


Recuit simulé

Le recuit simulé est une technique probabiliste inspirée du recuit métallurgique. En commençant à haute “température”, l’algorithme accepte à la fois des déplacements améliorants et, avec une probabilité décroissante dans le temps, des déplacements détériorants — permettant d’échapper aux optima locaux. À mesure que la température diminue selon un plan de refroidissement, la probabilité de mouvements défavorables diminue, focalisant l’exploration. Le recuit simulé est facile à implémenter et gère les espaces discrets, mais sa vitesse de convergence dépend fortement du plan de refroidissement.


Analyse Six Sigma

Une analyse typique suppose que les paramètres d’entrée (matériau, géométrie, charges, etc.) ont une valeur fixe. Pour éliminer l’incertitude associée, on utilise souvent un facteur de sécurité. Cette approche est dite déterministe.
Le Design for Six Sigma offre un mécanisme prenant en compte la variation statistique de ces variables d’entrée. Le résultat est une distribution statistique de la réponse du système. Cette approche est dite probabiliste. Un produit atteint la qualité Six Sigma si seulement 3,4 défauts surviennent par million d’unités.


Optimisation stochastique

L’optimisation stochastique englobe les méthodes qui gèrent explicitement l’aléa dans les fonctions objectifs ou contraintes par échantillonnage — souvent via Monte Carlo, approximation stochastique ou estimations de gradient bruitées (p. ex. SGD). Ces algorithmes recherchent des solutions présentant de bonnes performances en moyenne ou dont les distributions de performance satisfont certains critères. Contrairement à l’optimisation déterministe, qui suppose des modèles exacts et reproductibles, les approches stochastiques intègrent la variabilité pendant la recherche. Elles recoupent l’optimisation probabiliste, mais de manière plus large : les méthodes probabilistes se concentrent sur les chance-constraints et les objectifs de probabilité de défaillance, tandis que les méthodes stochastiques incluent aussi des techniques résilientes au bruit ou basées sur l’échantillonnage sans formulation explicite de fiabilité.


Modèle de substitution (Métamodèle)

Les modèles de substitution ou métamodèles approximativement remplacent des simulations coûteuses (FEA/CFD) par des fonctions analytiques ou statistiques bon marché : polynômes, krigeage (processus gaussien), fonctions à base radiale, réseaux de neurones. Ils prédisent les valeurs de l’objectif et des contraintes en de nouveaux points et fournissent des estimations d’incertitude pour l’exploration. En remplaçant les simulations coûteuses, ils permettent la recherche globale ou l’analyse de sensibilité. Leur précision dépend de la qualité des échantillons ; un échantillonnage adaptatif (DOE séquentiel) est souvent employé.


Optimisation topologique

L’optimisation topologique est une méthode mathématique qui optimise la répartition du matériau dans un espace de conception donné, pour un ensemble de charges, contraintes et conditions aux limites. L’objectif est de maximiser la performance d’un système.
Contrairement à l’optimisation paramétrique, l’optimisation topologique peut produire toute forme possible dans l’espace de conception. Ces formes organiques, typiques de l’optimisation topologique, sont souvent difficiles à fabriquer par des méthodes traditionnelles et conviennent mieux à la fabrication additive ou aux techniques de moulage avancées.


Scénario « et si »

Divers scénarios « et si » quantifient l’influence de plusieurs variables de conception sur la performance d’un produit ou d’un processus. Voir aussi Optimisation paramétrique.


Nos cours

Si vous souhaitez en savoir plus sur l’utilisation plus efficace de la méthode des éléments finis dans vos conceptions, vous pouvez consulter notre cours Introduction pratique à la méthode des éléments finis ou notre cours Introduction à l’analyse de fatigue avec la MEF.