Optimisation
Glossaire des termes
Un glossaire de référence rapide des termes utilisés en optimisation d'ingénierie et dans nos services d'optimisation. Chaque entrée fournit une définition concise du concept et, le cas échéant, sa relation avec d'autres techniques.
- Méthode adjointe
-
La méthode adjointe calcule les sensibilités d'un objectif scalaire par rapport à de nombreuses variables de conception à un coût pratiquement indépendant du nombre de variables. Après la résolution de la simulation primaire (écoulement, structurel), une équation adjointe est résolue, fournissant les gradients de l'objectif. Cela rend l'optimisation en haute dimension (par exemple forme, topologie) abordable. La méthode est particulièrement puissante en CFD, où une recherche basée sur les gradients sur des centaines de paramètres de forme serait autrement irréalisable.
- Ajustement de courbe
-
L'ajustement de courbe est le processus de construction d'une fonction mathématique qui s'ajuste au mieux à un ensemble de points de données. Le processus d'ajustement utilise des méthodes telles que l'interpolation pour un ajustement exact ou le lissage pour un ajustement approché.
- Plans d'expériences
-
Plans d'expériences (DOE) est une technique utilisée pour déterminer scientifiquement l'emplacement d'un certain nombre de points d'échantillonnage afin d'obtenir une bonne compréhension de la réponse d'un système. En général, ces points d'échantillonnage sont un certain nombre de variables d'entrée, bornées par une valeur maximale et minimale. Lorsque plusieurs variables d'entrée sont considérées, le nombre de combinaisons possibles peut rapidement devenir trop important. Avec le DOE, le grand nombre de points d'échantillonnage est réduit à un niveau plus gérable. Les résultats des analyses basées sur le DOE sont souvent présentés dans une surface de réponse pour prédire le comportement d'un système sans nécessiter d'analyses supplémentaires.
- DOE
-
voir Plans d'expériences
- Optimisation déterministe
-
L'optimisation déterministe suppose que toutes les entrées, modèles et réponses sont exacts et reproductibles—de sorte que l'exécution du même problème deux fois donne des résultats identiques. Les techniques classiques (programmation linéaire, non linéaire, optimisation convexe) exploitent cette certitude pour garantir des propriétés de convergence et une recherche efficace. Contrairement à l'optimisation stochastique ou l'optimisation probabiliste, qui traitent explicitement le caractère aléatoire, les méthodes déterministes gèrent l'incertitude séparément ou par post-traitement. Elles excellent lorsque les modèles sont précis et le coût computationnel critique, mais peuvent produire des conceptions sensibles à la variabilité réelle si elles ne sont pas combinées avec des analyses de robustesse ou de fiabilité.
- Algorithmes évolutionnaires (EAs)
-
Evolutionary algorithms (EAs) are population‑based, stochastic optimisers inspired by natural evolution. A set of candidate solutions (“population”) undergoes selection (fitter individuals chosen), crossover (recombining design variables), and mutation (random perturbations). Over generations, the population evolves toward better solutions. EAs excel at global search, handling complex, discontinuous, or noisy objectives, but typically require many function evaluations.
- Algorithme génétique (GA)
-
Genetic algorithms are a class of evolutionary algorithms where solutions are encoded as “chromosomes”—strings of bits, integers, or real values. Operators mimic biological genetics: crossover exchanges segments between parents; mutation flips bits or perturbs values. Selection pressures guide the population toward higher fitness. GAs handle discrete, mixed, and highly nonlinear problems well, but parameter tuning (population size, crossover/mutation rates) is critical for efficiency.
- Descente de gradient
-
Gradient descent is a first‑order iterative method: at each step, design variables move opposite the gradient of the objective by a step size (learning rate). It’s straightforward and memory‑efficient but can converge slowly in narrow or ill‑conditioned valleys. Variants—momentum, adaptive step‑size (AdaGrad, RMSProp)—ameliorate these issues. In engineering, line‑search or trust‑region enhancements often replace naive constant‑step gradient descent for robustness.
- Méthode basée sur le gradient
-
Les méthodes basées sur le gradient utilisent les dérivées de l'objectif et des contraintes pour guider la recherche. Les méthodes du premier ordre (descente la plus raide, gradient conjugué) utilisent des vecteurs gradients ; les méthodes du second ordre (Newton, quasi-Newton) utilisent également l'information de courbure du hessien. Lorsque l'objectif et les contraintes sont lisses et différentiables, ces méthodes convergent rapidement près des optima. Elles peinent lorsque les dérivées sont bruitées (comme avec les simulations de Monte Carlo) ou discontinues (par exemple changements de topologie), et peuvent nécessiter des sensibilités précises par différences finies ou méthode adjointe.
- Métamodèle
-
- Optimisation multi-objectif
-
L'optimisation multi-objectif implique l'optimisation simultanée de deux objectifs ou plus en conflit. Au lieu d'un objectif scalaire unique, les algorithmes génèrent une population de solutions approximant le front de Pareto. Les techniques incluent les méthodes de somme pondérée (combinaison des objectifs en un scalaire), les algorithmes évolutionnaires basés sur Pareto (NSGA-II, SPEA2) et les méthodes d'atteinte d'objectifs. Ce paradigme est courant en ingénierie lorsque des compromis (coût vs. performance, poids vs. résistance) doivent être explicitement évalués.
- Fonction objectif
-
The objective function (also called cost or fitness function) is a mathematical expression that quantifies how “good” a given design or solution is, typically as a single scalar value (though vector-valued objectives occur in multi‑objective problems). In engineering, it might represent weight, compliance, drag, or energy consumption. During optimisation, algorithms seek to minimise or maximise this function subject to constraints. A well‑formulated objective clearly captures the performance metric of interest and often balances competing priorities (e.g., stiffness versus weight) by combining them into a single measure.
- Optimisation paramétrique
-
Avec l'optimisation paramétrique, un certain nombre de paramètres d'entrée, tels que la géométrie, les propriétés des matériaux, les charges, etc., sont variés pour examiner la réponse d'une structure. Des techniques comme le DOE et les surfaces de réponse sont utilisées en combinaison avec l'optimisation paramétrique pour éviter la nécessité d'exécuter une analyse différente pour chaque valeur possible d'une variable d'entrée.
- Optimisation probabiliste
-
L'optimisation probabiliste est une branche spécialisée de l'optimisation stochastique qui modélise les entrées incertaines avec des distributions de probabilité explicites et formule les objectifs ou contraintes en termes probabilistes—such as “limit failure probability to 1 %” or “maximise probability of meeting a performance threshold.” By contrast, deterministic optimisation treats all inputs as exact and handles uncertainty only via post‑processing or robust‑design overlays. Probabilistic methods often employ reliability‑based techniques (e.g. FORM/SORM, surrogate‑based RBDO) to ensure designs satisfy chance‑constraints under variability, directly embedding reliability within the optimisation loop.
- Optimisation par essaim particulaire (PSO)
-
PSO is a population‑based method where each “particle” adjusts its position in the design space based on its own best-known position and the global (or neighborhood) best. Particles balance exploration and exploitation via velocity updates influenced by cognitive and social components. PSO is simple to implement, has few parameters, and works well for continuous problems, but can suffer premature convergence and struggles with discrete or highly constrained spaces.
- Surface de réponse
-
Une surface de réponse est une courbe d'ajustement optimal d'un ensemble de points de données à variables multiples. Une surface de réponse prédit ou approxime une variable de sortie en fonction de deux ou plusieurs variables d'entrée, basée sur un nombre limité de points de données calculés ou mesurés.
- Optimisation de conception robuste
-
L'optimisation de conception robuste recherche des solutions qui maintiennent les performances malgré la variabilité (tolérances de fabrication, propriétés des matériaux, conditions de chargement). Les objectifs peuvent inclure la minimisation de la moyenne et de la variance des métriques de performance. Les techniques impliquent la modélisation probabiliste, des scénarios du pire cas, ou l'utilisation de modèles de substitution pour approximer les moments statistiques. Les conceptions robustes échangent la performance de pointe contre la stabilité, garantissant la fiabilité en conditions réelles.
- Recuit simulé
-
Simulated annealing is a probabilistic technique inspired by metallurgical annealing. Starting at a high “temperature,” the algorithm accepts both improving and, with a probability that decays over time, worsening moves—allowing escape from local optima. As temperature lowers according to a cooling schedule, the probability of uphill moves decreases, focusing on exploitation. SA is easy to implement and can handle discrete spaces, but convergence speed depends heavily on the cooling schedule.
- Analyse Six Sigma
-
Une analyse typique suppose que les paramètres d'entrée (matériau, géométrie, charges, etc.) ont une valeur fixe. Pour éliminer l'incertitude autour de ces valeurs fixes, un facteur de sécurité est souvent utilisé. Cette approche est appelée déterministe.
La conception pour Six Sigma fournit un mécanisme qui prend en compte l'écart statistique de ces variables d'entrée. Le résultat d'une analyse Six Sigma est une distribution statistique de la réponse du système. Cette approche est appelée probabiliste. Un produit a une qualité Six Sigma si seulement 3,4 pièces par million sont défaillantes.
- Optimisation stochastique
-
L'optimisation stochastique englobe les méthodes qui gèrent explicitement le caractère aléatoire dans les fonctions objectif ou les contraintes en incorporant l'échantillonnage—souvent via Monte Carlo, approximation stochastique ou estimations de gradient bruitées (par exemple SGD). Ces algorithmes recherchent des solutions performantes en espérance ou dont les distributions de performance satisfont certains critères. Contrairement à l'optimisation déterministe, qui suppose des modèles exacts et reproductibles, les approches stochastiques acceptent la variabilité pendant la recherche. Elles chevauchent l'optimisation probabiliste, mais sont plus larges : les méthodes probabilistes se concentrent sur les contraintes probabilistes et les objectifs de probabilité de défaillance, tandis que les méthodes stochastiques incluent également des techniques tolérantes au bruit ou basées sur l'échantillonnage sans formulations de fiabilité explicites.
- Modèle de substitution (métamodèle)
-
Les modèles de substitution ou métamodèles approximent des simulations coûteuses (FEA/CFD) par des fonctions analytiques ou statistiques peu coûteuses—polynômes, krigeage (processus gaussiens), fonctions à base radiale, réseaux de neurones. Ils prédisent les valeurs de l'objectif et des contraintes en de nouveaux points et fournissent des estimations d'incertitude pour l'exploration. En remplaçant les simulations coûteuses, ils permettent une recherche globale ou une analyse de sensibilité. La précision dépend de la qualité de l'échantillonnage ; un échantillonnage adaptatif (DOE séquentiel) est donc souvent employé.
- Optimisation topologique
-
L'optimisation topologique est une méthode mathématique qui optimise la répartition d'un matériau dans un espace de conception donné, pour un ensemble donné de charges, contraintes et conditions aux limites. L'objectif d'une optimisation topologique est de maximiser la performance d'un système.
Contrairement à l'optimisation paramétrique, l'optimisation topologique peut aboutir à n'importe quelle forme possible dans l'espace de conception. Ces formes organiques, typiques de l'optimisation topologique, sont souvent difficiles à fabriquer avec les méthodes de production traditionnelles et sont donc plus adaptées à la fabrication additive ou aux techniques de fonderie avancées.
- Scénario « Et si »
-
Différents scénarios « Et si » quantifient l'influence d'un certain nombre de variables de conception sur la performance d'un produit ou d'un processus. Voir aussi Optimisation paramétrique.