Optimalisatie
Verklarende woordenlijst

Adjoint-methode

De adjoint-methode berekent gevoeligheden van een scalair doel ten opzichte van vele ontwerpparameters tegen een kost die ruwweg onafhankelijk is van het aantal variabelen. Na het oplossen van de primaire simulatie (stroming, structureel) wordt een adjoint-vergelijking opgelost, wat de gradiënten van het doel oplevert. Dit maakt optimalisatie in hoge dimensies (bijv. vorm, topologie) haalbaar. De methode is bijzonder krachtig in CFD, waar een gradiëntgebaseerde zoekopdracht over honderden vormparameters anders onuitvoerbaar zou zijn.


Curvefitting

Curvefitting is het proces van het construeren van een wiskundige functie die de beste pasvorm geeft voor een reeks datapunten. Bij curvefitting worden methoden zoals interpolatie voor exacte passing of smoothing voor benaderende passing gebruikt.


Ontwerp van experimenten

Ontwerp van experimenten (DOE) is een techniek om wetenschappelijk het aantal meetpunten te bepalen voor een goed inzicht in de respons van een systeem. Over het algemeen zijn die meetpunten een aantal invoervariabelen, begrensd door een maximum- en minimumwaarde. Wanneer meerdere invoervariabelen in beschouwing worden genomen, kan het aantal mogelijke combinaties razendsnel te groot worden. Met DOE wordt het grote aantal meetpunten teruggebracht tot een beheersbaar niveau. Resultaten van analyses gebaseerd op DOE worden vaak gepresenteerd in een responsoppervlak om het gedrag van een systeem te voorspellen zonder extra analyses uit te voeren.


DOE

zie Ontwerp van experimenten


Deterministische optimalisatie

Deterministische optimalisatie gaat ervan uit dat alle invoer, modellen en responsen exact en reproduceerbaar zijn—dus bij herhaling hetzelfde probleem te runnen geeft identieke resultaten. Klassieke technieken (lineaire programmering, niet-lineaire programmering, convexe optimalisatie) benutten deze zekerheid om convergentie-eigenschappen en efficiënte zoekalgoritmen te garanderen. In tegenstelling tot stochastische optimalisatie of probabilistische optimalisatie, die expliciet omgaan met willekeur, behandelen deterministische methoden onzekerheid apart of via nabewerkingen. Ze excelleren wanneer modellen nauwkeurig zijn en de rekentijd kritisch is, maar kunnen ontwerpen opleveren die gevoelig zijn voor variabiliteit in de praktijk, tenzij ze gecombineerd worden met robuustheids- of betrouwbaarheidsanalyses.


Evolutionaire algoritmen (EAs)

Evolutionaire algoritmen (EAs) zijn populatiegebaseerde, stochastische optimaliseerders geïnspireerd op natuurlijke evolutie. Een set kandidaat-oplossingen (“populatie”) ondergaat selectie (fitste individuen worden gekozen), crossover (recombineren van ontwerpparameters) en mutatie (willekeurige verstoringen). Gedurende generaties evolueert de populatie naar betere oplossingen. EAs zijn sterk in globale zoekopdrachten, het omgaan met complexe, discontinuë of ruisende doelen, maar vereisen doorgaans veel functieberekeningen.


Genetisch algoritme (GA)

Genetische algoritmen zijn een klasse van evolutionaire algoritmen waarbij oplossingen worden gecodeerd als “chromosomen”—reeksen bits, gehele getallen of reële waarden. Operatoren bootsen biologische genetica na: crossover wisselt segmenten uit tussen ouders; mutatie keert bits om of wijzigt waarden. Selectiedruk stuurt de populatie naar een hogere fitheid. GAs zijn geschikt voor discrete, gemengde en zeer niet-lineaire problemen, maar parameterafstemming (populatiegrootte, crossover-/mutatieratio’s) is cruciaal voor efficiëntie.


Gradient Descent

Gradient descent is een iteratieve methode van de eerste orde: in elke stap bewegen de ontwerpparameters tegenovergesteld aan de gradiënt van het doel met een stapgrootte (leersnelheid). Het is eenvoudig en geheugen-efficiënt, maar kan traag convergeren in smalle of slecht geconditioneerde dalen. Varianten—momentum, adaptieve stapgrootte (AdaGrad, RMSProp)—verhelpen deze problemen. In de techniek vervangen lijnzoek- of trust-region-verbeteringen vaak de naïeve constante stap voor meer robuustheid.


Gradiëntgebaseerde methode

Gradiëntgebaseerde methoden gebruiken afgeleiden van het doel en de constraints om de zoekrichting te sturen. Methoden van de eerste orde (steepest descent, conjugate gradient) gebruiken gradiëntvectoren; tweede-orde methoden (Newton, quasi-Newton) gebruiken daarnaast Hessiaanse informatie voor kromming. Als doel en constraints glad en differentieerbaar zijn, convergeren deze methoden snel nabij optima. Ze hebben moeite bij ruisende afgeleiden (bijv. Monte Carlo-simulaties) of discontinuïteiten (bv. topologieveranderingen), en kunnen nauwkeurige eindig-differentie- of adjoint-gevoeligheden vereisen.


Metamodel

zie Surrogaatmodel


Multi‑objective optimalisatie

Multi‑objective optimalisatie omvat gelijktijdige optimalisatie van twee of meer conflicterende doelen. In plaats van één scalair doel genereren algoritmen een populatie oplossingen die de Pareto-front benaderen. Technieken omvatten gewogen-som methoden (samenvoegen van doelen tot één scalar), Pareto-gebaseerde evolutionaire algoritmen (NSGA‑II, SPEA2) en goal‑attainment methoden. Dit paradigma is gebruikelijk in de techniek wanneer afwegingen (kosten vs. prestatie, gewicht vs. sterkte) expliciet moeten worden geëvalueerd.


Doelfunctie

De doelfunctie (ook kosten- of fitheidsfunctie genoemd) is een wiskundige uitdrukking die kwantificeert hoe “goed” een bepaald ontwerp of oplossing is, typisch als één scalair waarde (hoewel vectorwaarde doelen voorkomen in multi‑objective problemen). In de techniek kan het gewicht, vervorming, weerstand of energieverbruik weergeven. Tijdens optimalisatie streven algoritmen ernaar deze functie te minimaliseren of maximaliseren onder constraints. Een goed geformuleerde functie vangt duidelijk de prestatiemaatstaf en balanceert vaak concurrerende prioriteiten (bijv. stijfheid versus gewicht) door ze in één maat te combineren.


Parametrische optimalisatie

Bij parametrische optimalisatie worden een aantal invoerparameters, zoals geometrie, materiaaleigenschappen, belastingen, enz., gevarieerd om de respons van een structuur te onderzoeken. Technieken zoals DOE en responsoppervlakken worden gecombineerd met parametrische optimalisatie om te voorkomen dat voor elke mogelijke waarde van een invoervariabele een aparte analyse moet worden uitgevoerd.


Probabilistische optimalisatie

Probabilistische optimalisatie is een gespecialiseerde tak van stochastische optimalisatie die onzekere invoer modelleert met expliciete kansverdelingen en doelen of constraints formuleert in probabilistische termen—zoals “beperk faalkans tot 1 %” of “maximaliseer de kans op het behalen van een prestatiedrempel.” In tegenstelling tot deterministische optimalisatie, die alle invoer als exact beschouwt en onzekerheid alleen via nabewerking behandelt, integreren probabilistische methoden betrouwbaarheidstechnieken (bijv. FORM/SORM, surrogate-gebaseerde RBDO) rechtstreeks in de optimalisatielus om chance-constraints te garanderen.


Particle Swarm Optimalisatie (PSO)

PSO is een populatiegebaseerde methode waarbij elk “deeltje” zijn positie in de ontwerpruimte aanpast op basis van zijn eigen beste bekende positie en de globale (of buur) beste positie. Deeltjes balanceren exploratie en exploitatie via snelheidsupdates beïnvloed door cognitieve en sociale componenten. PSO is eenvoudig te implementeren, kent weinig parameters en werkt goed voor continue problemen, maar kan te vroeg convergeren en moeite hebben met discrete of sterk begrensde ruimtes.


Responsoppervlak

Een responsoppervlak is een best-passende curve voor een reeks datapunten met meerdere variabelen. Een responsoppervlak voorspelt of benadert een uitvoervariabele als functie van twee of meer invoervariabelen, op basis van een beperkt aantal berekende of gemeten datapunten.


Robuuste ontwerpoptimalisatie

Robuuste ontwerpoptimalisatie zoekt naar oplossingen die prestaties behouden ondanks variabiliteit (productietoleranties, materiaaleigenschappen, belastingscondities). Doelen kunnen het minimaliseren van de gemiddelde waarde en variantie van prestatiemaatstaven omvatten. Technieken omvatten probabilistisch modelleren, worst-case scenario’s of het gebruik van surrogate-modellen om statistische momenten te benaderen. Robuuste ontwerpen ruilen piekprestaties in voor stabiliteit, wat betrouwbaarheid in de praktijk garandeert.


Simulated Annealing

Simulated annealing is een probabilistische techniek geïnspireerd op metallurgisch annealing. Beginnend bij een hoge “temperatuur” accepteert het algoritme zowel verbeterende als, met een afnemende kans over tijd, verslechterende stappen—waardoor ontsnapping uit lokale optima mogelijk is. Naarmate de temperatuur daalt volgens een koelschema, neemt de kans op slechte stappen af en verschuift de focus naar exploitatie. SA is eenvoudig te implementeren en kan omgaan met discrete ruimtes, maar de convergentiesnelheid hangt sterk af van het koelschema.


Six Sigma-analyse

Een typische analyse gaat ervan uit dat invoerparameters (materiaal, geometrie, belastingen, enz.) een vaste waarde hebben. Om de onzekerheid rond deze vaste waarden te elimineren, wordt vaak een veiligheidsfactor gebruikt. Deze aanpak heet deterministisch.
Design for Six Sigma biedt een mechanisme dat statistische variatie van die invoervariabelen in rekening brengt. De output van een Six Sigma-analyse is een statistische verdeling van de respons van het systeem. Deze aanpak heet probabilistisch. Een product heeft Six Sigma-kwaliteit als slechts 3,4 per miljoen onderdelen uitvallen.


Stochastische optimalisatie

Stochastische optimalisatie omvat methoden die expliciet omgaan met willekeur in doelfuncties of constraints door sampling—vaak via Monte Carlo, stochastische benadering of ruisgevoelige gradiëntschattingen (bijv. SGD). Deze algoritmen zoeken oplossingen die goed presteren in verwachting of waarvan de prestatiedistributies voldoen aan bepaalde criteria. In tegenstelling tot deterministische optimalisatie, die uitgaat van exacte, reproduceerbare modellen, omarmen stochastische benaderingen variabiliteit tijdens de zoekopdracht. Ze overlappen met probabilistische optimalisatie, maar zijn breder: probabilistische methoden richten zich op chance-constraints en faalkansdoelen, terwijl stochastische methoden ook ruisbestendige of sampling-gebaseerde technieken zonder expliciete betrouwbaarheidsformuleringen omvatten.


Surrogaatmodel (Metamodel)

Surrogaatmodellen of metamodelen benaderen dure simulaties (FEA/CFD) met goedkope, analytische of statistische functies—polynomen, kriging (Gaussiaanse processen), radiale basisfuncties, neurale netwerken. Ze voorspellen doel- en constraintwaarden op nieuwe punten en bieden onzekerheidsschattingen voor exploratie. Door dure simulaties te vervangen, maken ze wereldwijde zoekopdrachten of gevoeligheidsanalyses mogelijk. De nauwkeurigheid hangt af van de kwaliteit van de steekproeven; daarom wordt vaak adaptieve sampling (sequentiële DOE) toegepast.


Topologieoptimalisatie

Topologieoptimalisatie is een wiskundige methode die de lay-out van materiaal binnen een gegeven ontwerpruimte optimaliseert, voor een bepaalde set belastingen, constraints en randvoorwaarden. Het doel is de prestaties van een systeem te maximaliseren.
In tegenstelling tot parametrische optimalisatie kan topologieoptimalisatie elke mogelijke vorm binnen de ontwerpruimte opleveren. Deze organische vormen, typisch voor topologieoptimalisatie, zijn vaak moeilijk te produceren met traditionele productiemethoden en daarom beter geschikt voor additive manufacturing of geavanceerde giettechnieken.


What‑if‑scenario

Verschillende what‑if‑scenario’s kwantificeren de invloed van een aantal ontwerpparameters op de prestatie van een product of proces. Zie ook Parametrische optimalisatie.


Onze opleidingen

Indien u meer wenst te leren over de Eindige Elementen Methode, kijk dan ook even naar onze opleiding Praktische Inleiding tot de Eindige Elementen Methode of onze opleiding Inleiding to vermoeiingsberekeningen met FEA.