Optimalisatie
Verklarende woordenlijst

Een naslagwoordenlijst van termen die worden gebruikt in engineering-optimalisatie en in onze optimalisatiediensten. Elke vermelding bevat een beknopte definitie van het concept en, waar relevant, de relatie met andere technieken.

Adjoint-methode

De adjoint-methode berekent gevoeligheden van een scalaire doelfunctie ten opzichte van vele ontwerpvariabelen tegen een kostprijs die nagenoeg onafhankelijk is van het aantal variabelen. Na het oplossen van de primaire simulatie (stroming, constructie) wordt een adjoint-vergelijking opgelost, die de gradiënten van de doelfunctie oplevert. Dit maakt hoogdimensionale optimalisatie (bijv. vorm, topologie) haalbaar. De methode is bijzonder krachtig bij CFD, waar een gradiëntgebaseerde zoektocht over honderden vormparameters anders onuitvoerbaar zou zijn.


Curve fitting

Curve fitting is het proces van het construeren van een wiskundige functie die de beste fit heeft voor een verzameling datapunten. Het curve-fittingproces maakt gebruik van methoden zoals interpolatie voor exacte fitting of smoothing voor benaderende fitting.


Design of Experiments

Design of Experiments (DOE) is een techniek die wordt gebruikt om op wetenschappelijke wijze de positie van een aantal bemonsteringspunten te bepalen, zodat een goed inzicht wordt verkregen in de respons van een systeem. In het algemeen zijn deze bemonsteringspunten een aantal invoervariabelen, begrensd door een maximum- en minimumwaarde. Wanneer meerdere invoervariabelen worden beschouwd, kan het aantal mogelijke combinaties snel te groot worden. Met DOE wordt het grote aantal bemonsteringspunten gereduceerd tot een beter beheersbaar niveau. Resultaten van analyses op basis van DOE worden vaak gepresenteerd in een responsoppervlak om het gedrag van een systeem te voorspellen zonder de noodzaak van bijkomende analyses.


Deterministische optimalisatie

Deterministische optimalisatie gaat ervan uit dat alle invoer, modellen en responsen exact en herhaalbaar zijn — zodat hetzelfde probleem tweemaal uitvoeren identieke resultaten oplevert. Klassieke technieken (lineair programmeren, niet-lineair programmeren, convexe optimalisatie) benutten deze zekerheid om convergentie-eigenschappen en een efficiënte zoektocht te garanderen. In tegenstelling tot stochastische optimalisatie of probabilistische optimalisatie, die willekeur expliciet adresseren, behandelen deterministische methoden onzekerheid apart of via post‑processing. Ze excelleren wanneer modellen nauwkeurig zijn en rekentijd kritisch is, maar kunnen ontwerpen opleveren die gevoelig zijn voor variabiliteit in de praktijk, tenzij gecombineerd met robuustheids- of betrouwbaarheidsanalyses.


DOE

zie Design of Experiments


Doelfunctie (objective function)

De doelfunctie (ook wel kosten- of fitnessfunctie genoemd) is een wiskundige uitdrukking die kwantificeert hoe "goed" een bepaald ontwerp of een bepaalde oplossing is, doorgaans als een enkele scalaire waarde (hoewel vectorwaardige doelfuncties voorkomen bij meerdoelige problemen). In de engineering kan ze gewicht, vervormingsenergie, luchtweerstand of energieverbruik vertegenwoordigen. Tijdens de optimalisatie zoeken algoritmen deze functie te minimaliseren of te maximaliseren onder randvoorwaarden. Een goed geformuleerde doelfunctie vangt de prestatie-indicator van belang helder en combineert vaak concurrerende prioriteiten (bijv. stijfheid versus gewicht) tot één maat.


Evolutionaire algoritmen (EA's)

Evolutionaire algoritmen (EA's) zijn populatiegebaseerde, stochastische optimalisatietechnieken geïnspireerd op natuurlijke evolutie. Een verzameling kandidaatoplossingen ("populatie") ondergaat selectie (fittere individuen worden gekozen), crossover (recombineren van ontwerpvariabelen) en mutatie (willekeurige verstoringen). Over meerdere generaties evolueert de populatie richting betere oplossingen. EA's blinken uit in globaal zoeken en het omgaan met complexe, discontinue of ruizige doelfuncties, maar vereisen doorgaans veel functie-evaluaties.


Genetisch algoritme (GA)

Genetische algoritmen zijn een klasse van evolutionaire algoritmen waarbij oplossingen worden gecodeerd als "chromosomen" — strings van bits, gehele getallen of reële waarden. Operatoren bootsen biologische genetica na: crossover wisselt segmenten uit tussen ouders; mutatie wijzigt bits of verstoort waarden. Selectiedruk stuurt de populatie richting hogere fitness. GA's zijn geschikt voor discrete, gemengde en sterk niet-lineaire problemen, maar het afstemmen van parameters (populatiegrootte, crossover-/mutatiepercentages) is cruciaal voor de efficiëntie.


Gesimuleerd afkoelen (simulated annealing)

Gesimuleerd afkoelen is een probabilistische techniek geïnspireerd op metallurgisch gloeien. Startend bij een hoge "temperatuur" accepteert het algoritme zowel verbeterende als, met een kans die in de tijd afneemt, verslechterende stappen — waardoor ontsnapping uit lokale optima mogelijk is. Naarmate de temperatuur daalt volgens een afkoelingsschema, neemt de kans op opwaartse stappen af, waardoor de focus verschuift naar exploitatie. Gesimuleerd afkoelen is eenvoudig te implementeren en kan discrete ruimten behandelen, maar de convergentiesnelheid hangt sterk af van het afkoelingsschema.


Gradiëntafdaling (gradient descent)

Gradiëntafdaling is een eerste-orde iteratieve methode: bij elke stap worden de ontwerpvariabelen verplaatst in de richting tegengesteld aan de gradiënt van de doelfunctie, met een stapgrootte (leersnelheid). De methode is eenvoudig en geheugenefficiënt, maar kan traag convergeren in nauwe of slecht geconditioneerde dalen. Varianten — momentum, adaptieve stapgrootte (AdaGrad, RMSProp) — verhelpen deze problemen. In de engineering vervangen lijnzoekmethoden of trust-region verbeteringen vaak de naïeve constante-stap gradiëntafdaling voor meer robuustheid.


Gradiëntgebaseerde methode

Gradiëntgebaseerde methoden gebruiken afgeleiden van de doelfunctie en de randvoorwaarden om de zoektocht te sturen. Eerste-orde methoden (steilste afdaling, geconjugeerde gradiënt) gebruiken gradiëntvectoren; tweede-orde methoden (Newton, quasi-Newton) benutten ook Hessische informatie voor de kromming. Wanneer de doelfunctie en randvoorwaarden glad en differentieerbaar zijn, convergeren deze methoden snel nabij optima. Ze ondervinden moeilijkheden wanneer afgeleiden ruizig zijn (zoals bij Monte Carlo-simulaties) of discontinu (bijv. topologieveranderingen), en kunnen nauwkeurige eindige-differentie- of adjoint-gevoeligheden vereisen.


Meerdoelige optimalisatie (multi‑objective optimisation)

Meerdoelige optimalisatie omvat de gelijktijdige optimalisatie van twee of meer conflicterende doelstellingen. In plaats van één scalaire doelfunctie genereren algoritmen een populatie van oplossingen die het Pareto-front benaderen. Technieken omvatten gewogen-sommethoden (doelstellingen combineren tot één scalaire waarde), Pareto-gebaseerde evolutionaire algoritmen (NSGA‑II, SPEA2) en goal-attainment methoden. Dit paradigma is gangbaar in de engineering wanneer afwegingen (kosten vs. prestatie, gewicht vs. sterkte) expliciet moeten worden geëvalueerd.


Metamodel

zie Surrogaatmodel


Parametrische optimalisatie

Bij parametrische optimalisatie wordt een aantal invoerparameters, zoals geometrie, materiaaleigenschappen, belastingen enz., gevarieerd om de respons van een constructie te onderzoeken. Technieken zoals DOE en responsoppervlakken worden in combinatie met parametrische optimalisatie gebruikt om te vermijden dat voor elke mogelijke waarde van een invoervariabele een aparte analyse moet worden uitgevoerd.


Particle Swarm Optimisation (PSO)

PSO is een populatiegebaseerde methode waarbij elk "deeltje" zijn positie in de ontwerpruimte aanpast op basis van zijn eigen best bekende positie en de globale (of buurt‑) beste positie. Deeltjes balanceren exploratie en exploitatie via snelheidsupdates die worden beïnvloed door cognitieve en sociale componenten. PSO is eenvoudig te implementeren, heeft weinig parameters en werkt goed voor continue problemen, maar kan last hebben van vroegtijdige convergentie en ondervindt moeilijkheden bij discrete of sterk beperkte ruimten.


Probabilistische optimalisatie

Probabilistische optimalisatie is een gespecialiseerde tak van stochastische optimalisatie die onzekere invoer modelleert met expliciete kansverdelingen en doelstellingen of randvoorwaarden in probabilistische termen formuleert — zoals "beperk de faalkans tot 1 %" of "maximaliseer de kans dat een prestatiedrempel wordt gehaald." In tegenstelling tot deterministische optimalisatie, die alle invoer als exact behandelt en onzekerheid slechts via post‑processing of robuust-ontwerp overlays aanpakt, maken probabilistische methoden vaak gebruik van betrouwbaarheidsgebaseerde technieken (bijv. FORM/SORM, surrogaatgebaseerde RBDO) om te garanderen dat ontwerpen aan kansrandvoorwaarden voldoen onder variabiliteit, waarbij betrouwbaarheid direct in de optimalisatielus wordt ingebed.


Responsoppervlak (response surface)

Een responsoppervlak is een best-fit curve van een verzameling datapunten van meerdere variabelen. Een responsoppervlak voorspelt of benadert een uitvoervariabele als functie van twee of meer invoervariabelen, op basis van een beperkt aantal berekende of gemeten datapunten.


Robuust-ontwerp optimalisatie

Robuust-ontwerp optimalisatie zoekt oplossingen die presteren ondanks variabiliteit (fabricagetoleranties, materiaaleigenschappen, belastingscondities). Doelstellingen kunnen het minimaliseren van het gemiddelde en de variantie van prestatie-indicatoren omvatten. Technieken omvatten probabilistische modellering, worst-case scenario's of het gebruik van surrogaatmodellen om statistische momenten te benaderen. Robuuste ontwerpen ruilen piekprestatie in voor stabiliteit, waardoor betrouwbaarheid onder reële omstandigheden wordt gewaarborgd.


Six Sigma analyse

Een typische analyse gaat ervan uit dat invoerparameters (materiaal, geometrie, belastingen enz.) een vaste waarde hebben. Om de onzekerheid rond deze vaste waarden te elimineren, wordt vaak een veiligheidsfactor gehanteerd. Deze benadering wordt deterministisch genoemd.
Design for Six Sigma voorziet in een mechanisme dat rekening houdt met een statistische afwijking van die invoervariabelen. Het resultaat van een Six Sigma analyse is een statistische verdeling van de respons van het systeem. Deze benadering wordt probabilistisch genoemd. Een product heeft Six Sigma kwaliteit als slechts 3,4 per 1 miljoen onderdelen falen.


Stochastische optimalisatie

Stochastische optimalisatie omvat methoden die willekeur in doelfuncties of randvoorwaarden expliciet behandelen door bemonstering op te nemen — vaak via Monte Carlo, stochastische benadering of ruizige gradiëntschattingen (bijv. SGD). Deze algoritmen zoeken oplossingen die goed presteren in verwachting of waarvan de prestatieverdeling aan bepaalde criteria voldoet. In tegenstelling tot deterministische optimalisatie, die uitgaat van exacte, herhaalbare modellen, omarmen stochastische benaderingen variabiliteit tijdens het zoekproces. Ze overlappen met probabilistische optimalisatie, maar zijn breder: probabilistische methoden richten zich op kansrandvoorwaarden en faalkans-doelstellingen, terwijl stochastische methoden ook ruistolerantie- of bemonsteringsgebaseerde technieken omvatten zonder expliciete betrouwbaarheidsformuleringen.


Surrogaatmodel (metamodel)

Surrogaatmodellen of metamodellen benaderen dure simulaties (FEA/CFD) met goedkope, analytische of statistische functies — polynomen, kriging (Gaussiaanse processen), radiale basisfuncties, neurale netwerken. Ze voorspellen doelfunctie- en randvoorwaardewaarden op nieuwe punten en leveren onzekerheidsschattingen voor exploratie. Door kostbare simulaties te vervangen, maken ze globaal zoeken of gevoeligheidsanalyse mogelijk. De nauwkeurigheid hangt af van de kwaliteit van de steekproef; daarom wordt vaak adaptieve bemonstering (sequentiële DOE) toegepast.


Topologie-optimalisatie

Topologie-optimalisatie is een wiskundige methode die de verdeling van materiaal binnen een gegeven ontwerpruimte optimaliseert, voor een gegeven set van belastingen, randvoorwaarden en boundary conditions. Het doel van een topologie-optimalisatie is het maximaliseren van de prestatie van een systeem.
In tegenstelling tot parametrische optimalisatie kan topologie-optimalisatie resulteren in elke mogelijke vorm binnen de ontwerpruimte. Deze organische vormen, typisch voor topologie-optimalisatie, zijn vaak moeilijk te vervaardigen met traditionele productiemethoden en zijn daarom beter geschikt voor additive manufacturing of geavanceerde giettechnieken.


What-if scenario

Diverse what-if scenario's kwantificeren de invloed van een aantal ontwerpvariabelen op de prestatie van een product of proces. Zie ook Parametrische optimalisatie.