Optimierung
Glossar der Begriffe
- Adjungierte Methode
-
Die adjungierte Methode berechnet Sensitivitäten einer skalaren Zielfunktion bezüglich vieler Entwurfsvariablen bei Kosten, die weitgehend unabhängig von der Variablenanzahl sind. Nachdem die Primärsimulation (Strömung, Struktur) gelöst wurde, wird eine adjungierte Gleichung gelöst, die Gradienten des Ziels liefert. So wird die Optimierung in hohen Dimensionen (z. B. Geometrie, Topologie) machbar. Die Methode ist besonders leistungsfähig in der CFD, wo eine gradientenbasierte Suche über Hunderte von Parameter sonst nicht durchführbar wäre.
- Kurvenanpassung
-
Kurvenanpassung ist der Prozess, eine mathematische Funktion zu konstruieren, die am besten zu einer Menge von Datenpunkten passt. Dabei werden Methoden wie Interpolation für exakte Anpassung oder Smoothing für approximative Anpassung verwendet.
- Versuchsplanung
-
Versuchsplanung (DOE) ist eine Technik, um wissenschaftlich die Lage einer Reihe von Stichprobenpunkten festzulegen und so einen guten Einblick in das Systemverhalten zu gewinnen. In der Regel sind diese Punkte Eingangsvariablen, begrenzt durch Maximal‑ und Minimalwerte. Werden mehrere Eingangsvariablen betrachtet, kann die Kombinationsanzahl schnell zu groß werden. DOE reduziert die Stichprobenanzahl auf ein handhabbares Maß. Analyseergebnisse basierend auf DOE werden oft auf einer Antwortfläche dargestellt, um das Systemverhalten ohne zusätzliche Simulationen vorherzusagen.
- DOE
-
siehe Versuchsplanung
- Deterministische Optimierung
-
Deterministische Optimierung nimmt an, dass alle Eingaben, Modelle und Antworten exakt und wiederholbar sind – dieselbe Problemstellung liefert bei Wiederholung identische Ergebnisse. Klassische Verfahren (Lineare Programmierung, Nichtlineare Programmierung, Konvexe Optimierung) nutzen diese Sicherheit, um Konvergenzeigenschaften und effiziente Suchalgorithmen zu garantieren. Im Gegensatz zu stochastischer Optimierung oder probabilistischer Optimierung, die Zufälligkeit betreffen, behandeln deterministische Methoden Unsicherheit separat oder im Nachgang. Sie sind ideal, wenn Modelle präzise und Rechenzeit kritisch sind, können aber Designs erzeugen, die gegenüber realer Variabilität empfindlich sind, sofern keine Robustheits- oder Zuverlässigkeitsanalyse erfolgt.
- Evolutionäre Algorithmen (EAs)
-
Evolutionäre Algorithmen (EAs) sind populationsbasierte, stochastische Optimierer, inspiriert von natürlicher Evolution. Eine Menge von Kandidatenlösungen (“Population”) durchläuft Selektion (fitste Individuen), Crossover (Rekombination von Variablen) und Mutation (zufällige Variation). Über Generationen entwickelt sich die Population zu besseren Lösungen. EAs sind stark in globaler Suche und beim Umgang mit komplexen, diskontinuierlichen oder verrauschten Zielfunktionen, erfordern jedoch meist viele Funktionsauswertungen.
- Genetischer Algorithmus (GA)
-
Genetische Algorithmen sind eine Klasse evolutionärer Algorithmen, bei denen Lösungen als “Chromosomen” kodiert werden – Bitfolgen, Ganzzahlen oder reelle Werte. Operatoren imitieren biologische Gene: Crossover tauscht Segmente, Mutation kehrt Bits um oder ändert Werte. Selektion treibt die Population zu höherer Fitness. GAs meistern diskrete, gemischte und hochgradig nichtlineare Probleme, benötigen aber sorgfältige Parametereinstellung (Population, Crossover-/Mutationsraten) für Effizienz.
- Gradientenabstieg
-
Gradientenabstieg ist ein iteratives Verfahren erster Ordnung: In jedem Schritt bewegen sich die Variablen entgegen dem Gradienten der Zielfunktion mit einer Schrittweite (Lernrate). Es ist einfach und speichereffizient, kann jedoch in engen oder schlecht konditionierten Tälern langsam konvergieren. Varianten wie Momentum oder adaptive Schrittweiten (AdaGrad, RMSProp) mildern dies. In der Technik werden oft Linien- oder Trust-Region-Suchen eingesetzt, um Robustheit zu erhöhen.
- Gradientenbasierte Methode
-
Gradientenbasierte Methoden nutzen Ableitungen der Zielfunktion und Beschränkungen zur Steuerung der Suche. Methoden erster Ordnung (Steepest Descent, Konjugierte Gradienten) verwenden Gradientvektoren; zweite Ordnung (Newton, Quasi-Newton) berücksichtigen zusätzlich die Hesse-Matrix. Bei glatten, differenzierbaren Funktionen konvergieren sie nahe Optima schnell. Bei verrauschten Ableitungen (z. B. Monte-Carlo) oder Diskontinuitäten (Topologieänderungen) sind sie weniger stabil und erfordern präzise Finite-Differenzen- oder Adjoint-Sensitivitäten.
- Metamodell
-
siehe Surrogatmodell
- Multi‑Ziel-Optimierung
-
Multi‑Ziel-Optimierung umfasst die gleichzeitige Optimierung von zwei oder mehr konkurrierenden Zielen. Anstelle einer einzigen Zielfunktion erzeugen Algorithmen eine Menge von Lösungen, die die Pareto-Front approximieren. Verfahren sind gewichtete Summenmethoden, Pareto-basierte evolutionäre Algorithmen (NSGA‑II, SPEA2) und Zielerreichungsmethoden. In der Technik ist dies üblich, wenn Abwägungen (Kosten vs. Leistung, Gewicht vs. Festigkeit) explizit bewertet werden müssen.
- Zielfunktion
-
Die Zielfunktion (auch Kosten- oder Fitnessfunktion genannt) ist ein mathematischer Ausdruck, der quantifiziert, wie “gut” ein Entwurf oder eine Lösung ist, üblicherweise als Skalarwert (Vektorziele kommen bei Multi‑Ziel-Optimierung vor). In der Technik kann sie Gewicht, Verformung, Widerstand oder Energieverbrauch repräsentieren. Optimierungsalgorithmen minimieren oder maximieren sie unter Nebenbedingungen. Eine gut formulierte Funktion reflektiert klar die interessierende Leistungskennzahl und balanciert konkurrierende Prioritäten (z. B. Steifigkeit vs. Gewicht) in einer einzigen Maßzahl.
- Parametrische Optimierung
-
Bei der parametrischen Optimierung werden Eingabeparameter wie Geometrie, Materialeigenschaften und Lasten variiert, um die Systemantwort zu untersuchen. Methoden wie DOE und Antwortflächen werden kombiniert, um nicht für jede Parameterkombination eine separate Simulation durchführen zu müssen.
- Probabilistische Optimierung
-
Probabilistische Optimierung ist ein spezialisiertes Teilgebiet der stochastischen Optimierung, das unsichere Eingaben mit expliziten Wahrscheinlichkeitsverteilungen modelliert und Zielgrößen oder Nebenbedingungen in probabilistischen Begriffen formuliert – etwa “Begrenze Ausfallwahrscheinlichkeit auf 1 %” oder “Maximiere Wahrscheinlichkeit des Erreichens einer Leistungsgrenze”. Im Gegensatz zur deterministischen Optimierung, die Unsicherheit nachgelagert behandelt, integrieren probabilistische Methoden Zuverlässigkeitstechniken (z. B. FORM/SORM, surrogate-basierte RBDO) direkt in die Optimierungsschleife.
- Partikelschwarmoptimierung (PSO)
-
PSO ist eine populationsbasierte Methode, bei der jedes “Teilchen” seine Position im Entwurfsraum anhand seiner besten bekannten und der globalen (oder lokalen) besten Position anpasst. Teilchen balancieren Exploration und Exploitation durch Geschwindigkeitsupdates, die von kognitiven und sozialen Faktoren beeinflusst werden. PSO ist einfach zu implementieren, benötigt wenige Parameter und funktioniert gut für kontinuierliche Probleme, kann aber zu früh konvergieren und hat Schwierigkeiten bei diskreten oder stark eingeschränkten Räumen.
- Antwortfläche
-
Eine Antwortfläche ist die bestangepasste Fläche für einen Satz von Datenpunkten mit mehreren Variablen. Sie prognostiziert oder approximiert eine Ausgabevariable als Funktion von zwei oder mehr Eingangsvariablen auf Basis einer begrenzten Anzahl berechneter oder gemessener Punkte.
- Robuste Designoptimierung
-
Robuste Designoptimierung sucht nach Lösungen, die Performance trotz Variabilität (Fertigungstoleranzen, Materialeigenschaften, Lastbedingungen) aufrechterhalten. Ziele können Minimierung von Mittelwert und Varianz der Leistungskennzahlen umfassen. Techniken schließen probabilistisches Modellieren, Worst‑Case-Szenarien oder den Einsatz von Surrogatmodellen zur Abschätzung statistischer Momente ein. Robuste Designs tauschen Spitzenleistung gegen Stabilität, um Zuverlässigkeit in der Praxis zu gewährleisten.
- Simuliertes Glühen
-
Simuliertes Glühen ist eine probabilistische Technik, inspiriert vom metallurgischen Glühprozess. Bei hoher “Temperatur” akzeptiert der Algorithmus sowohl verbessernde als auch mit abnehmender Wahrscheinlichkeit verschlechternde Schritte – was das Entkommen aus lokalen Optima ermöglicht. Sinkt die Temperatur gemäß einem Abkühlplan, reduziert sich die Wahrscheinlichkeit ungünstiger Bewegungen und der Fokus verschiebt sich auf Exploitation. SA ist leicht umzusetzen und eignet sich für diskrete Räume, die Konvergenzgeschwindigkeit hängt jedoch stark vom Abkühlplan ab.
- Six-Sigma-Analyse
-
Eine typische Analyse nimmt feste Eingabeparameter (Material, Geometrie, Lasten etc.) an. Um Unsicherheit zu eliminieren, wird oft ein Sicherheitsfaktor genutzt. Dieser Ansatz ist deterministisch.
Design for Six Sigma berücksichtigt statistische Abweichungen dieser Variablen. Das Ergebnis ist eine statistische Verteilung der Systemantwort. Dieser Ansatz ist probabilistisch. Ein Produkt hat Six-Sigma-Qualität, wenn nur 3,4 von einer Million Teile ausfallen.
- Stochastische Optimierung
-
Stochastische Optimierung umfasst Methoden, die Zufälligkeit in Zielfunktionen oder Nebenbedingungen explizit behandeln, meist durch Sampling – etwa Monte Carlo, stochastische Approximation oder verrauschte Gradientenschätzungen (z. B. SGD). Diese Algorithmen suchen Lösungen, die im Mittel gute Leistungen erbringen oder deren Leistungsdistributionskriterien genügen. Anders als deterministische Optimierung, die exakte, wiederholbare Modelle annimmt, integrieren stochastische Verfahren Variabilität direkt in die Suche. Sie überschneiden sich mit probabilistischer Optimierung, sind aber breiter gefasst: probabilistische Methoden fokussieren sich auf Chance-Constraints und Ausfallwahrscheinlichkeiten, während stochastische Methoden auch robustere oder sampling-basierte Techniken ohne explizite Zuverlässigkeitformulierung einschließen.
- Surrogatmodell (Metamodell)
-
Surrogatmodelle oder Metamodelle approximieren teure Simulationen (FEA/CFD) mit günstigen, analytischen oder statistischen Funktionen – Polynome, Kriging (Gaußsche Prozesse), Radial-Basis-Funktionen, neuronale Netze. Sie prognostizieren Ziel- und Nebenbedingungswerte an neuen Punkten und liefern Unsicherheitsschätzungen für die Exploration. Durch Ersatz der aufwendigen Simulationen ermöglichen sie globale Suche und Sensitivitätsanalysen. Die Genauigkeit hängt von der Probenqualität ab; adaptives Sampling (sequentielles DOE) wird häufig eingesetzt.
- Topologieoptimierung
-
Topologieoptimierung ist eine mathematische Methode, die Materialverteilung innerhalb eines gegebenen Entwurfsraums für eine definierte Belastungs-, Beschränkungs‑ und Randbedingungskonfiguration optimiert. Ziel ist, die Systemleistung zu maximieren.
Im Gegensatz zur parametrischen Optimierung kann Topologieoptimierung jede mögliche Form innerhalb des Entwurfsraums erzeugen. Diese organischen Formen sind oft schwer mit traditionellen Fertigungsmethoden herstellbar und eignen sich besser für additive Fertigung oder fortgeschrittene Gießverfahren.
- What‑if‑Szenario
-
Verschiedene What‑if‑Szenarien quantifizieren den Einfluss mehrerer Entwurfsvariablen auf die Leistung eines Produkts oder Prozesses. Siehe auch Parametrische Optimierung.
Unsere Kurse
Wenn Sie mehr darüber erfahren möchten, wie Sie die Finite-Elemente-Methode effizienter in Ihren Entwürfen einsetzen, schauen Sie sich unseren Kurs Praktischer Einstieg in die Finite-Elemente-Methode oder unseren Kurs Einführung in die Ermüdungsanalyse mit FEM an.