Optimierung
Glossar
Ein Nachschlagewerk der Begriffe, die in der Ingenieuroptimierung und in unseren Optimierungsdienstleistungen verwendet werden. Jeder Eintrag enthält eine prägnante Definition des Konzepts und, wo relevant, seinen Zusammenhang mit anderen Techniken.
- Adjungierte Methode
-
Die adjungierte Methode berechnet Sensitivitäten einer skalaren Zielfunktion bezüglich vieler Designvariablen mit einem Aufwand, der weitgehend unabhängig von der Anzahl der Variablen ist. Nach Lösung der primären Simulation (Strömung, Struktur) wird eine adjungierte Gleichung gelöst, die Gradienten der Zielfunktion liefert. Dies macht hochdimensionale Optimierung (z. B. Form-, Topologieoptimierung) handhabbar. Die Methode ist besonders leistungsfähig in der CFD, wo eine gradientenbasierte Suche über Hunderte von Formparametern sonst nicht durchführbar wäre.
- Kurvenanpassung
-
Kurvenanpassung ist der Prozess der Konstruktion einer mathematischen Funktion, die eine Datenpunktmenge bestmöglich abbildet. Der Kurvenanpassungsprozess verwendet Methoden wie Interpolation für exakte Anpassung oder Glättung für approximative Anpassung.
- Statistische Versuchsplanung
-
Statistische Versuchsplanung (DOE) ist eine Technik zur wissenschaftlichen Bestimmung der Lage einer Anzahl von Stützstellen, um einen guten Einblick in das Antwortverhalten eines Systems zu erhalten. Im Allgemeinen sind diese Stützstellen eine Reihe von Eingangsvariablen, begrenzt durch einen Maximal- und Minimalwert. Bei Berücksichtigung mehrerer Eingangsvariablen kann die Anzahl möglicher Kombinationen schnell zu groß werden. Mit DOE wird die große Anzahl von Stützstellen auf ein handhabbareres Niveau reduziert. Ergebnisse von Analysen auf Basis von DOE werden häufig in einer Antwortfläche dargestellt, um das Verhalten eines Systems vorherzusagen, ohne zusätzliche Analysen durchführen zu müssen.
- DOE
-
siehe Statistische Versuchsplanung
- Deterministische Optimierung
-
Die deterministische Optimierung geht davon aus, dass alle Eingaben, Modelle und Antworten exakt und wiederholbar sind — die zweimalige Ausführung desselben Problems liefert identische Ergebnisse. Klassische Techniken (lineare Programmierung, nichtlineare Programmierung, konvexe Optimierung) nutzen diese Gewissheit, um Konvergenzeigenschaften und effiziente Suche zu garantieren. Im Gegensatz zur stochastischen Optimierung oder probabilistischen Optimierung, die Zufälligkeit explizit berücksichtigt, behandeln deterministische Methoden Unsicherheit separat oder durch Nachbearbeitung. Sie eignen sich hervorragend, wenn Modelle präzise und Rechenkosten kritisch sind, können aber Designs erzeugen, die empfindlich gegenüber realer Variabilität sind, sofern sie nicht mit Robustheits- oder Zuverlässigkeitsanalysen kombiniert werden.
- Evolutionäre Algorithmen (EAs)
-
Evolutionäre Algorithmen (EAs) sind populationsbasierte, stochastische Optimierer, die von der natürlichen Evolution inspiriert sind. Eine Menge von Kandidatenlösungen („Population") durchläuft Selektion (fittere Individuen werden ausgewählt), Crossover (Rekombination von Designvariablen) und Mutation (zufällige Störungen). Über Generationen hinweg entwickelt sich die Population hin zu besseren Lösungen. EAs eignen sich hervorragend für die globale Suche und den Umgang mit komplexen, unstetigen oder verrauschten Zielfunktionen, erfordern aber typischerweise viele Funktionsauswertungen.
- Genetischer Algorithmus (GA)
-
Genetische Algorithmen sind eine Klasse evolutionärer Algorithmen, bei denen Lösungen als „Chromosomen" kodiert werden — Zeichenketten aus Bits, ganzen Zahlen oder reellen Werten. Operatoren imitieren die biologische Genetik: Crossover tauscht Segmente zwischen Eltern aus; Mutation kippt Bits oder stört Werte. Selektionsdruck lenkt die Population in Richtung höherer Fitness. GAs bewältigen diskrete, gemischte und stark nichtlineare Probleme gut, aber die Parametereinstellung (Populationsgröße, Crossover-/Mutationsraten) ist entscheidend für die Effizienz.
- Gradientenabstieg
-
Der Gradientenabstieg ist ein iteratives Verfahren erster Ordnung: In jedem Schritt bewegen sich die Designvariablen entgegengesetzt zum Gradienten der Zielfunktion um eine Schrittweite (Lernrate). Er ist unkompliziert und speichereffizient, kann aber in engen oder schlecht konditionierten Tälern langsam konvergieren. Varianten — Momentum, adaptive Schrittweite (AdaGrad, RMSProp) — mildern diese Probleme. Im Ingenieurwesen ersetzen Liniensuche oder Trust-Region-Erweiterungen oft den naiven Gradientenabstieg mit konstanter Schrittweite für mehr Robustheit.
- Gradientenbasierte Methode
-
Gradientenbasierte Methoden verwenden Ableitungen der Zielfunktion und der Nebenbedingungen zur Steuerung der Suche. Methoden erster Ordnung (steilster Abstieg, konjugierter Gradient) nutzen Gradientenvektoren; Methoden zweiter Ordnung (Newton, Quasi-Newton) verwenden zusätzlich Hesse-Informationen zur Krümmung. Wenn Zielfunktion und Nebenbedingungen glatt und differenzierbar sind, konvergieren diese Methoden in der Nähe von Optima schnell. Sie haben Schwierigkeiten, wenn Ableitungen verrauscht (wie bei Monte-Carlo-Simulationen) oder unstetig sind (z. B. Topologieänderungen), und können genaue Finite-Differenzen- oder adjungierte Sensitivitäten erfordern.
- Metamodell
-
siehe Ersatzmodell
- Multikriterielle Optimierung
-
Multikriterielle Optimierung beinhaltet die gleichzeitige Optimierung von zwei oder mehr sich widersprechenden Zielen. Anstelle einer einzelnen skalaren Zielfunktion erzeugen Algorithmen eine Population von Lösungen, die die Pareto-Front approximieren. Techniken umfassen gewichtete Summenmethoden (Zusammenfassung der Ziele in einen Skalar), Pareto-basierte evolutionäre Algorithmen (NSGA-II, SPEA2) und Goal-Attainment-Methoden. Dieses Paradigma ist im Ingenieurwesen verbreitet, wenn Kompromisse (Kosten vs. Leistung, Gewicht vs. Festigkeit) explizit bewertet werden müssen.
- Zielfunktion
-
Die Zielfunktion (auch Kosten- oder Fitnessfunktion) ist ein mathematischer Ausdruck, der quantifiziert, wie „gut" ein gegebenes Design oder eine Lösung ist, typischerweise als einzelner Skalarwert (obwohl vektorwertige Ziele bei multikriteriellen Problemen vorkommen). Im Ingenieurwesen kann sie Gewicht, Nachgiebigkeit, Widerstand oder Energieverbrauch repräsentieren. Während der Optimierung versuchen Algorithmen, diese Funktion unter Einhaltung von Nebenbedingungen zu minimieren oder maximieren. Eine gut formulierte Zielfunktion erfasst die relevante Leistungskenngröße klar und balanciert oft konkurrierende Prioritäten (z. B. Steifigkeit versus Gewicht), indem sie diese zu einem einzigen Maß kombiniert.
- Parametrische Optimierung
-
Bei der parametrischen Optimierung werden eine Reihe von Eingangsparametern wie Geometrie, Materialeigenschaften, Lasten usw. variiert, um das Antwortverhalten einer Struktur zu untersuchen. Techniken wie DOE und Antwortflächen werden in Kombination mit parametrischer Optimierung eingesetzt, um die Notwendigkeit zu vermeiden, für jeden möglichen Wert einer Eingangsvariable eine separate Analyse durchzuführen.
- Probabilistische Optimierung
-
Probabilistische Optimierung ist ein spezialisierter Zweig der stochastischen Optimierung, der unsichere Eingaben mit expliziten Wahrscheinlichkeitsverteilungen modelliert und Zielfunktionen oder Nebenbedingungen in probabilistischen Begriffen formuliert — wie „Versagenswahrscheinlichkeit auf 1 % begrenzen" oder „Wahrscheinlichkeit der Einhaltung eines Leistungsschwellenwerts maximieren". Im Gegensatz dazu behandelt die deterministische Optimierung alle Eingaben als exakt und berücksichtigt Unsicherheit nur durch Nachbearbeitung oder robuste Design-Überlagerungen. Probabilistische Methoden verwenden häufig zuverlässigkeitsbasierte Techniken (z. B. FORM/SORM, ersatzmodellbasiertes RBDO), um sicherzustellen, dass Designs Wahrscheinlichkeitsnebenbedingungen unter Variabilität erfüllen, und betten Zuverlässigkeit direkt in die Optimierungsschleife ein.
- Partikelschwarmoptimierung (PSO)
-
PSO ist eine populationsbasierte Methode, bei der jedes „Partikel" seine Position im Designraum basierend auf seiner eigenen besten bekannten Position und der globalen (oder Nachbarschafts-)besten anpasst. Partikel balancieren Erkundung und Verwertung über Geschwindigkeitsaktualisierungen, die von kognitiven und sozialen Komponenten beeinflusst werden. PSO ist einfach zu implementieren, hat wenige Parameter und funktioniert gut für kontinuierliche Probleme, kann aber unter vorzeitiger Konvergenz leiden und hat Schwierigkeiten mit diskreten oder stark eingeschränkten Räumen.
- Antwortfläche
-
Eine Antwortfläche ist eine Ausgleichskurve einer Datenpunktmenge mehrerer Variablen. Eine Antwortfläche sagt eine Ausgangsgröße als Funktion von zwei oder mehr Eingangsgrößen vorher oder approximiert sie, basierend auf einer begrenzten Anzahl berechneter oder gemessener Datenpunkte.
- Robuste Designoptimierung
-
Robuste Designoptimierung sucht Lösungen, die trotz Variabilität (Fertigungstoleranzen, Materialeigenschaften, Belastungsbedingungen) Leistung aufrechterhalten. Ziele können die Minimierung von Mittelwert und Varianz der Leistungskenngrößen umfassen. Techniken beinhalten probabilistische Modellierung, Worst-Case-Szenarien oder die Verwendung von Ersatzmodellen zur Approximation statistischer Momente. Robuste Designs tauschen Spitzenleistung gegen Stabilität und gewährleisten Zuverlässigkeit unter realen Bedingungen.
- Simuliertes Abkühlen (Simulated Annealing)
-
Simuliertes Abkühlen ist eine probabilistische Technik, die vom metallurgischen Glühen inspiriert ist. Ausgehend von einer hohen „Temperatur" akzeptiert der Algorithmus sowohl verbessernde als auch, mit einer über die Zeit abnehmenden Wahrscheinlichkeit, verschlechternde Schritte — was das Entkommen aus lokalen Optima ermöglicht. Mit sinkender Temperatur gemäß einem Abkühlplan nimmt die Wahrscheinlichkeit von Aufwärtsschritten ab und der Fokus liegt auf der Verwertung. SA ist einfach zu implementieren und kann mit diskreten Räumen umgehen, aber die Konvergenzgeschwindigkeit hängt stark vom Abkühlplan ab.
- Six-Sigma-Analyse
-
Eine typische Analyse nimmt an, dass Eingangsparameter (Material, Geometrie, Lasten usw.) feste Werte haben. Um die Unsicherheit um diese festen Werte zu eliminieren, wird oft ein Sicherheitsfaktor verwendet. Dieser Ansatz wird als deterministisch bezeichnet.
Design for Six Sigma bietet einen Mechanismus, der eine statistische Abweichung dieser Eingangsgrößen berücksichtigt. Das Ergebnis einer Six-Sigma-Analyse ist eine statistische Verteilung der Systemantwort. Dieser Ansatz wird als probabilistisch bezeichnet. Ein Produkt hat Six-Sigma-Qualität, wenn nur 3,4 von 1 Million Teilen versagen.
- Stochastische Optimierung
-
Stochastische Optimierung umfasst Methoden, die Zufälligkeit in Zielfunktionen oder Nebenbedingungen explizit behandeln, indem sie Stichprobenverfahren einbeziehen — häufig via Monte Carlo, stochastische Approximation oder verrauschte Gradientenschätzungen (z. B. SGD). Diese Algorithmen suchen Lösungen, die im Erwartungswert gut abschneiden oder deren Leistungsverteilungen bestimmte Kriterien erfüllen. Im Gegensatz zur deterministischen Optimierung, die exakte, wiederholbare Modelle voraussetzt, berücksichtigen stochastische Ansätze Variabilität während der Suche. Sie überschneiden sich mit der probabilistischen Optimierung, sind aber breiter: Probabilistische Methoden konzentrieren sich auf Wahrscheinlichkeitsnebenbedingungen und Versagenswahrscheinlichkeitsziele, während stochastische Methoden auch rauschtolerante oder stichprobenbasierte Techniken ohne explizite Zuverlässigkeitsformulierungen umfassen.
- Ersatzmodell (Metamodell)
-
Ersatzmodelle oder Metamodelle approximieren teure Simulationen (FEA/CFD) mit günstigen, analytischen oder statistischen Funktionen — Polynome, Kriging (Gauß-Prozesse), radiale Basisfunktionen, neuronale Netze. Sie sagen Zielfunktions- und Nebenbedingungswerte an neuen Punkten vorher und liefern Unsicherheitsschätzungen zur Erkundung. Durch Ersetzung kostspieliger Simulationen ermöglichen sie globale Suche oder Sensitivitätsanalyse. Die Genauigkeit hängt von der Stichprobenqualität ab; daher wird häufig adaptive Stichprobennahme (sequenzielles DoE) eingesetzt.
- Topologieoptimierung
-
Topologieoptimierung ist eine mathematische Methode, die die Materialverteilung innerhalb eines gegebenen Designraums für einen gegebenen Satz von Lasten, Nebenbedingungen und Randbedingungen optimiert. Das Ziel einer Topologieoptimierung ist die Maximierung der Systemleistung.
Im Gegensatz zur parametrischen Optimierung kann die Topologieoptimierung jede mögliche Form innerhalb des Designraums ergeben. Diese organischen Formen, die typisch für die Topologieoptimierung sind, sind mit herkömmlichen Fertigungsmethoden oft schwer herzustellen und eignen sich daher eher für additive Fertigung oder fortschrittliche Gusstechniken.
- Was-wäre-wenn-Szenario
-
Verschiedene Was-wäre-wenn-Szenarien quantifizieren den Einfluss einer Reihe von Designvariablen auf die Leistung eines Produkts oder Prozesses. Siehe auch Parametrische Optimierung.