Globale Optimierung - Global optimization
Globale Optimierung ist ein Zweig der angewandten Mathematik und numerischen Analysis , der versucht, die globalen Minima oder Maxima einer Funktion oder einer Menge von Funktionen auf einer gegebenen Menge zu finden. Es wird normalerweise als Minimierungsproblem bezeichnet, da die Maximierung der reellwertigen Funktion der Minimierung der Funktion entspricht .
Gegeben eine möglicherweise nichtlineare und nichtkonvexe stetige Funktion mit den globalen Minima und der Menge aller globalen Minimierer in , kann das Standard-Minimierungsproblem gegeben werden als
das heißt, das Finden und einen globalen Minimierer in ; wobei eine (nicht unbedingt konvexe) kompakte Menge durch Ungleichungen definiert ist .
Die globale Optimierung unterscheidet sich von der lokalen Optimierung dadurch, dass sie sich darauf konzentriert, das Minimum oder Maximum über die gegebene Menge zu finden, im Gegensatz zum Finden lokaler Minima oder Maxima. Das Auffinden eines beliebigen lokalen Minimums ist mit klassischen lokalen Optimierungsmethoden relativ einfach . Das Auffinden des globalen Minimums einer Funktion ist weitaus schwieriger: Analytische Methoden sind häufig nicht anwendbar und der Einsatz numerischer Lösungsstrategien führt oft zu sehr harten Herausforderungen.
Allgemeine Theorie
Ein neuer Ansatz für das globale Optimierungsproblem ist die Minimaverteilung . In dieser Arbeit wurde eine Beziehung zwischen jeder stetigen Funktion auf einer kompakten Menge und ihren globalen Minima streng hergestellt. Als typischer Fall folgt, dass
in der Zwischenzeit,
wo ist das -dimensionale Lebesgue-Maß der Menge der Minimierer . Und wenn keine Konstante auf ist , ist die monotone Beziehung
gilt für alle und , was eine Reihe von monotonen Eindämmungsbeziehungen impliziert, und eine davon ist zum Beispiel
Und wir definieren eine Minimaverteilung als schwache Grenze, so dass die Identität
hält für jede reibungslose Funktion mit kompakter Unterstützung in . Hier sind zwei unmittelbare Eigenschaften von :
- (1) erfüllt die Identität .
- (2) Wenn kontinuierlich an ist , dann .
Zum Vergleich: Die bekannte Beziehung zwischen jeder differenzierbaren konvexen Funktion und ihren Minima wird streng durch den Gradienten hergestellt. Wenn auf einer konvexen Menge differenzierbar ist , dann ist genau dann konvex, wenn
impliziert also, dass für alle gilt , dh ein globaler Minimierer von on ist .
Anwendungen
Typische Beispiele für globale Optimierungsanwendungen sind:
- Proteinstrukturvorhersage (Minimierung der Energie-/Freie-Energie-Funktion)
- Computergestützte Phylogenetik (z. B. Minimierung der Anzahl der Zeichentransformationen im Baum)
- Traveling-Salesman-Problem und elektrischer Schaltungsentwurf (Minimierung der Weglänge)
- Chemieingenieurwesen (z. B. Analyse der Gibbs-Energie )
- Sicherheitsnachweis, Sicherheitstechnik (z. B. von mechanischen Konstruktionen, Gebäuden)
- Worst-Case-Analyse
- Mathematische Probleme (z. B. die Kepler-Vermutung )
- Probleme beim Packen von Objekten (Konfigurationsdesign)
- Ausgangspunkt mehrerer Molekulardynamiksimulationen ist eine anfängliche Optimierung der Energie des zu simulierenden Systems.
- Gläser drehen
- Kalibrierung von Funkausbreitungsmodellen und vielen anderen Modellen in Naturwissenschaften und Technik
- Kurvenanpassung wie die nichtlineare Analyse der kleinsten Quadrate und andere Verallgemeinerungen, die zur Anpassung von Modellparametern an experimentelle Daten in Chemie, Physik, Biologie, Wirtschaft, Finanzen, Medizin, Astronomie und Ingenieurwesen verwendet werden.
- Planung der IMRT- Strahlentherapie
Deterministische Methoden
Die erfolgreichsten allgemeinen exakten Strategien sind:
Innere und äußere Näherung
Bei beiden Strategien wird die Menge, über die eine Funktion optimiert werden soll, durch Polyeder approximiert. In innerer Näherung sind die Polyeder in der Menge enthalten, während in äußerer Näherung die Polyeder die Menge enthalten.
Schnittebenenverfahren
Das Schnittebenenverfahren ist ein Überbegriff für Optimierungsverfahren, die eine zulässige Menge oder Zielfunktion mittels linearer Ungleichungen, sogenannten Schnitten, iterativ verfeinern . Solche Verfahren werden allgemein verwendet, um ganzzahlige Lösungen für Probleme der gemischt ganzzahligen linearen Programmierung (MILP) zu finden, sowie um allgemeine, nicht unbedingt differenzierbare konvexe Optimierungsprobleme zu lösen. Die Verwendung von Schnittebenen zur Lösung von MILP wurde von Ralph E. Gomory und Václav Chvátal eingeführt .
Verzweigungs- und gebundene Methoden
Branch and Bound ( BB oder B&B ) ist ein Algorithmusentwurfsparadigma für diskrete und kombinatorische Optimierungsprobleme . A Branch-and-Bound Algorithmus besteht aus einer systematischen Aufzählung der Kandidatenlösungen mittels Zustandsraum - Suche : Die Menge der Kandidatenlösungen gedacht wird , einen der als Formungs verwurzelten Baumes mit dem vollen Satz an der Wurzel. Der Algorithmus untersucht Zweige dieses Baums, die Teilmengen der Lösungsmenge darstellen. Vor dem Aufzählen der Kandidatenlösungen einer Verzweigung wird die Verzweigung gegen obere und untere geschätzte Schranken der optimalen Lösung geprüft und verworfen, wenn sie keine bessere Lösung als die bisher vom Algorithmus gefundene beste erzeugen kann.
Intervallmethoden
Intervallarithmetik , Intervallmathematik , Intervallanalyse oder Intervallberechnung ist eine seit den 1950er und 1960er Jahren von Mathematikern entwickelte Methode, um Rundungs- und Messfehler im mathematischen Rechnen einzugrenzen und so numerische Verfahren zu entwickeln , die zuverlässige Ergebnisse liefern. Intervallarithmetik hilft, zuverlässige und garantierte Lösungen für Gleichungen und Optimierungsprobleme zu finden.
Methoden basierend auf reeller algebraischer Geometrie
Die reelle Algebra ist der Teil der Algebra, der für die reelle algebraische (und semialgebraische) Geometrie relevant ist. Es befasst sich hauptsächlich mit dem Studium geordneter Körper und geordneter Ringe (insbesondere reeller geschlossener Körper ) und ihrer Anwendung auf das Studium positiver Polynome und Quadratsummen von Polynomen . Es kann in der konvexen Optimierung verwendet werden
Stochastische Methoden
Es gibt mehrere genaue oder ungenaue Monte-Carlo-basierte Algorithmen:
Direkte Monte-Carlo-Probenahme
Bei dieser Methode werden Zufallssimulationen verwendet, um eine Näherungslösung zu finden.
Beispiel: Das Handelsvertreterproblem ist ein sogenanntes konventionelles Optimierungsproblem. Das heißt, alle Fakten (Entfernungen zwischen jedem Zielpunkt), die zur Bestimmung des optimalen zu verfolgenden Pfads erforderlich sind, sind mit Sicherheit bekannt und das Ziel besteht darin, die möglichen Reiseoptionen durchzugehen, um die mit der geringsten Gesamtentfernung zu ermitteln. Nehmen wir jedoch an, dass wir, anstatt die zurückgelegte Gesamtentfernung zu jedem gewünschten Ziel zu minimieren, die Gesamtzeit minimieren wollten, die zum Erreichen jedes Ziels benötigt wird. Dies geht über die konventionelle Optimierung hinaus, da die Reisezeit von Natur aus ungewiss ist (Stau, Tageszeit usw.). Um unseren optimalen Weg zu bestimmen, möchten wir daher Simulation - Optimierung verwenden, um zuerst den Bereich der möglichen Zeiten zu verstehen, die es dauern könnte, um von einem Punkt zum anderen zu gelangen (in diesem Fall durch eine Wahrscheinlichkeitsverteilung und nicht durch eine bestimmte Entfernung dargestellt). und optimieren dann unsere Reiseentscheidungen, um den besten Weg zu ermitteln, der dieser Unsicherheit Rechnung trägt.
Stochastischer Tunnelbau
Stochastisches Tunneln (STUN) ist ein Ansatz zur globalen Optimierung basierend auf der Monte-Carlo-Methode – Abtasten der objektiv zu minimierenden Funktion, wobei die Funktion nichtlinear transformiert wird, um ein einfacheres Tunneln zwischen Regionen mit Funktionsminima zu ermöglichen. Ein einfacheres Tunneln ermöglicht eine schnellere Untersuchung des Probenraums und eine schnellere Konvergenz zu einer guten Lösung.
Paralleles Temperieren
Das parallele Tempern , auch bekannt als Replika-Austausch-MCMC-Sampling , ist ein Simulationsverfahren , das darauf abzielt, die dynamischen Eigenschaften von Monte-Carlo-Methodensimulationen von physikalischen Systemen und von Markov-Chain-Monte-Carlo- (MCMC)-Samplingmethoden im Allgemeinen zu verbessern . Die Replik Austauschverfahren ursprünglich von Swendsen, dann erweitert durch Geyer und später entwickelte unter anderem durch erdacht wurde Giorgio Parisi ., Sugita und Okamoto formuliert , um eine Molekulardynamik - Version parallel Anlassen: dies ist in der Regel als Replik-Austausch Molekulardynamik oder REMD bekannt .
Im Wesentlichen lässt man N Kopien des Systems, zufällig initialisiert, bei unterschiedlichen Temperaturen laufen . Dann tauscht man basierend auf dem Metropolis-Kriterium Konfigurationen bei unterschiedlichen Temperaturen aus. Die Idee dieser Methode ist, Konfigurationen bei hohen Temperaturen den Simulationen bei niedrigen Temperaturen zur Verfügung zu stellen und umgekehrt. Dies führt zu einem sehr robusten Ensemble, das sowohl nieder- als auch hochenergetische Konfigurationen abtasten kann. Auf diese Weise können thermodynamische Eigenschaften wie die spezifische Wärme, die im kanonischen Ensemble im Allgemeinen nicht gut berechnet wird, mit hoher Genauigkeit berechnet werden.
Heuristiken und Metaheuristiken
- Hauptseite: Metaheuristik
Andere Ansätze umfassen heuristische Strategien, um den Suchraum auf mehr oder weniger intelligente Weise zu durchsuchen, einschließlich:
- Optimierung der Ameisenkolonie (ACO)
- Simuliertes Tempern , eine generische probabilistische Metaheuristik
- Tabu-Suche , eine Erweiterung der lokalen Suche , die lokale Minima umgehen kann
- Evolutionäre Algorithmen (z. B. genetische Algorithmen und Evolutionsstrategien )
- Differentielle Evolution , eine Methode, die ein Problem optimiert , indem iterativ versucht wird, eine Kandidatenlösung in Bezug auf ein gegebenes Qualitätsmaß zu verbessern
- Schwarmbasierte Optimierungsalgorithmen (z. B. Partikelschwarmoptimierung , sozialkognitive Optimierung , Multischwarmoptimierung und Ameisenkolonieoptimierung )
- Memetische Algorithmen , die globale und lokale Suchstrategien kombinieren
- Reaktive Suchoptimierung (dh Integration subsymbolischer maschineller Lerntechniken in Suchheuristiken)
- Abgestufte Optimierung , eine Technik, die versucht, ein schwieriges Optimierungsproblem zu lösen, indem zunächst ein stark vereinfachtes Problem gelöst und dieses Problem (während der Optimierung) schrittweise transformiert wird, bis es dem schwierigen Optimierungsproblem entspricht.
Response-Surface-Methodik-basierte Ansätze
- IOSO Indirekte Optimierung basierend auf Selbstorganisation
- Bayes'sche Optimierung , eine sequentielle Entwurfsstrategie zur globalen Optimierung von Black-Box-Funktionen mit Bayes'scher Statistik
Siehe auch
- Deterministische globale Optimierung
- Multidisziplinäre Designoptimierung
- Mehrzieloptimierung
- Optimierung (Mathematik)
Fußnoten
Verweise
Deterministische globale Optimierung:
- R. Horst, H. Tuy, Globale Optimierung: Deterministische Ansätze , Springer, 1996.
- R. Horst, PM Pardalos und NV Thoai, Einführung in die globale Optimierung , Zweite Auflage. Kluwer Academic Publishers, 2000.
- A. Neumaier, Complete Search in Continuous Global Optimization and Constraint Satisfaction, S. 271–369 in: Acta Numerica 2004 (A. Iserles, Hrsg.), Cambridge University Press 2004.
- M. Mongeau, H. Karsenty, V. Rouzé und J.-B. Hiriart-Urruty, Vergleich von Public-Domain-Software für die globale Blackbox-Optimierung . Optimierungsmethoden & Software 13(3), S. 203–226, 2000.
- JD Pintér, Globale Optimierung in Aktion - Kontinuierliche und Lipschitz-Optimierung: Algorithmen, Implementierungen und Anwendungen . Kluwer Academic Publishers, Dordrecht, 1996. Jetzt vertrieben von Springer Science and Business Media, New York. Dieses Buch diskutiert auch stochastische globale Optimierungsmethoden.
- L. Jaulin, M. Kieffer, O. Didrit, E. Walter (2001). Angewandte Intervallanalyse. Berlin: Springer.
- ER Hansen (1992), Globale Optimierung mit Intervallanalyse, Marcel Dekker, New York.
Für simuliertes Glühen:
- Kirkpatrick, S.; Gelatt, CD; Vecchi, MP (1983-05-13). „Optimierung durch simuliertes Glühen“. Wissenschaft . American Association for the Advancement of Science (AAAS). 220 (4598): 671–680. doi : 10.1126/science.220.4598.671 . ISSN 0036-8075 . PMID 17813860 .
Für die reaktive Suchoptimierung:
- Roberto Battiti , M. Brunato und F. Mascia, Reactive Search and Intelligent Optimization, Operations Research/Computer Science Interfaces Series, Vol. 2 , No. 45, Springer, November 2008. ISBN 978-0-387-09623-0
Für stochastische Methoden:
- A. Schigljavsky . Theorie der globalen Zufallssuche. Mathematik und ihre Anwendungen. Kluwer akademischer Verlag. 1991.
- Hamacher, K. (2006). "Anpassung im stochastischen Tunnelbau globale Optimierung komplexer potenzieller Energielandschaften". Europhysik-Briefe (EPL) . IOP-Publishing. 74 (6): 944–950. doi : 10.1209/epl/i2006-10058-0 . ISSN 0295-5075 .
- Hamacher, K.; Wenzel, W. (1999-01-01). „Skalierungsverhalten von stochastischen Minimierungsalgorithmen in einer perfekten Trichterlandschaft“. Physical Review E . 59 (1): 938–941. arXiv : physik/9810035 . doi : 10.1103/physreve.59.938 . ISSN 1063-651X .
- Wenzel, W.; Hamacher, K. (1999-04-12). „Stochastic Tunneling Approach for Global Minimization of Complex Potential Energy Landscapes“. Physische Überprüfungsbriefe . Amerikanische Physikalische Gesellschaft (APS). 82 (15): 3003–3007. arXiv : physik/9903008 . doi : 10.1103/physrevlett.82.3003 . ISSN 0031-9007 .
Für paralleles Anlassen:
- Hansmann, Ulrich HE (1997). „Parallel tempering Algorithmus für Konformationsstudien von biologischen Molekülen“. Chemische Physik Briefe . Elsevier BV. 281 (1–3): 140–150. arXiv : physik/9710041 . doi : 10.1016/s0009-2614(97)01198-6 . ISSN 0009-2614 .
Für Fortsetzungsmethoden:
- Zhijun Wu. Das effektive Energieumwandlungsschema als spezieller Fortsetzungsansatz zur globalen Optimierung mit Anwendung auf die molekulare Konformation . Technischer Bericht, Argonne National Lab., IL (USA), November 1996.
Für allgemeine Überlegungen zur Dimensionalität des Definitionsbereichs der Zielfunktion:
- Hamacher, Kay (2005). „Über stochastische globale Optimierung eindimensionaler Funktionen“. Physica A: Statistische Mechanik und ihre Anwendungen . Elsevier BV. 354 : 547–557. doi : 10.1016/j.physa.2005.02.028 . ISSN 0378-4371 .
Für Strategien, die es ermöglichen, deterministische und stochastische globale Optimierungsmethoden zu vergleichen