Robuste Optimierung

Robuste Optimierung ist ein Gebiet der Optimierung in der Mathematik. Dabei geht es um Optimierungsprobleme, in denen nach Stabilität gegenüber Unsicherheit und/oder Variabilität in den Werten der Problemparameter gestrebt wird.

Geschichte

Die Ursprünge der Robusten Optimierung gehen zurück auf die Begründung der modernen Entscheidungstheorie in den 1950er Jahren. Dabei wurden Worst-Case-Analysen entwickelt, um mit hohen Unsicherheiten umgehen zu können. Robuste Optimierung wurde in den 70er Jahren zu einem eigenen Forschungsgebiet mit verschiedenen Entwicklungen in Gebieten wie Operations Research, Kontrolltheorie, Statistik, Wirtschaftswissenschaft u. a.

Beispiel

Gegeben sei das einfache lineare Optimierungsproblem

max x , y   { 3 x + 2 y }     u n t e r   d e n   N e b e n b e d i n g u n g e n     x , y 0 ; c x + d y 10 , ( c , d ) P {\displaystyle \max _{x,y}\ \{3x+2y\}\ \ \mathrm {unter\ den\ Nebenbedingungen} \ \ x,y\geq 0;cx+dy\leq 10,\forall (c,d)\in P}

mit P {\displaystyle P} als Untermenge von R 2 {\displaystyle \mathbb {R} ^{2}} .

Die Bedingung ( c , d ) P {\displaystyle \forall (c,d)\in P} in den Nebenbedingungen macht dieses Problem zu einem 'robusten' Problem. Sie bedeutet, dass für jedes Paar ( x , y ) {\displaystyle (x,y)} die Nebenbedingungen c x + d y 10 {\displaystyle cx+dy\leq 10} für den 'schlimmsten' Fall von ( c , d ) P {\displaystyle (c,d)\in P} gelten muss, also auch für das Paar ( c , d ) P {\displaystyle (c,d)\in P} , das den Wert von c x + d y {\displaystyle cx+dy} für gegebene ( x , y ) {\displaystyle (x,y)} maximiert.

Für den Fall, dass der Parameterraum P {\displaystyle P} endlich ist und damit nur aus endlich vielen Elementen besteht, ist dieses Robuste Optimierungsproblem selber ein lineares Optimierungsproblem: Für jedes Paar ( c , d ) P {\displaystyle (c,d)\in P} gibt es eine lineare Nebenbedingung c x + d y 10 {\displaystyle cx+dy\leq 10} .

Für den Fall, dass P {\displaystyle P} nicht eine endliche Menge ist, ist dieses Problem ein lineares, semi-infinites Optimierungsproblem, also ein lineares Optimierungsproblem mit endlich vielen (zwei) Entscheidungsvariablen und unendlich vielen Nebenbedingungen.

Klassifizierung

Es gibt eine Reihe von Klassifizierungskriterien für Probleme bzw. Modelle der Robusten Optimierung. So ist z. B. eine Unterscheidung zwischen Problemen mit lokalen oder globalen Robustheitsmodellen möglich, oder auch zwischen stochastischen und nichtstochastischen Robustheitsmodellen. Moderne Verfahren der Robusten Optimierung sind vor allem auf nichtstochastischen Robustheitsmodellen aufgebaut, die sich am schlimmsten (Worst-Case-)Fall orientieren.

Lokale Robustheit

Modelle mit lokaler Robustheit versuchen, den nominalen Wert eines Parameters gegen kleine Störeinflüsse zu schützen. Ein Modell dafür ist das Modell des Stabilitätsradius:

ρ ^ ( x , u ^ ) := max ρ 0   { ρ : u S ( x ) , u B ( ρ , u ^ ) } {\displaystyle {\hat {\rho }}(x,{\hat {u}}):=\max _{\rho \geq 0}\ \{\rho :u\in S(x),\forall u\in B(\rho ,{\hat {u}})\}}

mit u ^ {\displaystyle {\hat {u}}} als dem nominalen Wert des Parameters, B ( ρ , u ^ ) {\displaystyle B(\rho ,{\hat {u}})} als eine Kugel mit Radius ρ {\displaystyle \rho } , die zentriert ist im Punkt u ^ {\displaystyle {\hat {u}}} , und S ( x ) {\displaystyle S(x)} als die Menge an Werten von u {\displaystyle u} , die die für die Entscheidung x {\displaystyle x} gegebenen Stabilitäts- bzw. Effizienzeigenschaften erfüllen.

Die Robustheit (bzw. der Stabilitätsradius) der Entscheidung x {\displaystyle x} ist damit der Radius der größten Kugel, die zentriert ist im Punkt u ^ {\displaystyle {\hat {u}}} , von der alle Elemente die Stabilitätskriterien von x {\displaystyle x} erfüllen.

Globale Robustheit

Gegeben sei das robuste Optimierungsproblem

max x X   { f ( x ) : g ( x , u ) b , u U } {\displaystyle \max _{x\in X}\ \{f(x):g(x,u)\leq b,\forall u\in U\}}

wobei U {\displaystyle U} die Menge aller möglichen Werte von u {\displaystyle u} bezeichnet, die in Frage kommen.

Dies ist ein globales robustes Optimierungsproblem dahingehend, dass die robuste Nebenbedingung g ( x , u ) b , u U {\displaystyle g(x,u)\leq b,\forall u\in U} alle möglichen Werte von u {\displaystyle u} betrachtet.

Die Schwierigkeit bei solch einer globalen Nebenbedingung besteht darin, dass eine Situation auftreten kann, in der es kein x X {\displaystyle x\in X} gibt, dass diese Nebenbedingung erfüllt. Selbst wenn solch ein x X {\displaystyle x\in X} existiert, kann die Nebenbedingung selber zu konservativ sein. Sie kann dazu führen, dass die Lösung x X {\displaystyle x\in X} nur zu einem kleinen Zielfunktionswert f ( x ) {\displaystyle f(x)} führt, der jedoch nicht repräsentativ für andere Lösungen x X {\displaystyle x\in X} steht. Es könnte zum Beispiel ein x X {\displaystyle x'\in X} geben, das die robuste Nebenbedingung nur ganz leicht verletzt, aber einen viel größeren Zielfunktionswert f ( x ) X {\displaystyle f(x')\in X} erreicht. In diesen Fällen kann es notwendig sein, die robuste Nebenbedingung etwas aufzuweichen und/oder die Formulierung des Problems zu ändern.

Beispiel

Angenommen, das Ziel ist es, die Nebenbedingung g ( x , u ) b {\displaystyle g(x,u)\leq b} zu erfüllen, wobei x X {\displaystyle x\in X} die Entscheidungsvariable bezeichnet und u {\displaystyle u} einen Parameter mit den möglichen Werten U {\displaystyle U} . Gibt es kein x X {\displaystyle x\in X} , so dass g ( x , u ) b , u U {\displaystyle g(x,u)\leq b,\forall u\in U} , dann ist folgendes Maß für Robustheit plausibel:

ρ ( x ) := max Y U   { s i z e ( Y ) : g ( x , u ) b , u Y }   ,   x X {\displaystyle \rho (x):=\max _{Y\subseteq U}\ \{size(Y):g(x,u)\leq b,\forall u\in Y\}\ ,\ x\in X}

wobei s i z e ( Y ) {\displaystyle size(Y)} ein angemessenes Maß für die "Größe" der Menge Y {\displaystyle Y} darstellen soll. Ist beispielsweise U {\displaystyle U} eine endliche Menge, dann kann s i z e ( Y ) {\displaystyle size(Y)} als die Kardinalität der Menge Y {\displaystyle Y} betrachtet werden.

Die Robustheit der Entscheidung ist damit die Größe der größten Untermenge von U {\displaystyle U} , für die die Nebenbedingung g ( x , u ) b {\displaystyle g(x,u)\leq b} für jedes u {\displaystyle u} in dieser Menge erfüllt ist. Die optimale Entscheidung ist damit diejenige mit dem größten Robustheitswert.

Dadurch entsteht das folgende robuste Optimierungsproblem:

max x X , Y U   { s i z e ( Y ) : g ( x , u ) b , u Y } {\displaystyle \max _{x\in X,Y\subseteq U}\ \{size(Y):g(x,u)\leq b,\forall u\in Y\}}

Die beschriebene Bedeutung von Globaler Robustheit wird in der Praxis nicht oft verwendet, da die dadurch entstehenden robusten Optimierungsprobleme normalerweise (jedoch nicht immer) sehr schwer zu lösen sind.

Literatur

  • Armin Scholl: Robuste Planung und Optimierung. Grundlagen, Konzepte und Methoden, experimentelle Untersuchungen. Physica-Verlag, Heidelberg 2001, ISBN 3-7908-1408-3 (zugl. Dissertation, TU Darmstadt).