Borne d'erreur

En mathématiques, et plus précisément en analyse et en analyse convexe, une borne d'erreur[1] est une estimation (le plus souvent une majoration) de la distance à un ensemble par des quantités plus aisément calculables que la distance elle-même (numériquement, celle-ci requiert la résolution d'un problème d'optimisation). Une des premières bornes d'erreur non triviales obtenues concerne la distance à un polyèdre convexe : c'est le lemme de Hoffman, qui date de 1952. Cette estimation a ensuite été généralisée à beaucoup d'autres ensembles.

La borne d'erreur simplissime suivante donnera une première idée de ce que sont ces estimations. Elle concerne l'ensemble singleton P := { x ¯ } {\displaystyle P:=\{{\bar {x}}\}} formé de l'unique solution x ¯ {\displaystyle {\bar {x}}} du système linéaire A x = b {\displaystyle Ax=b} A {\displaystyle A} est un opérateur linéaire inversible entre deux espaces normés. Pour un point x {\displaystyle x} quelconque, on a x x ¯ = A 1 ( A x b ) {\displaystyle x-{\bar {x}}=A^{-1}(Ax-b)} , si bien que

d P ( x ) A 1 A x b . {\displaystyle \operatorname {d} _{P}(x)\leqslant \|A^{-1}\|\,\|Ax-b\|.}

On peut donc estimer la distance d P ( x ) {\displaystyle \operatorname {d} _{P}(x)} de x {\displaystyle x} à P {\displaystyle P} par la norme du résidu A x b {\displaystyle \|Ax-b\|} , souvent plus simple à calculer que la distance d P ( x ) {\displaystyle \operatorname {d} _{P}(x)} puisqu'elle ne requiert pas la connaissance de la solution du système linéaire.

Les bornes d'erreur sont utiles théoriquement (par exemple, pour établir la convergence d'algorithmes d'optimisation, pour établir le conditionnement et la stabilité lipschitzienne d'ensembles) ou numériquement (par exemple, comme test d'arrêt dans des algorithmes d'optimisation). Les bornes d'erreur sont aussi apparentées aux notions de régularité métrique et de minimum saillant en optimisation. Leur écriture requiert une notion de qualification de contraintes qui peut être différente de celle utilisée pour l'obtention des conditions d'optimalité en optimisation.

Cet article fait le point sur les bornes d'erreur les plus connues et renvoie aux articles spécialisés (de Wikipédia ou de revue) pour plus de détails.

Définitions

Soient ( E , d ) {\displaystyle (\mathbb {E} ,\operatorname {d} )} un espace métrique et P {\displaystyle P} une partie de E {\displaystyle \mathbb {E} } . Une borne d'erreur pour P {\displaystyle P} est une affirmation de la forme

x E : d P ( x ) φ ( x ) , {\displaystyle \forall \,x\in \mathbb {E} :\quad \operatorname {d} _{P}(x)\leqslant \varphi (x),}

dans laquelle

d P ( x ) := inf y P d ( x , y ) {\displaystyle \operatorname {d} _{P}(x):=\inf _{y\in P}\,\operatorname {d} (x,y)}

est la distance de x {\displaystyle x} à P {\displaystyle P} et la fonction φ : E R {\displaystyle \varphi :\mathbb {E} \to \mathbb {R} } est « plus facile à évaluer que » d P {\displaystyle \operatorname {d} _{P}} . Si cette dernière expression est un souhait un peu vague (voir ci-dessous), on requiert en général que φ {\displaystyle \varphi } vérifie d'autres propriétés précises, telles que

  • φ ( x ) = 0 {\displaystyle \varphi (x)=0} si, et seulement si, d P ( x ) = 0 {\displaystyle \operatorname {d} _{P}(x)=0} ,
  • φ {\displaystyle \varphi } est continue dans un voisinage de P {\displaystyle P} .

Une borne d'erreur peut être globale, comme dans la définition ci-dessus, ou locale si l'estimation d P ( x ) φ ( x ) {\displaystyle \operatorname {d} _{P}(x)\leqslant \varphi (x)} n'est vérifiée que pour x {\displaystyle x} voisin de P {\displaystyle P} ou voisin d'un point spécifié de P {\displaystyle P} .

La plupart des bornes d'erreur peuvent se rassembler en deux familles, que nous décrivons ci-après, celle où P {\displaystyle P} est l'image réciproque d'un ensemble simple et celle où P {\displaystyle P} est un ensemble de sous-niveau d'une fonction à valeurs dans R ¯ {\displaystyle {\bar {\mathbb {R} }}} (cas particulier du précédent dans lequel l'image réciproque est associée à une fonction à valeurs dans R {\displaystyle \mathbb {R} } et où l'ensemble simple est un intervalle [ ν , + [ {\displaystyle [\nu ,+\infty [} ). Nous verrons dans chaque cas ce que l'on entend par une fonction φ {\displaystyle \varphi } « plus facile à évaluer que » d P {\displaystyle \operatorname {d} _{P}} .

Images réciproques

Dans la première famille, l'ensemble P {\displaystyle P} est l'image réciproque par une application c : E F {\displaystyle c:\mathbb {E} \to \mathbb {F} } , une contrainte, d'une partie Q {\displaystyle Q} d'un autre espace métrique ( F , d ) {\displaystyle (\mathbb {F} ,\operatorname {d} )} (même notation pour les métriques de E {\displaystyle \mathbb {E} } et F {\displaystyle \mathbb {F} } ), ce qui s'écrit

P := c 1 ( Q ) . {\displaystyle P:=c^{-1}(Q).}

En général, Q {\displaystyle Q} est « plus simple » que P {\displaystyle P} . Alors, on aimerait pouvoir prendre

φ ( x ) = β d Q ( c ( x ) ) , {\displaystyle \varphi (x)=\beta \,\operatorname {d} _{Q}(c(x)),}

β {\displaystyle \beta } est une constante positive indépendante de x {\displaystyle x} . Cette fonction φ {\displaystyle \varphi } est en effet souvent plus facilement calculable que d P {\displaystyle \operatorname {d} _{P}} , en tout cas si l'on peut évaluer c ( x ) {\displaystyle c(x)} et si la distance à Q {\displaystyle Q} se calcule plus facilement que la distance à P {\displaystyle P} . La borne d'erreur de Hoffman et les bornes d'erreur de Robinson obéissent à ce modèle.

Contraintes affines

Sous-espace affine

Demi-espace affine

Polyèdre convexe

Article détaillé : Lemme de Hoffman.

La première borne d'erreur non triviale a été obtenue pour la distance à un polyèdre convexe. On suppose donc donné un polyèdre convexe P {\displaystyle P} de R n {\displaystyle \mathbb {R} ^{n}} , écrit sous la forme suivante

P := { x R n : A x b } , {\displaystyle P:=\{x\in \mathbb {R} ^{n}:Ax\leqslant b\},}

A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} est une matrice réelle et b R m {\displaystyle b\in \mathbb {R} ^{m}} . On note B ( A ) {\displaystyle {\mathcal {B}}(A)} le cône convexe des vecteurs b R m {\displaystyle b\in \mathbb {R} ^{m}} tels que P {\displaystyle P\neq \varnothing } . Pour une norme {\displaystyle \|\cdot \|} sur R n {\displaystyle \mathbb {R} ^{n}} (pas nécessairement la norme euclidienne), on cherche à estimer la distance de x {\displaystyle x} à P {\displaystyle P} , qui est définie par

d P ( x ) := inf y P y x . {\displaystyle \operatorname {d} _{P}(x):=\inf _{y\in P}\,\|y-x\|.}

Pour v R m {\displaystyle v\in \mathbb {R} ^{m}} , on note v + {\displaystyle v^{+}} le vecteur de R m {\displaystyle \mathbb {R} ^{m}} dont la composante i {\displaystyle i} est max ( 0 , v i ) {\displaystyle \max(0,v_{i})} . On introduit également une norme {\displaystyle \|\cdot \|'} sur R m {\displaystyle \mathbb {R} ^{m}} .

En 1952, Hoffman a démontré le résultat suivant.

Lemme de Hoffman — Il existe une constante h {\displaystyle h} (ne dépendant que de A {\displaystyle A} , de {\displaystyle \|\cdot \|} et de {\displaystyle \|\cdot \|'} ) telle que

b B ( A ) ,     x R n : d P ( x ) h ( A x b ) + . {\displaystyle \forall \,b\in {\mathcal {B}}(A),~~\forall \,x\in \mathbb {R} ^{n}:\quad \operatorname {d} _{P}(x)\leqslant h\,\|(Ax-b)^{+}\|'.}

Contraintes convexes

Si l'ensemble considéré est donné par

P := { x R n : c ( x ) 0 } , {\displaystyle P:=\{x\in \mathbb {R} ^{n}:c(x)\leqslant 0\},}

c : R n R m {\displaystyle c:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} est R + m {\displaystyle \mathbb {R} _{+}^{m}} -convexe, en général, on ne peut pas avoir une borne d'erreur du type de celle de Hoffman, c'est-à-dire

β > 0 , x P : d P ( x ) β c ( x ) + , {\displaystyle \exists \,\beta >0,\quad \forall \,x\in P:\qquad \operatorname {d} _{P}(x)\leqslant \beta \,\|c(x)^{+}\|,}

sans hypothèses supplémentaires. Des contre-exemples sont donnés par Lewis et Pang (1997[2]), mais on peut aussi considérer le cas du singleton P := { x R 2 : c 1 ( x ) 0 {\displaystyle P:=\{x\in \mathbb {R} ^{2}:c_{1}(x)\leqslant 0} , c 2 ( x ) 0 } {\displaystyle c_{2}(x)\leqslant 0\}} , avec c 1 ( x ) = ( x 1 1 ) 2 + x 2 2 1 {\displaystyle c_{1}(x)=(x_{1}-1)^{2}+x_{2}^{2}-1} et c 2 ( x ) = ( x 1 + 1 ) 2 + x 2 2 1 {\displaystyle c_{2}(x)=(x_{1}+1)^{2}+x_{2}^{2}-1} , qui est l'intersection de deux disques tangents extérieurement. L'estimation ci-dessus ne peut avoir lieu en des points de la forme x t = ( 0 , t ) {\displaystyle x_{t}=(0,t)} , car d P ( x t ) = | t | {\displaystyle \operatorname {d} _{P}(x_{t})=|t|} et c ( x t ) + 2 = 2 t 2 {\displaystyle \|c(x_{t})^{+}\|_{2}={\sqrt {2}}t^{2}} , si bien qu'il faudrait trouver un β > 0 {\displaystyle \beta >0} tel que | t | 2 β t 2 {\displaystyle |t|\leqslant {\sqrt {2}}\beta t^{2}} , ce qui ne peut pas avoir lieu pour des | t | {\displaystyle |t|} arbitrairement petits.

Il s'avère donc nécessaire d'avoir une hypothèse de qualification de contraintes pour avoir une borne d'erreur linéaire, c'est-à-dire de la forme ci-dessus, ou de prendre une borne d'erreur non linéaire, de la forme β c ( x ) + α {\displaystyle \beta \,\|c(x)^{+}\|^{\alpha }} , avec un α > 0 {\displaystyle \alpha >0} .

Contraintes quadratiques convexes

Bornes d'erreur de Robinson

La borne d'erreur de Robinson (1975[3]) concerne un ensemble convexe défini par des contraintes (ou fonctions) convexes et satisfaisant une condition de Slater. Le cadre est très général, en particulier, la dimension des espaces vectoriels n'est pas supposée finie.

De manière plus précise, on suppose donnés deux espaces normés E {\displaystyle \mathbb {E} } et F {\displaystyle \mathbb {F} } , dont les normes sont toutes les deux notées {\displaystyle \|\cdot \|} , un ensemble convexe C E {\displaystyle C\subset \mathbb {E} } , un cône convexe fermé non vide K F {\displaystyle K\subset \mathbb {F} } et une fonction K {\displaystyle K} -convexe c : C F {\displaystyle c:C\to \mathbb {F} } . On s'intéresse à une borne d'erreur pour l'ensemble

P := { x C : c ( x ) K } = C ( c 1 ( K ) ) . {\displaystyle P:=\{x\in C:c(x)\in -K\}=C\cap \left(c^{-1}(-K)\right).}

On suppose que P {\displaystyle P} satisfait la condition de Slater suivante :

x ˇ P , ρ > 0 : c ( x ˇ ) + ρ B F K , {\displaystyle \exists \,{\check {x}}\in P,\quad \exists \,\rho >0:\quad c({\check {x}})+\rho B_{\mathbb {F} }\in -K,}

B F {\displaystyle B_{\mathbb {F} }} est la boule unité fermée de F {\displaystyle \mathbb {F} } . La borne d'erreur de Robinson majore la distance d P ( x ) {\displaystyle \operatorname {d} _{P}(x)} d'un point x C {\displaystyle x\in C} à P {\displaystyle P} dans l'espace E {\displaystyle \mathbb {E} } par un multiple de la distance

δ x := d ( K ) c ( x ) {\displaystyle \delta _{x}:=\operatorname {d} _{(-K)}c(x)}

de c ( x ) {\displaystyle c(x)} à K {\displaystyle -K} dans l'espace F {\displaystyle \mathbb {F} } .

Bornes d'erreur de Robinson — Dans les conditions et avec les notations ci-dessus, on a

x C : d P ( x ) ( δ x δ x + ρ ) x x ˇ x x ˇ ρ δ x . {\displaystyle \forall \,x\in C:\qquad \operatorname {d} _{P}(x)\leqslant \left({\frac {\delta _{x}}{\delta _{x}+\rho }}\right)\|x-{\check {x}}\|\leqslant {\frac {\|x-{\check {x}}\|}{\rho }}\,\delta _{x}.}

Si, de plus, P {\displaystyle P} est borné de diamètre Δ {\displaystyle \Delta } , alors

x C : d P ( x ) Δ ρ δ x . {\displaystyle \forall \,x\in C:\qquad \operatorname {d} _{P}(x)\leqslant {\frac {\Delta }{\rho }}\,\delta _{x}.}

La première borne d'erreur de Robinson ne fait intervenir C {\displaystyle C} dans la définition de P {\displaystyle P} , ni par la distance de c ( x ) {\displaystyle c(x)} à K {\displaystyle -K} , ni par le rayon ρ {\displaystyle \rho } , mais par l'intermédiaire du point de Slater x ˇ {\displaystyle {\check {x}}} . Dans la seconde borne d'erreur, c'est le diamètre Δ {\displaystyle \Delta } qui prend en compte la présence de C {\displaystyle C} dans P {\displaystyle P} . Un intérêt de la seconde borne d'erreur est de ne plus faire intervenir le point de Slater x ˇ {\displaystyle {\check {x}}} .

Ces bornes d'erreur ont été étendues au cas d'ensembles non convexes (voir ci-dessous).

Contraintes algébriques convexes

Voir Guoyin Li (2013[4]).

Autres bornes d'erreur

Voir Auslender et Crouzeix (1988[5]). Extension à un Banach réflexif par S. Deng (1997[6]).

Contraintes SDP

Voir S. Deng et H. Hu (1999[7]), Azé et Hiriart-Urruty (2002[8]).

Contraintes non convexes

Borne d'erreur de Robinson

Le cadre est le suivant. On suppose que E {\displaystyle \mathbb {E} } et F {\displaystyle \mathbb {F} } sont deux espaces de Banach, que c : E F {\displaystyle c:\mathbb {E} \to \mathbb {F} } est une fonction Fréchet différentiable et que C {\displaystyle C} un convexe fermé non vide de F {\displaystyle \mathbb {F} } . On s'intéresse à une borne d'erreur pour l'ensemble (non nécessairement convexe) suivant

P := { x E : c ( x ) C } = c 1 ( C ) . {\displaystyle P:=\{x\in \mathbb {E} :c(x)\in C\}=c^{-1}(C).}

La condition de qualification de Robinson en x P {\displaystyle x\in P} s'écrit

( QC-R ) 0 int { c ( x ) + c ( x ) E C } , {\displaystyle ({\mbox{QC-R}})\qquad 0\in \operatorname {int} \{c(x)+c'(x)\mathbb {E} -C\},}

int {\displaystyle \operatorname {int} } est l'opérateur prenant l'intérieur. On note ci-dessous d P ( x ) {\displaystyle \operatorname {d} _{P}(x)} la distance de x {\displaystyle x} à P {\displaystyle P} et d C ( c ( x ) ) {\displaystyle \operatorname {d} _{C}(c(x))} la distance de c ( x ) {\displaystyle c(x)} à C {\displaystyle C} .

Borne d'erreur de Robinson[9] — Si la condition de qualification de Robinson (QC-R) a lieu en x P {\displaystyle x\in P} , alors il existe une constante positive ρ {\displaystyle \rho } , telle que pour tout x {\displaystyle x'} voisin de x {\displaystyle x} , on a

d P ( x ) ρ d C ( c ( x ) ) . {\displaystyle \operatorname {d} _{P}(x')\leqslant \rho \,\operatorname {d} _{C}{\bigl (}c(x'){\bigr )}.}

Cette borne d'erreur est locale (estimation de la distance pour x {\displaystyle x'} voisin de x {\displaystyle x} ), du fait de la non convexité potentielle de l'ensemble P . {\displaystyle P.}

Ensembles de sous-niveau

Une autre famille de bornes d'erreur concerne l'ensemble de sous-niveau d'une fonction f : E R { + } {\displaystyle f:\mathbb {E} \to \mathbb {R} \cup \{+\infty \}} . Sans perte de généralité, on peut supposer qu'il s'agit de l'ensemble sous le niveau zéro :

P := { x E : f ( x ) 0 } . {\displaystyle P:=\{x\in \mathbb {E} :f(x)\leqslant 0\}.}

Le fait que f {\displaystyle f} puisse prendre des valeurs infinies permet de prendre en compte la contrainte implicite x dom f := { x E : f ( x ) < + } {\displaystyle x\in \operatorname {dom} f:=\{x\in \mathbb {E} :f(x)<+\infty \}} (le domaine effectif de f {\displaystyle f} ). Il est alors courant d'obtenir des bornes d'erreur de la forme d P ( x ) φ ( x ) {\displaystyle \operatorname {d} _{P}(x)\leqslant \varphi (x)} avec

φ ( x ) = β ( f ( x ) + ) α , {\displaystyle \varphi (x)=\beta \,(f(x)^{+})^{\alpha },}

α {\displaystyle \alpha } et β {\displaystyle \beta } sont des constantes positives indépendantes de x {\displaystyle x} . Cette seconde famille peut être considérée comme un cas particulier de la première dans laquelle la contrainte est la fonction scalaire f {\displaystyle f} et l'ensemble Q {\displaystyle Q} est l'intervalle R := ] , 0 ] {\displaystyle \mathbb {R} _{-}:={]-\infty ,0]}} .

Un cas particulier de cette famille est celui où P {\displaystyle P} est l'ensemble formé par les solutions d'un problème d'optimisation :

P := * a r g m i n x E f ( x ) , {\displaystyle P:=\operatorname {*} {arg\,min}_{x\in \mathbb {E} }\,f(x),}

f : E R { + } {\displaystyle f:\mathbb {E} \to \mathbb {R} \cup \{+\infty \}} .

Annexes

État de l'art

On pourra consulter les livres de Zalinescu (2002) et de Auslender et Teboulle (2003), ainsi que les articles de synthèse de Pang (1997) et de Lewis et Pang (1998).

Notes

  1. Error bound en anglais.
  2. (en) A.S. Lewis et J.-S. Pang, « Error bounds for convex inequality systems », dans Generalized convexity, generalized monotonicity: recent results, Kluwer Academic Publishers, Dordrecht, coll. « Nonconvex Optimization and its Applications » (no 27), , 75–110 p.
  3. (en) S. M. Robinson, « An application of error bounds for convex programming in a linear space », SIAM Journal on Control, no 13,‎ , p. 271–273.
  4. (en) Guoyin Li (2013). Global error bounds for piecewise convex polynomials. Mathematical Programming.
  5. (en) A. Auslender et J.-P. Crouzeix, « Global regularity theorems », Mathematics of Operations Research, no 13,‎ , p. 243–253.
  6. (en) S. Deng, « Computable error bounds for convex inequality systems in reflexive Banach spaces », SIAM Journal on Optimization, no 7,‎ , p. 274–279.
  7. (en) S. Deng et H. Hu, « Computable error bounds for semidefinite programming », Journal of Global Optimization, no 14,‎ , p. 105-115.
  8. (en) D. Azé et J.-B. Hiriart-Urruty, « Optimal Hoffman-type estimates in eigenvalue and semidefinite inequality constraints », Journal of Global Optimization, no 24,‎ , p. 133–147.
  9. Robinson (1976)

Article connexe

Bibliographie

  • (en) A. Auslender, M. Teboulle (2003). Asymptotic Cones and Functions in Optimization and Variational Inequalities. Springer Monographs in Mathematics. Springer, New York.
  • (en) A. S. Lewis, J. S. Pang (1998). Error bounds for convex inequality systems generalized convexity, generalized monotonicity. In: Crouzeix, J.P., Martinez-Legaz, J.E., Volle, M. (eds.), pp. 75–110.
  • (en) J. S. Pang (1997). Error bounds in mathematical programming. Mathematical Programming, 79, 299–332.
  • (en) S.M. Robinson (1976). Stability theory for systems of inequalities, part II: differentiable nonlinear systems. SIAM Journal on Numerical Analysis, 13, 497-513.
  • (en) C. Zalinescu (2002). Convex Analysis in General Vector Spaces. World Scientific, Singapore.
  • icône décorative Portail des mathématiques
  • icône décorative Portail de l'analyse