Subgradient

Subtangentet som hela tiden ligger under funktionskurvan

Subgradient är ett matematiskt begrepp som generaliserar derivata och gradient till funktioner som inte är deriverbara. Begreppet används mycket inom konvex optimering.

Definition

En subgradient till en konvex funktion f i punkten x 0 {\displaystyle x_{0}} är en vektor g {\displaystyle g} så att

f ( x ) f ( x 0 ) + g T ( x x 0 ) {\displaystyle f(x)\geq f(x_{0})+g^{\mathrm {T} }(x-x_{0})} ,

för alla vektorer x {\displaystyle x} .

På samma sätt definieras en supergradient till konkava funktioner:

f ( x ) f ( x 0 ) + g T ( x x 0 ) {\displaystyle f(x)\leq f(x_{0})+g^{\mathrm {T} }(x-x_{0})} .

Om f är differentierbar i x 0 {\displaystyle x_{0}} finns bara en subgradient i x 0 {\displaystyle x_{0}} , nämligen f ( x 0 ) {\displaystyle \nabla f(x_{0})} .

Exempel

Funktionen

f ( x ) = | x | {\displaystyle f(x)=|x|\,}

är deriverbar överallt utom för x = 0 {\displaystyle x=0} . I punkten x = 0 {\displaystyle x=0} är alla tal i intervallet [ 1 , 1 ] {\displaystyle [-1,1]} subgradienter till f {\displaystyle f} . Detta eftersom alla linjer som går igenom ( 0 , 0 ) {\displaystyle (0,0)} och har en lutning mellan -1 och 1 ligger helt under funktionskurvan.

Referenser

  • Boyd och Vandenberghe: Convex Optimization. Cambridge University Press 2006