Try   HackMD

OCVX2: Optimisation sous contrainte par la methode des multiplicateurs de Lagrangre et conditions KKT

KKT: Karush-Kuhn-Tucker

On va s'attaquer a des problemes de la forme:

minimiser f(x)f:RnRf convexexCxRnC=ensemble convexe

xC{gi(x)0i=1,,mgi convexehj(x)=0j=1,,phj affine

C defini l'ensemble des points admissibles.

minimiser f(x)equivalent aminimiser f(x),xRnxCtq{gi(x)0i=1,,nhj(x)=0j=1,,p(OPT)

  • valeur optimale
    p\*=f(x\*)
  • point optimal
    x\*Rn

Sans contrainte:

f convexe:
x\*
optimal
f(x\*)=0

Cette conditions d'optimalite n'est plus vraie des lors que l'on a des contraintes.

Dualite de Lagrange

:::

Image Not Showing Possible Reasons
  • The image file may be corrupted
  • The server hosting the image is unavailable
  • The image path is incorrect
  • The image format is not supported
Learn More →

Lagrangien

On definit le Lagrangien de (OPT) comme la fonction:

L:Rn×Rm×RpR(x,α,β)L(x,α,β)=f(x)+i1mαigi(x)+j=1pβjhj(x)variables duales{α=(α1αm)Rmβ=(β1βp)Rpmultiplications de Lagrangecout associe a chaque contrainte

Lagrangien

version sans contrainte du probleme (OPT)

Intuition

Intuition: pour chaque probleme d'optimisation avec contraintes, il existe un certain parametrage des variables duales tel que le minimum sans contrainte du Lagrangien par rapport a la variable primale

x (a variables duales fixees) coincide avec la solution du probleme de contraintes.

On appelle fonction objective primale

θp:RnRxmaxα,βα0iL(x,α,β)

On appelle probleme primal le probleme d'optimisation sans contrainte:

minxRnθp(x)

xRn est primal admissible ssi

{gi(x)0ihj(x)=0j

On va noter

p\* la valeur optimale de
(P)
et
x\*
le point optimal,
p\*=θp(x\*)

On appelle fonction objective duale:

θD:Rm×RpR(α,β)minxRnL(x,α,β)

On appelle probleme dual le probleme d'optimisation avec contrainte

(D)maxα,βαi0θD(α,β)=maxα,βαi0minxL(x,α,β)

(α,β) est dual admissible ssi
αi0
i
.

On note egalement

(α\*,β\*) la solution de
(D)
et
d\*=θD(α\*,β\*)

Interpretation du probleme primal

Dans le cas ou on a

g(x)0 convexe et
h(x)=0
affine.

Dans ce cas, le Lagrange est:

L:Rn×R×RR(x,α,β)L(x,α,β)=f(x)+αg(x)+βh(x)

On a:

θp:RnRxmaxα,βα0iL(x,α,β)

Dans ce cas:

xmaxα,βα0iL(x,α,β)θp(x)=maxα,βα0[f(x)+αg(x)+βh(x)]

θp(x) est convexe car la somme ponderee de fonctions convexes est convexe, et le
max
de fonctions convexes est convexe.

θp(x)=f(x)+maxα,βα0[αg(x)+βh(x)]

  • Si
    g(x)>0
    , le crochet est maximise pour
    α=+
    et vaut
    +
  • Si
    g(x)0
    , le crochet est maximise pour
    α=0
  • Si
    h(x)0
    , le crochet est maximiser pour
    β=(signe de h(x))
    et vaut
    +
  • Si
    h(x)=0
    , le crochet vaut
    0
    peu importe la valeur de
    β

Donc si

x primal admissible
(g(x)0
et
h(x)=0)
, alors le crochet vaut
0
.

Si

x ne verifie pas les contraintes, alors le crochet vaut
+
.

θp(x)=f(x)+{0si x primal admissible+si x pas primal admissible

(P):minxRnθp(x)minxRnf(x)+{0si x primal admissible+si x pas primal admissible