SlideShare una empresa de Scribd logo
1 de 19
Descargar para leer sin conexión
Programaci´n Estoc´stica
          o       a

                               E. Cerd´a , J. Morenob
                                      a
                      a   Departamento An´lisis Econ´mico. UCM.
                                         a          o
                          b   Departamento de Estad´
                                                   ıstica. UCM.




1    Introducci´n
               o
Tal como su nombre indica, la Programaci´n Estoc´stica trata problemas de Pro-
                                             o        a
gramaci´n Matem´tica en cuya formulaci´n aparece alg´n elemento estoc´stico.
         o         a                         o               u                 a
Por tanto, mientras que en un problema determin´        ıstico de Programaci´n Ma-
                                                                             o
tem´tica, ya sea de Programaci´n Lineal, Programaci´n No Lineal, Programaci´n
    a                          o                         o                         o
Entera, Programaci´n Mixta Lineal Entera o Programaci´n Mixta No Lineal En-
                     o                                        o
tera, todos los datos (coeficientes) que aparecen en su formulaci´n son n´meros
                                                                     o        u
conocidos, en Programaci´n Estoc´stica dichos datos (o al menos alguno de ellos)
                          o       a
son desconocidos, aunque para ellos se conoce o se puede estimar su distribuci´n   o
de probabilidad. Para precisar m´s, veamos las dos definiciones que propone
                                    a
Prekopa [29]:
    Primera definici´n: “Programaci´n Estoc´stica es la ciencia que ofrece solu-
                     o                o          a
ciones para problemas formulados en conexi´n con sistemas estoc´sticos, en los
                                                o                      a
que el problema num´rico resultante a resolver es un problema de Programaci´n
                       e                                                           o
Matem´tica de tama˜o no trivial“.
        a              n
    Segunda definici´n: “La Programaci´n Estoc´stica trata problemas de Progra-
                     o                    o        a
maci´n Matem´tica en los que algunos de los par´metros son variables aleatorias,
     o         a                                    a
bien estudiando las propiedades estad´  ısticas del valor optimo aleatorio o de otras
                                                          ´
variables aleatorias presentes en el problema o bien reformulando el problema
en otro de decisi´n en el que se tiene en cuenta la distribuci´n de probabilidad
                 o                                                o
conjunta de los par´metros aleatorios“.
                    a
    Los problemas resultantes de ambas definiciones son llamados problemas de
Programaci´n Estoc´stica.
            o         a


Rect@                                                             Monogr´fico 2 (2004)
                                                                        a
4                                                     Programaci´n Estoc´stica
                                                                 o       a

    La aleatoriedad en coeficientes en unos casos se deber´ a la falta de fiabilidad
                                                         a
en los datos recogidos, en otros casos a errores de medida, en otros a eventos
futuros a´n no conocidos, etc.
         u
    Tal como indica Dantzig [11], la Programaci´n Estoc´stica comenz´ en 1955
                                                o        a               o
con los trabajos de Dantzig [10] y Beale [2]. y ya en la misma d´cada alcanz´
                                                                    e             o
con Markowitz [23] una aplicaci´n muy destacada al problema de selecci´n de
                                  o                                         o
carteras que le llevar´ a la consecuci´n del Premio N´bel. En [34] se recogen
                      ıa               o               o
unas 800 referencias sobre trabajos publicados entre 1955 y 1975, clasificadas en
funci´n de su contenido.
     o
    En 1974 se celebr´ en Oxford (Inglaterra) la primera conferencia internacio-
                      o
nal en Programaci´n Estoc´stica, organizada por Michael Dempster. En 1981
                    o       a
se celebr´ en K¨szeg (Hungr´ la segunda conferencia, organizada por Andra
         o       o            ıa)
Prekopa. En dicho encuentro se puso en marcha el Committee on Stochastic Pro-
gramming (COSP), como una rama de la Mathematical Programming Society.
Dicho comit´ ha sido el responsable de organizar los sucesivas conferencias que
             e
se han ido celebrando. La novena conferencia internacional se celebr´ en Berl´
                                                                       o        ın
(Alemania) en 2001 y la d´cima se celebrar´ los d´ 9 a 12 de Octubre de 2004
                          e                 a      ıas
en Tucson, Arizona (USA).
    El COSP ha puesto en funcionamiento la p´gina web http// stoprog.org en la
                                              a
que se puede encontrar mucha informaci´n y documentaci´n sobre Programaci´n
                                         o                o                     o
Estoc´stica.
      a


2    Definiciones b´sicas
                  a
Se considera el siguiente problema de Programaci´n Estoc´stica:
                                                o       a

                                    ˜
                           m´ g0 x, ξ ,
                            ın ˜
                            x
                           sujeto a :
                                                                                  (1.1)
                                 ˜
                           gi x, ξ ≤ 0, i = 1, 2, ..., m,
                           ˜
                           x ∈ D,
                              ˜
donde el conjunto D ⊂ Rn , ξ es un vector aleatorio definido sobre un conjunto
E ⊂ R .Suponemos que est´n dados una familia de eventos F formada por
        s
                              a                                       ,
                                                            ,
subconjuntos de E y una distribuci´n de probabilidad P definida sobre F Por
                                    o                                         .
tanto, para cada A ⊂ E, es A ∈ F, y la probabilidad P (A) es conocida. Adem´s     a
suponemos que las funciones gi (x, ·) : E → R, ∀x, i son variables aleatorias y
                                ˜
que la distribuci´n de probabilidad P es independiente del vector de variables de
                 o
decisi´n x.
      o
    Obs´rvese que en el problema formulado (PE) para cada realizaci´n ξ del vec-
        e                                                              o
              ˜
tor aleatorio ξ se tiene un problema determin´  ıstico. Un vector x ∈ D puede ser
factible para una realizaci´n del vector aleatorio y no serlo para otra realizaci´n.
                           o                                                     o


Rect@                                                           Monogr´fico 2 (2004)
                                                                      a
E. Cerd´, J. Moreno
        a                                                                         5

  ımismo puede ocurrir que para una realizaci´n ξ 1 sea g0 x1 , ξ 1 < g0 x2 , ξ 1
As´                                          o
                               o   2                       ˜
y en cambio para otra realizaci´n ξ del vector aleatorio ξ sea g0 x2 , ξ 2 <
    1 2
g0 x , ξ .
   Un caso particular del problema (PE) es el siguiente problema de Progra-
maci´n Lineal Estoc´stica:
    o              a

                           m´
                            ın            ˜
                                       cT ξ x,
                            x
                           sujeto a : Ax = b,
                                                                                (1.2)
                                         ˜    ˜
                                      T ξ x≥h ξ ,
                                      x ≥ 0,

donde la matriz A y el vector b son determin´ ısticos. La matriz T (·) y los vectores
                                            ˜
c (·) y h (·) dependen del vector aleatorio ξ y por tanto son estoc´sticos.
                                                                    a
     Normalmente el problema estoc´stico se reemplaza por un problema deter-
                                      a
min´ ıstico, que se llama determinista equivalente cuya soluci´n optima pasa a
                                                                 o ´
considerarse la soluci´n optima del problema estoc´stico.
                       o ´                            a
     Fundamentalmente existen dos tipos de modelos en Programaci´n Estoc´stica:
                                                                     o         a

    • Modelos “esperar y ver” (“wait and see”) o modelos de programaci´m          o
      estoc´stica pasiva, basados en la suposici´n de que el decisor es capaz de
            a                                      o
      esperar a que se produzca la realizaci´n de las variables aleatorias y hacer
                                              o
      su decisi´n con informaci´n completa de dicha realizaci´n, con lo que el pro-
                o                o                             o
      blema se convierte en determin´  ıstico y es posible encontrar el valor optimo
                                                                              ´
      de las variables de decisi´n con las t´cnicas habituales de programaci´n
                                  o            e                                   o
      matem´tica determin´
              a              ıstica. En ocasiones puede tener inter´s el conocer
                                                                       e
      la distribuci´n de probabilidad del valor objetivo optimo o algunos de sus
                   o                                        ´
      momentos (valor esperado o varianza) antes de conocer la realizaci´n de   o
      sus variables aleatorias. Tales problemas se llaman problemas de distri-
      buci´n. Estos problemas se estudian en [4], [33], [29].
           o

    • Modelos “aqu´ y ahora” (“here and now”) o modelos de programaci´n es-
                     ı                                                        o
      toc´stica activa. En estos modelos el decisor toma la decisi´n sin el conoci-
         a                                                         o
      miento de la realizaci´n de las variables aleatorias, sin que por ello queden
                            o
      afectadas las distribuciones de probabilidad de las mismas. En los siguientes
      apartados veremos diferentes enfoques para resolver el problema.


3     Programaci´n con restricciones probabil´
                o                            ısticas
   Se considera el problema (1.1) en el que se supone que la funci´n objetivo no
                                                                  o
contiene ninguna variable aleatoria:


Rect@                                                        Monogr´fico 2 (2004)
                                                                   a
6                                                                 Programaci´n Estoc´stica
                                                                             o       a


                       m´
                        ın                g0 (x) ,
                           x
                                  ˜     ˜
                       sujeto a : gi x, ξ ≤ 0,             i = 1, 2, ..., m,            (1.3)
                                  x ∈ D,
    El m´todo de restricciones de azar (chance constrained) fue introducido
        e
por Charnes, Cooper y Symonds en 1958. V´anse [7], [8]. La idea consiste
                                                e
en transformar el problema dado en un determinista equivalente en el que se
verifiquen las restricciones con, al menos, una determinada probabilidad fijada
de antemano. Hay que distinguir dos casos seg´n se fije la probabidad para el
                                                u
conjunto de las restricciones o para cada una de ellas por separado.
Restricciones de azar conjuntas:
   Se considera el problema (3.1). Sea p ∈ [0, 1] dado. Se define el determinista
equivalente:


          m´
           ın         g0 (x) ,
           x
                        ˜     ˜       ˜      ˜            ˜      ˜
          sujeto a : P g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0 ≥ p,            (1.4)
                     x ∈ D.

    Para este problema, 1 − p es el riesgo admisible para el decisor de que la
soluci´n del problema sea no factible.
      o
    En el caso particular de que para cada x ∈ D las variables aleatorias
                                        ˜ ˜        ˜               ˜
                                 g1 (x, ξ), g2 (x, ξ), ..., gm (x, ξ)
                                 ˜                          ˜

sean mutuamente estad´  ısticamente independientes, el problema equivalente de-
terminista anterior se puede expresar de la siguiente forma.


     m´
      ın          g0 (x)
      x
                   ˜     ˜        ˜      ˜           ˜      ˜
     sujeto a : P g1 (x, ξ) ≤ 0 P g2 (x, ξ) ≤ 0 ...P gm (x, ξ) ≤ 0 ≥ p,                 (1.5)
                x ∈ D.

Restricciones de azar separadas o individuales:
    Se considera el problema (1.3). Para cada restricci´n i ∈ {1, 2, ..., m} sea
                                                        o
pi ∈ [0, 1] dado. Se define el determinista equivalente:

                m´
                 ın            g0 (x) ,
                 x
                              ˜     ˜
                sujeto a : P gi (x, ξ) ≤ 0 ≥ pi ,            para i = 1, 2, ..., m,     (1.6)
                           x ∈ D.


Rect@                                                                   Monogr´fico 2 (2004)
                                                                              a
E. Cerd´, J. Moreno
        a                                                                                                    7

   La siguiente Proposici´n recoge la relaci´n entre los dos casos:
                         o                  o
Proposici´n 3.1.
         o                  Supongamos que x es una soluci´n factible del problema
                                           ˆ              o
                                                                                           m
(1.6) para los valores p1 , p2 , ..., pm . Entonces para p = 1 − m +                             pi , se verifica
                                                                                           i=1
que x es factible para el problema (1.4).
    ˆ
Demostraci´n: Sea x soluci´n factible del problema (1.4). Ello quiere decir
             o         ˆ         o
que se verifica: P (ξ | gi (ˆ, ξ) ≤ 0) ≥ pi , para todo i = 1, 2, ..., m. Definimos los
                           x
eventos Ai de la siguiente forma: Ai = {ξ | gi (ˆ, ξ) ≤ 0} , para i = 1, 2, ..., m.
                                                  x
   Se verifica que P (Ai ) ≥ pi , P AC ≤ 1 − pi . Veamos que se verifica que
                                      i

                                             m
                                       P           Ai     ≥ p,
                                            i=1

lo cual quiere decir que x es factible para el problema (1.4). En efecto:
                         ˆ
   Teniendo en cuenta la desigualdad de Boole: P                           Sk    ≤          P (Sk ) , se tiene
                                                                      k                k
que
                                                           
               m                             m          C                       m
                                1−P                        =1−P                            C
        P            Ai    =                       Ai                                 (Ai )         ≥
               i=1                           i=1                                i=1
                                      m                               m
                                                    C
                           ≥ 1−            P (Ai )          ≥1−            (1 − pi ) = p.
                                     i=1                             i=1



   Sean:

            q(x)      = P (ξ | g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0) ,
            qi (x)    = P (ξ | gi (x, ξ) ≤ 0) , i = 1, 2, ..., m.

   El conjunto factible del problema (1.4) lo podemos representar de la siguiente
forma: C(p) = {x ∈ D | q(x) ≥ p} .
   Sea: Ci (pi ) = {x ∈ D | qi (x) ≥ pi } , i ∈ {1, 2, ..., m} .
   El conjunto factible del Problema (1.6) lo podemos respresentar como
                                                            m
                               ˆ
                               C (p1 , p2 , ..., pm ) =         Ci (pi ) .
                                                          i=1

                                            ˆ
   Ser´ deseable que los conjuntos C(p) y C (p1 , p2 , ..., pm ), que son los conjuntos
       ıa
de soluciones factibles de los deterministas equivalentes que estamos estudiando,
fueran no vac´ cerrados y convexos. Las siguientes proposiciones tratan sobre
              ıos,
dichas cuestiones.


Rect@                                                                           Monogr´fico 2 (2004)
                                                                                      a
8                                                      Programaci´n Estoc´stica
                                                                  o       a

Proposici´n 3.2 Sea C(p) el conjunto de soluciones factibles del Problema (1.4).
          o
En dicho conjunto se verifican las siguientes propiedades:
     1) Si p1 ≤ p2 , entonces C(p1 ) ⊃ C(p2 ).
     2) C(0) = D.
     3) C(p) es no vac´ para todo p ∈ [0, 1] ⇐⇒ C(1) = ∅.
                      ıo
Demostraci´n:o
1) Sea p1 ≤ p2 . Si x ∈ C(p2 ), es
q(x) = P (ξ | g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0) ≥ p2 ≥ p1 =⇒ x ∈
C(p1 ).
2) C(0) = {x ∈ D | q(x) ≥ 0} = D, ya que q(x) es una probabilidad y por tanto
es mayor o igual que cero.
3) Si C(p) = ∅, ∀p ∈ [0, 1] =⇒ C(1) = ∅. Por otra parte, si C(1) = ∅ =⇒ ∀p ≤ 1,
por 1) es C(p) ⊃ C(1) = ∅.

                                                    ˆ
   Obs´rvese que si C(p) = ∅, ∀p ∈ [0, 1], entonces C (p1 , p2 , ..., pm ) = ∅, para
       e
todo p1 , p2 , ..., pm en [0,1].
    La siguiente proposici´n, cuya demostraci´n se encuentra en [17, ?] da condi-
                          o                  o
ciones que aseguran que los conjuntos que estamos considerando son cerrados.
Proposici´n 3.3 Si las funciones gi : Rn × E → R son continuas, entonces los
           o
                           ˆ
conjuntos factibles C(p) y C (p1 , p2 , ..., pm ) son cerrados.
    A continuaci´n se aborda el problema de la convexidad de los conjuntos C(p)
                     o
   ˆ
y C (p1 , p2 , ..., pm ) . Estos conjuntos en general no son convexos. Veamos con-
diciones en que s´ lo son. Las demostraciones de las proposiciones siguientes se
                       ı
encuentran en [17, ?]. V´ase tambi´n [29].
                               e         e
Definici´n 3.1 Una medida de probabilidad P : F → [0, 1] se dice que es cua-
         o
sic´ncava si ∀S1 , S2 ∈ F , siendo S1 y S2 conjuntos convexos, y ∀λ ∈ [0, 1],se
   o
verifica que P (λS1 + (1 − λ) S2 ) ≥ m´ {P (S1 ) , P (S2 )} .
                                     ın
Definici´n 3.2 Una medida de probabilidad P : F → [0, 1] se dice que es log-
         o
c´ncava si ∀S1 , S2 ∈ F , siendo S1 y S2 conjuntos convexos, y ∀λ ∈ [0, 1],se verifica
 o
                                      λ        1−λ
que P (λS1 + (1 − λ) S2 ) ≥ [P (S1 )] [P (S2 )]    .
   Las dos proposiciones siguientes dan condiciones para que una medida de
probabilidad sea cuasi-c´ncava.
                          o
Proposici´n 3.3 Si P es una medida de probabilidad log-c´ncava en F , entonces
          o                                             o
P es cuasic´ncava.
           o
Proposici´n 3.4 Sea P una medida de probabilidad en Rs , de tipo continuo con
          o
funci´n de densidad asociada f. Entonces se verifica:
     o


Rect@                                                        Monogr´fico 2 (2004)
                                                                   a
E. Cerd´, J. Moreno
        a                                                                           9

   • P es log-c´ncava si y s´lo si el logaritmo de f es una funci´n c´ncava.
               o            o                                    o o

   • P es cuasi-c´ncava si y s´lo si f −1/s es convexa.
                 o            o

    La siguiente proposici´n da condiciones suficientes para que los conjuntos que
                          o
estamos estudiando sean convexos.
Proposici´n 3.5 Si gi (·, ·) es conjuntamente convexa en (x, ξ), para cada i =
               o
1, 2, ..., m y P es cuasi-c´ncava , entonces C(p) es convexo para todo p ∈ [0, 1] y
                              o
ˆ
C (p1 , p2 , ..., pm ) es convexo, ∀p1 , p2 , ..., pm en [0, 1].
    Algunas medidas de probabilidad cuasi-c´ncavas son: La uniforme k−dimen-
                                              o
sional, sobre un conjunto convexo S ⊂ Rk , la distribuci´n exponencial en R, la
                                                            o
normal multivariante en Rk , la distribuci´n de Dirichlet, la beta, la distribuci´n de
                                          o                                      o
Wishart, la gamma para ciertos valores del par´metro, la distribuci´n de Cauchy,
                                                a                       o
la distribuci´n de Pareto para determinados valores etc.
             o
El caso lineal:
   Se considera el problema lineal estoc´stico (1.2), en el cual se supone que la
                                        a
funci´n objetivo no contiene ninguna variable aleatoria:
     o

                              m´
                               ın            cT x,
                                 x
                              sujeto a : Ax = b,                                  (1.7)
                                            ˜       ˜
                                         T (ξ)x ≥ h(ξ),
                                         x ≥ 0,
    Para el Problema (1.7), dado el valor p ∈ [0, 1] , el programa determinista equi-
valente correspondiente al m´todo de restricciones de azar tomadas en conjunto
                             e
ser´:
   a

                        m´
                         ın          cT x,
                          x
                        sujeto a : Ax = b,
                                                                                  (1.8)
                                          ˜     ˜
                                   P T (ξ)x ≥ h(ξ) ≥ p,
                                   x ≥ 0,
    Para el mismo Problema (1.7), dados los valores p1 , p2 , ..., pm , pertenecientes
al intervalo [0, 1] , el programa determinista equivalente correspondiente al m´todo
                                                                                e
de restricciones de azar tomadas de manera separada ser´:    a

             m´
              ın         cT x,
              x
             sujeto a : Ax = b,
                                                                                  (1.9)
                               ˜       ˜
                        P T i ξ x ≥ hi ξ             ≥ pi ,   i = 1, 2, ..., m,
                        x ≥ 0,


Rect@                                                             Monogr´fico 2 (2004)
                                                                        a
10                                                           Programaci´n Estoc´stica
                                                                        o       a

                                                                ˆ
    Sean C(p) el conjunto factible del programa (1.8) y C(p1 , p2 , ..., pm ) el con-
junto factible de (1.9). Aunque el programa estoc´stico inicial (1.7) es lineal,
                                                         a
                                            ˆ
los conjuntos de soluciones factibles C(p), C(p1 , p2 , ..., pm ) no tienen por qu´ ser
                                                                                  e
convexos, como se puede observar en el siguiente ejemplo.
    Se considera el siguiente programa estoc´stico con una sola variable de decisi´n
                                            a                                       o
x:
                                             m´ g0 (x),
                                              ın
                                                 x
                                                 ˜
                               sujetoa : T x ≥ h ξ ,

                      −2
en donde T =               ,
                       1

          ˜
        h ξ      toma los valores:
           −4                                          −10
                  ,    con probabilidad 1/2, y                    con probabilidad 1/2.
            0                                           3
    Para este programa estoc´stico se tiene que, para todo p ∈ [0, 1/2] es C(p) =
                                a
 ˆ
C(p) = [0, 2] ∪ [3, 5], que no es convexo no conexo.
    Las siguientes proposiciones recogen los principales resultados conocidos para
el tipo de problema que estamos considerando.
Proposici´n 3.6 Se considera el programa estoc´stico (1.7). Supongamos que
           o                                       a
˜
ξ es un vector aleatorio cuya distribuci´n de probabilidad es discreta y finita.Sea
                                        o
P ξ = ξ k = αk , para k = 1, 2, ..., K. Entonces para p > 1 − m´ k∈{1,2,...,K} αk
                                                                  ın
se verifica que el conjunto factible C(p) es convexo.
   La demostraci´n se encuentra en [17, ?]
                o
    A la vista de la proposici´n anterior, se comprueba inmediatamente que si
                               o
                                                                     ˆ
pj > 1 − m´ k∈{1,2,...,K} αk para cada j = 1, 2, ..., m, el conjunto C (p1 , p2 , ..., pm )
           ın
es convexo.
Proposici´n 3.7 Se considera el programa estoc´stico (1.7). Supongamos que
          o                                            a
   ˜                                                         ˜    ˜
T ξ = T y que la probabilidad P correspondiente a h(ξ) = h es cuasi-c´ncava.  o
                              ˆ
Entonces los conjuntos C(p) y C (p1 , p2 , ..., pm ) son cerrados y convexos.
   La demostraci´n se puede ver en [5]
                o
                                                                ˜ ˜              ˜
Proposici´n 3.8Se considera el programa estoc´stico (1.7). Sean T1· , T2· , ..., Tm·
            o                                  a
                                    ˜     ˜   ˜                  ˜ ˜              ˜
las filas respectivas de la matriz T ξ , h ξ = h. Supongamos que T1· , T2· , ..., Tm· ,
˜
h tienen distribuci´n normal con
                   o
                                             T
      E    ˜       ˜
           Ti· − E Ti·         ˜       ˜
                               Tj· − E Tj·           = rij C, para i, j = 1, 2, ..., m,


Rect@                                                              Monogr´fico 2 (2004)
                                                                         a
E. Cerd´, J. Moreno
        a                                                                                    11


         E        ˜       ˜
                  Ti· − E Ti·          ˜   ˜
                                       h−E h           = si C, para i, j = 1, 2, ..., m,

donde rij y si son constantes para todo i, j. Entonces, C(p) es convexo para
p ≥ 0, 5.

   La demostraci´n se puede ver en [5]
                o

Ejemplos:

1) Se considera el programa estoc´stico con conjunto factible
                                 a

                                                     ˜
                                              g(x) ≥ ξ,                                    (1.10)
                                                              T
en donde x ∈ Rn , g(x) = (g1 (x), g2 (x), ..., gm (x)) no contiene ning´n elemneto
                                                                       u
            ˜   ˜ ˜            ˜
aleatorio y ξ = ξ1 , ξ2 , ..., ξm es un vector aleatorio de dimensi´n m.
                                                                   o
   En este caso para p ∈ [0, 1] se tiene que el conjunto factible del determinista
equivalente para restricciones de azar conjuntas es

                          C(p)    = {x ∈ Rn | P (ξ | g(x) ≥ ξ) ≥ p} =
                                  =     x ∈ Rn | Fξ (g(x)) ≥ p ,
                                                  ˜



           ˜            o               o                        ˜
en donde Fξ es la funci´n de distribuci´n del vectora aleatorio ξ.
   Para pi ∈ [0, 1], considerando restricciones de azar individuales se tiene que

                          Ci (pi ) = {x ∈ Rn | P (ξi | gi (x) ≥ ξi ) ≥ pi } =
                  =        x ∈ Rn | Fξi (gi (x)) ≥ pi = {x ∈ Rn | gi (x) ≥ γi } ,
                                     ˜


               −1
en donde γi = Fξ (pi ) .
               ˜      i


2) Se considera el programa estoc´stico lineal (1.7) y su determinista equiva-
                                    a
lente (1.9) para restricciones de azar separadas. Sea la restricci´n estoc´stica
                                                                  o       a
                                                           T
Ti ξ˜ x ≥ hi ξ de la forma tT x ≥ h, siendo tT , h
                 ˜                ˜       ˜          ˜  ˜     un vector aleato-
rio con distribuci´n conjunta normal de media µ ∈ Rn+1 , y matriz de varian-
                   o
zas y covarianzas V , de dimensi´n (n + 1) × (n + 1) . Calculemos su correspon-
                                 o
diente restricci´n en el determinista equivalente (para restricciones de azar sepa-
                o
                           T                            T
radas). P          | tT x ≥ h = P tT , h | xT t − h ≥ 0 = P (η | η(x) ≥ 0) ,
                 tT , h
          ˜         ˜ ˜
en donde η (x) = xT t − h. La variable aleatoria η es normal (unidimensional),
                                                 ˜
por ser combinaci´n lineal de variables conjuntamente normales. Su media es
                 o
             n
mη (x) =
 ˜                µj xj − µn+1 , y su varianza es ση (x) = z(x)T V z(x), donde z(x) =
                                                   2
                                                   ˜
            j=1



Rect@                                                                   Monogr´fico 2 (2004)
                                                                              a
12                                                          Programaci´n Estoc´stica
                                                                       o       a

                      T
(x1 , x2 , ..., xn , −1) .

                                       η (x) − mη (x)
                                       ˜          ˜      −mη (x)
                                                             ˜
          P (˜ (x) ≥ 0) ≥ pi ⇐⇒ P
             η                                         ≥          ≥ pi . ⇐⇒
                                            ση (x)
                                             ˜            ση (x)
                                                           ˜
                    η (x) − mη (x)
                    ˜          ˜     −mη (x)
                                         ˜                       −mη (x)
                                                                     ˜
          1−P                      <             ≥ pi ⇐⇒ 1 − Φ             ≥ pi ,
                         ση (x)
                          ˜           ση (x)
                                       ˜                          ση (x)
                                                                   ˜

donde Φ es la funci´n de distribuci´n de la normal de media cero y varianza 1.
                   o                o
   Por tanto, la restricci´n de azar correspondiente queda como:
                          o
                         −mη (x)
                             ˜                 −mη (x)
                                                   ˜
                1−Φ                ≥ pi ⇐⇒ Φ               ≤ 1 − pi ⇐⇒
                          ση (x)
                           ˜                    ση (x)
                                                 ˜
                 −mη (x)
                          ≤ Φ−1 (1 − pi ) ⇐⇒ −Φ−1 (1 − pi ) ση (x) − mη (x) ≤ 0.
                     ˜
        ⇐⇒                                                   ˜        ˜
                  ση (x)
                   ˜

  El conjunto de los x ∈ Rn que verifican esa condici´n es convexo si y s´lo si
                                                          o             o
  −1
Φ (1 − pi ) ≤ 0, lo cual se verifica si y s´lo si pi ≥ 0, 5.
                                          o
   Pueden encontrarse m´s ejemplos en [14], [27], [28], [30], [33], [35]. En [26] se
                         a
presenta una aplicaci´n muy interesante.
                     o


4      Funci´n objetivo aleatoria
            o
   Consideremos el siguiente problema estoc´stico, en el que todas las restriccio-
                                             a
nes son determin´
                ısticas y la funci´n objetivo es aleatoria.
                                  o

                                  m´
                                   ın                  ˜
                                                g0 (x, ξ),
                                                ˜
                                    x                                           (1.11)
                                  sujetoa : x ∈ X

    El conjunto factible X ⊂ Rn est´ compuesto por restricciones determin´
                                    a                                       ısticas,
bien porque lo sean de manera natural, bien porque se haya obtenido el determi-
nista equivalente utilizando el m´todo de restricciones de azar.
                                 e
    Se trata de transformar el objetivo estoc´stico en su determinista equivalente.
                                             a
Ello puede hacerse utilizando distintos criterios, que vamos a ver a continuaci´n,
                                                                                 o
siguiendo el enfoque de los trabajos [6] y [27].

4.1     Algunos conceptos de soluci´n
                                   o

a) Criterio del valor esperado.
                                      ˜      ˜
   Se convierte la variable aleatoria g0 (x, ξ) en una funci´n determin´
                                                            o          ıstica to-
mando la esperanza matem´tica
                           a
                                                 ˜
                                        E[˜0 (x, ξ)].
                                          g


Rect@                                                            Monogr´fico 2 (2004)
                                                                       a
E. Cerd´, J. Moreno
        a                                                                          13

   El determinista equivalente del problema estoc´stico (1.11) ser´
                                                 a                a

                               m´
                                ın                  ˜
                                           E[˜0 (x, ξ)],
                                             g
                                x                                               (1.12)
                               sujeto a : x ∈ X

    Para resolver el problema de programaci´n estoc´stica siguiendo este criterio,
                                              o       a
basta con conocer el valor esperado de la funci´n objetivo estoc´stica y, por tanto,
                                                o                a
es aplicable a´n en el caso en el que se desconozca la distribuci´n de probabilidad
              u                                                  o
                                ˜
de la variable aleatoria g0 (x, ξ).
                         ˜
   En [29] se se˜ala que para que este criterio sea considerado apropiado se deben
                n
cumplir dos condiciones:

  1) El sistema debe repetir su realizaci´n de manera independiente un gran
                                         o
     n´mero de veces, para asegurar que la media de los resultados sea bastante
      u
     pr´xima al valor esperado.
       o

  2) La magnitud de la variaci´n del resultado no debe ser grande. En otro caso
                              o
     nuestra pol´
                ıtica optima puede llevar al sistema a la bancarrota antes de que
                      ´
     la deseada media a largo plazo pueda ser alcanzada.

    En muchas situaciones pr´cticas estas condiciones no se cumplen y, por tanto,
                             a
este criterio no deber´ ser utilizado en tales casos.
                      ıa

                ınima varianza.
b) Criterio de m´
                                         ˜     ˜
    Se convierte la variable aleatoria g0 (x, ξ) en una funci´n determin´
                                                                o            ıstica to-
mando su varianza: V ar[˜0 (x, ξ)]
                           g      ˜ = E[(˜0 (x, ξ))2 ] − {E[˜0 (x, ξ)]}2 .
                                           g     ˜          g      ˜
    La utilizaci´n de este criterio da lugar a la elecci´n de aquel vector x para
                 o                                        o
                              ˜      ˜
el que la variable aleatoria g0 (x, ξ) est´ m´s concentrada alrededor de su valor
                                          a a
esperado, de manera que el determinista equivalente seg´n el criterio de m´
                                                            u                    ınima
varianza puede interpretarse como una medida de error cuadr´tico.   a
    El criterio de optimizaci´n es el de m´
                             o              ınima varianza tanto si se trata de mini-
mizar la funci´n objetivo (como estamos suponiendo en este trabajo) como si se
                o
trata de maximizarlo.
    Para poder utilizar este criterio es suficiente con que se conozca la varianza
                         ˜      ˜
de la variable aleatoria g0 (x, ξ). No hace falta que se conozca su distribuci´n de
                                                                                 o
probabilidad.
    El determinista equivalente del problema estoc´stico (1.11), seg´n el criterio
                                                       a                   u
de m´ınima varianza ser´a

                              m´
                               ın                     ˜
                                          V ar[˜0 (x, ξ)]
                                               g
                               x                                                (1.13)
                              sujeto a : x ∈ X



Rect@                                                         Monogr´fico 2 (2004)
                                                                    a
14                                                        Programaci´n Estoc´stica
                                                                     o       a

c) Criterio de eficiencia valor esperado desviaci´n est´ndar.
                                                o     a
    Este concepto de eficiencia fue introducido por Markowitz en 1952 para resol-
ver problemas de selecci´n de carteras en el campo de las finanzas. V´ase [22] y
                         o                                               e
tambi´n [23] y [24].
      e
                              ıtica x0 que sea eficiente en el sentido de Markowitz.
    Se trata de elegir una pol´
Expliquemos su significado:
                          ˜                          ˜
    Sean µ (x) = E[˜0 (x, ξ)], σ 2 (x) = V ar[˜0 (x, ξ)].
                     g                        g
    Se tiene que verificar que no existe ning´n x ∈ X para el cual se tenga que
                                              u
µ(x) = µ(x0 ) y σ(x) < σ(x0 ), o bien σ(x) = σ(x0 ) y µ(x) < µ(x0 ).
    El conjunto de puntos eficientes normalmente tiene infinitos elementos. Por
tanto, normalmente este criterio no especifica un unico punto como soluci´n
                                                          ´                     o
o
´ptima. Si se quiere llegar a “una“ soluci´n optima habr´ que a˜adir otras con-
                                            o ´             a       n
sidereciones al conjunto obtenido de puntos eficientes.
    El c´lculo de soluciones eficientes valor esperado desviaci´n est´ndar se tra-
        a                                                        o     a
duce en el c´lculo de soluciones eficientes del siguiente problema biobjetivo de-
             a
terminista equivalente:

                     m´
                      ın                     ˜                ˜
                                    E[˜0 (x, ξ)], V ar[˜0 (x, ξ)] ,
                                      g                g
                      x                                                        (1.14)
                     sujeto a : x ∈ X

d) Criterio de m´
                ınimo riesgo.
    Este criterio fue introducido por Bereanu [3] con el nombre de criterio de
m´ınimo riesgo y por Charnes y Cooper [9] con el nombre de P-modelo.
    Se trata de maximizar la probabilidad de que la funci´n objetivo sea menor
                                                          o
o igual que cierto valor previamente establecido. Por tanto, para resolver el
problema hay que fijar un nivel para la funci´n objetivo estoc´stica, λ ∈ R,
                                                o                 a
al que se denomina nivel de aspiraci´n, y maximizar la probabilidad de que el
                                       o
                                                   ˜
objetivo sea menor o igual que ese nivel: P g0 (x, ξ) ≤ λ .
                                              ˜
    La idea del nivel de aspiraci´n es que “como mucho el valor objetivo sea λ”.
                                 o
    El determinista equivalente del problema estoc´stico (1.11), seg´n el criterio
                                                   a                u
de m´ınimo riesgo ser´a

                           m´x
                            a             ˜      ˜
                                        P g0 (x, ξ) ≤ λ ,
                            x                                                  (1.15)
                           sujeto a : x ∈ X

                           a    ˜      ˜         a         g     ˜
   Teniendo en cuenta que m´x P g0 (x, ξ) ≤ λ = m´x 1 − P {˜0 x, ξ > λ} =
                                x                          x
     ın  ˜      ˜
1 − m´ P g0 (x, ξ) > λ , el problema (1.15) es equivalente a
      x


                           m´
                            ın                   ˜
                                        P g0 (x, ξ) > λ ,
                                          ˜
                            x
                           sujeto a : x ∈ X,


Rect@                                                           Monogr´fico 2 (2004)
                                                                      a
E. Cerd´, J. Moreno
        a                                                                                 15

y el problema puede interpretarse como la minimizaci´n del riesgo de que la
                                                          o
funci´n objetivo sobrepase el nivel de aspiraci´n λ.
     o                                         o
   Si el problema a resolver consistiera en maximizar la funci´n objetivo (en lugar
                                                              o
de minimizar como estamos considerando), es decir, si el problema original fuera

                                     m´x
                                      a                      ˜
                                                      g0 (x, ξ),
                                                      ˜
                                          x
                                     sujeto a : x ∈ X
el problema de m´
                ınimo riesgo determinista equivalente ser´
                                                         ıa

                              m´x
                               a                    ˜      ˜
                                                  P g0 (x, ξ) ≥ λ ,
                                x
                              sujeto a : x ∈ X
   En este caso la idea del nivel de aspiraci´n es que “el valor objetivo al menos
                                             o
sea λ”.
e) Criterio de Kataoka o criterio β−fractil
   El criterio fue introducido por Kataoka [20].
   Se comienza fijando por el decisor una probabilidad β ∈ (0, 1) para la funci´n
                                                                              o
objetivo y se determina el menor nivel que puede alcanzar la funci´n objetivo
                                                                    o
con esa probabilidad. En concreto, el determinista equivalente del problema es-
toc´stico (1.11), seg´n el criterio de Kataoka1 ser´:
   a                 u                             a

                            m´
                             ın               λ
                           (xT ,λ)
                                              ˜
                           sujeto a : P g0 x, ξ ≤ λ = β,
                                        ˜
                                      x∈X

Si el problema a resolver consistiera en maximizar la funci´n objetivo (en lugar
                                                           o
de minimizar como estamos considerando), es decir, si el problema original fuera

                                     m´
                                      ın                   ˜
                                                     g0 x, ξ ,
                                                     ˜
                                      x
                                     sujeto a : x ∈ X
el problema de Kataoka determinista equivalente ser´
                                                   ıa
                            m´
                             ın               λ
                           (xT ,λ)
                                              ˜
                           sujeto a : P g0 x, ξ ≥ λ = β,
                                        ˜
                                      x∈X
   1 En trabajos posteriores al de Kataoka otros autores como Stancu-Minasian [33] plantean el

problema con restricci´n probabil´
                        o                                      ˜     ˜
                                    ıstica de desigualdad: P g0 x, ξ ≤ λ ≥ β. Se demuestra
                                   ˜
que si la variable aleatoria g0 x, ξ es continua el resultado del problema es el mismo en ambos
                             ˜
casos.


Rect@                                                                 Monogr´fico 2 (2004)
                                                                            a
16                                                     Programaci´n Estoc´stica
                                                                  o       a




   Comparando los tres primeros criterios con los dos ultimos (que se llaman de
                                                      ´
m´xima probabilidad) aparecen algunas diferencias:
 a

   • En el criterio de m´
                        ınimo riesgo se fija el nivel de aspiraci´n y en el criterio
                                                                o
     de Kataoka se fija la probabilidad, luego ambos dependen de los valores que
     se asignen a estos par´metros, mientras que en los tres primeros casos no
                           a
     hay que fijar ning´n par´metro.
                       u     a
   • En los criterios valor esperado, m´
                                       ınima varianza y eficiencia valor esperado
     desviaci´n est´ndar s´lo necesita conocerse la esperanza t/o la varianza ,
             o      a       o
     no haciendo falta la distribuci´n de probabilidad.
                                    o

    La elecci´n de un criterio u otro deber´ realizarse en base a las caracter´
              o                            a                                  ısticas
del rpoblema y a las preferencias del decisor. De todas formas, los cinco cri-
terios est´n relacionados entre s´ dado que cada uno de ellos utiliza diferentes
           a                       ı,
caracter´ısticas de la funci´n objetivo.
                            o

4.2     Relaciones entre las soluciones seg´n los distintos cri-
                                           u
        terios
     En [6] se obtienen algunos resultados para problemas estoc´sticos como (1.11)
                                                               a
que cumplen algunas condiciones adicionales. Veamos algunos de dichos resulta-
dos.
     Consideremos el problema estoc´stico (1.11) en el que suponemos ahora que
                                      a
el conjunto de soluciones factibles X ⊂ Rn es no vac´ cerrado, acotado y con-
                                                       ıo,
                                   ˜
vexo. Suponemos tambi´n que ξ es un vector aleatorio definido sobre un con-
                           e
junto E ⊂ Rs cuyas componentes son variables aleatorias continuas y cuya distri-
buci´n de probabilidad es independiente de las variables de decisi´n del problema
      o                                                           o
x1 , x2 , ..., xn .
     Las demostraciones de todas las proposiciones que presentamos a continuaci´n
                                                                                o
se encuentran en [6].
Proposici´n 4.1 Se considera el problema estoc´stico (1.11) con las hip´tesis
            o                                       a                        o
adicionales introducidas en este subapartado.
    a) Si la soluci´n ´ptima del problema seg´n el criterio del valor esperado es
                    o o                         u
unica, entonces es una soluci´n eficiente valor esperado desviaci´n est´ndar. Si
´                               o                                   o     a
no es unica s´lo se puede asegurar que las soluciones optimas valor esperado
       ´        o                                           ´
son soluciones d´bilmente eficientes valor esperado desviaci´n est´ndar, pero no
                  e                                            o     a
tienen por qu´ ser eficientes valor esperado desviaci´n est´ndar.
               e                                      o      a
    b) Si la varianza de la funci´n objetivo es una funci´n estrictamente convexa,
                                  o                      o
el problema de varianza m´  ınima tiene soluci´n unica que es una soluci´n eficiente
                                              o ´                       o
valor esperado desviaci´n est´ndar. Si no es unica s´lo se puede asegurar que las
                        o      a               ´      o


Rect@                                                        Monogr´fico 2 (2004)
                                                                   a
E. Cerd´, J. Moreno
        a                                                                       17

soluciones optimas de m´
           ´            ınima varianza son soluciones d´bilmente eficientes valor
                                                        e
esperado desviaci´n est´ndar, pero no tienen por qu´ ser eficientes valor esperado
                 o     a                           e
desviaci´n est´ndar.
        o     a
    La siguiente proposici´n establece relaci´n entre las soluciones ´ptimas seg´n
                          o                  o                       o          u
los criterios de m´
                  ınimo riesgo y de Kataoka.
Proposici´n 4.2 Se considera el problema estoc´stico (1.11) con las hip´tesis
            o                                          a                       o
adicionales introducidas en este subapartado.         Supongamos que la funci´n de
                                                                               o
          o                           ˜      ˜
distribuci´n de la variable aleatoria g0 (x, ξ) es estrictamente creciente. Entonces
x∗ es la soluci´n de m´
                o         ınimo riesgo para el nivel de aspiraci´n λ∗ si y s´lo si
                                                                  o            o
   ∗T   ∗ T                                                 ∗      ∗    ∗
 x ,λ       es la soluci´n de Kataoka con probabilidad β , con λ y β verificando
                        o
          ˜ ≤ λ∗ = β ∗ .
P g0 (x, ξ)
    ˜

   A la vista de la proposici´n anterior se puede asegurar que en las condiciones
                             o
que estamos considerando en este subapartado:

   • Para cada nivel de aspiraci´n λ, la soluci´n de m´
                                o              o      ınimo riesgo es tambi´n la
                                                                           e
     soluci´n de Kataoka con una probabilidad β igual a la m´xima probabilidad
           o                                                a
     obtenida en el problema de m´ ınimo riesgo.

   • Para cada valor β fijado, la soluci´n de Kataoka es tambi´n soluci´n de
                                          o                         e        o
     m´ınimo riesgo para un nivel de aspiraci´n igual al valor optimo del problema
                                             o                 ´
     de Kataoka.


    En [6] se establecen tambi´n relaciones entre soluciones de Kataoka y solucio-
                              e
nes eficientes valor esperado desviaci´n est´ndar para algunos tipos de programas
                                     o     a
estoc´sticos lineales.
     a

4.3     Ejemplo
    Como ejemplo vamos a considerar el caso de funci´n objetivo lineal con dis-
                                                    o
tribuci´n de probabilidad normal.
       o
    Sea el programa estoc´stico lineal
                         a

                                m´
                                 ın         ˜
                                            ξ T x,
                                  x                                          (1.16)
                                sujeto a : x ∈ X

    El conjunto factible X ⊂ Rn est´ compuesto por restricciones determin´
                                   a                                      ısticas,
bien porque lo sean de manera natural, bien porque se haya obtenido el determi-
nista equivalente utilizando el m´todo de restricciones de azar. Se supone que el
                                 e
                  ˜
vector aleatorio ξ sigue una distribuci´n de probabilidad normal multivariante,
                                       o
                    ¯
con valor esperado ξ y matriz de varianzas y covarianzas S definida positiva.


Rect@                                                       Monogr´fico 2 (2004)
                                                                  a
18                                                       Programaci´n Estoc´stica
                                                                    o       a

                                               ˜
    En estas condiciones la variable aleatoria ξ T x es normal con valor esperado
                                                ˜T     ¯
¯T x y varianza xT Sx. Por tanto se tiene que ξ√x−ξT x es una variable aleatoria
ξ
                                                    xT Sx
N (0, 1) (normal con valor esperado 0 y desviaci´n t´
                                                 o ıpica 1).
    A continuaci´n se calcula el determinista equivalente del programa estoc´stico
                o                                                           a
(1.16) para cada uno de los criterios considerados en este apartado.
   a) Criterio del valor esperado

                                      ın
                                     m´         ¯
                                                ξ T x,
                                      x
                                     sujeto a : x ∈ X
   b) Criterio de m´
                   ınima varianza

                                     m´
                                      ın        xT Sx,
                                      x
                                     sujeto a : x ∈ X

   c) Criterio de eficiencia valor esperado desviaci´n est´ndar
                                                   o     a
                                                    √
                           m´
                            ın              ¯
                                            ξ T x, . xT Sx ,
                             x
                           sujeto a : x ∈ X
   d) Criterio de m´
                   ınimo riesgo de nivel λ

                            m´x
                             a                ˜
                                            P ξT x ≤ λ ,
                                 x                                            (1.17)
                            sujeto a : x ∈ X
   Pero
                            ˜      ¯
                            ξT x − ξT x       ¯
                                          λ − ξT x                 ¯
                                                               λ − ξT x
        ˜
      P ξT x ≤ λ = P          √         ≤ √               =Φ   √          ,   (1.18)
                                xT Sx       xT Sx                xT Sx

donde Φ es la funci´n de distribuci´n de la N (0, 1), que es estrictamente creciente,
                   o               o
                                                 ¯
                                            λ − ξT x                     ¯
                                                                     λ − ξT x
por lo que m´x P ξ T x ≤ λ = m´x Φ √
              a      ˜               a                  = Φ m´x √ a            , y el
             x                       x        xT Sx               x    xT Sx
problema (1.17) es equivalente a
                                                   ¯
                                               λ − ξT x
                                     m´x
                                      a        √
                                       x         xT Sx                        (1.19)
                                     sujeto a : x ∈ X.

   Una vez resuelto este problema, la probabilidad m´xima para la que se puede
                                                    a
asegurar que la funci´n objetivo estoc´stica es menor o igual que el nivel de
                      o                a
                                    ¯
                               λ − ξT x
aspiraci´n fijado λ, es: Φ m´x √
        o                   a             .
                            x    xT Sx

Rect@                                                          Monogr´fico 2 (2004)
                                                                     a
E. Cerd´, J. Moreno
        a                                                                  19

    e) Criterio de Kataoka o criterio β−fractil

                         m´
                          ın              λ
                        (xT ,λ)
                                     ˜
                        sujeto a : P ξ T x ≤ λ = β,
                                   x∈X

  Teniendo en cuenta (1.18), y que la funci´n de distribuci´n Φ es estricta-
                                              o               o
                                     ¯
                                 λ−ξ T x               ¯
                                                    λ−ξ T x
mente creciente, se tiene que Φ √ T       = β ⇐⇒ √ T        = Φ−1 (β) ⇐⇒ λ =
       √                           x Sx               x Sx
Φ−1 (β) xT Sx + ξ T x, por lo que el problema (4.11) se puede expresar:
                  ¯

                       m´
                        ın        λ
                     (xT ,λ)
                                         √
                     sujeto a λ = Φ−1 (β) xT Sx + ξ T x,
                                                  ¯
                              x∈X
y este problema es equivalente al problema con n variables de decisi´n:
                                                                    o
                                          √
                       m´
                        ın         Φ−1 (β) xT Sx + ξ T x,
                                                    ¯
                         x
                       sujeto a : x ∈ X.
   Este problema es convexo para β ≥ 0, 5. Una vez resuelto este problema, el
menor nivel λ para el que podemos afirmar que la funci´n objetivo no supera ese
                                          √          o
                                    −1               ¯
                                             T Sx + ξ T x.
nivel con probabilidad β es λ = m´ Φ (β) x
                                 ın
                                      x


5    Bibliograf´
               ıa
     ´
 [1] Alvarez, F., Cerd´, E. “A Solution Method for a Class of Learning by Doing
                      a
     Models with Multiplicative Uncertainty“. Top, 7, 1, 1-23, 1999.
 [2] Beale, E.M.L., “On Minimizing a Convex Function Subject to Linear Ine-
     qualities“. Journal of the Royal Statistical Society, B 17, 173-184, 1955.
 [3] Bereanu, B. “Programme de Risque Minimal en Programmation Lin´aire
                                                                  e
     Stochastique“. C. R. Acad. Sci. Paris, 259, 981-983, 1964.
 [4] Bereanu, B. The Generalized Distribution Problem of Stochastic Linear Pro-
     gramming. Symposia Matematica. Academic Press, 1976.
 [5] Birge, J.R., Louveaux, F.V. Introduction to Stochastic Programming. Sprin-
     ger, 1997.
 [6] Caballero, R., Cerd´, E., Mu˜oz, M.M., Rey, L. “Analysis and Comparisons
                        a        n
     of Some Solution Concepts for Stochastic Programming Problems“. Top,
     10(1), 101-124, 2002.


Rect@                                                    Monogr´fico 2 (2004)
                                                               a
20                                                  Programaci´n Estoc´stica
                                                               o       a

 [7] Charnes, A., Cooper, W.W. “Chance-Constrained Programming“. Manage-
     ment Science, 5, 73-79, 1959.
 [8] Charnes, A., Cooper, W.W., Symonds, G.H. “Cost Horizons and Certainty
     Equivalents: An Approach to Stochastic Programming of Heating Oil“. Ma-
     nagement Science, 4, 235-263, 1958.
 [9] Charnes, A., Cooper, W.W. “Deterministic Equivalents for Optimizing and
     Satisfying under Chance Constraints“. Operations Research, 11, 1, 18-39,
     1963.
[10] Dantzig, G.B. “Linear Programming under Uncertainty“. Management
     Science, 1, 197-206, 1955.
[11] Dantzig, G.B. “Planning under Uncertainty“. Annals of Operations Research,
     85, 1999.
[12] Dempster, M.A.H. Stochastic Programming. Academic Press, 1980.
[13] Diwelar, U. “Optimization under Uncertainty: An Overview“. SIAG/OPT
     Views -and-News, 13,11-8, 2002
[14] Goicoechea, A., Hansen, D.R., Duckstein, L. Multiobjective Decision Analy-
     sis with Engineering and Business Applications. John Wiley and Sons, 1982.
[15] Hammer, P.L. Stochastic Programming. State Of The Art, 1998. Annals of
     Operations Research, Vol 85, 1999.
[16] Higle, J.L., Sen, S. Stochastic Decomposition. Kluwer Academic Publishers,
     1996.
[17] Kall, P. Stochastic Linear Programming. Springer-Verlag, 1976.
[18] Kall, P. “Stochastic Programming“. European Journal of Operational Re-
     search, 10, 125-130, 1982.
[19] Kall, P., Wallace, S.W. Stochastic Programming. John Wiley, 1994.
[20] Kataoka, S. “A Stochastic Programming Model“. Econometrica, 31, 1-2,
     186-196, 1963.
[21] Kibzun, A.I., Kan, I.S. Stochastic Programming Problems with Probability
     and Quantile Functions. John Wiley, 1996.
[22] Markowitz, H. “Portfolio Selection“. The Journal of Finance, 7, 77-91, 1952.
[23] Markowitz, H. Portfolio Selection: Efficient Diversification of Investment.
     Cowles Commission Monograph 16, John Wiley and Sons, 1959.


Rect@                                                     Monogr´fico 2 (2004)
                                                                a
E. Cerd´, J. Moreno
        a                                                                    21

[24] Markowitz, H. Mean Variance Analysis in Portfolio Choice and Capital Mar-
     kets. Blackwell, 1987.

[25] Marti K. (ed). Stochastic Optimization. Numerical Methods and Technical
     Applications. Lecture Notes in Economics and Mathematical Systems 379.
     Springer-Verlag, 1992.

[26] Medova, E. “Chance Constrained Stochastic Programming for Integrated
     Services Network Management“. Annals of Operations Research, 81,213-
     229,1998.

[27] Mu˜oz M.M. Programaci´n Estoc´stica: Algunas Aportaciones Te´ricas
        n                    o       a                              o
     y Computacionales. Tesis Doctoral. Universidad Complutense de Madrid,
     1998.

[28] Prawda, J. M´todos y Modelos de Investigaci´n de Operaciones. Vol. 2. Mo-
                  e                             o
     delos Estoc´sticos. Ed. Limusa, 1980.
                a

[29] Prekopa, A. Stochastic Programming. Kluwer Academic Publishers, 1995.
[30] R´ Insua, S. Investigaci´n Operativa. Optimizaci´n. Editorial Centro de
      ıos                    o                       o
     Estudios Ram´n Areces, S.A. Segunda Edici´n, 1993.
                 o                            o

[31] Ruszczynski, A., Shapiro, A. (ed). Stochastic Programming. Handbooks in
     Operations Research and Management Science, Vol 10. Norh-Holland, 2003.

[32] Sen, S., Higle, J.L. “An Introductory Tutorial on Stochastic Linear Program-
     ming Models“. Interfaces, 29:2, 33-61, 1999.
[33] Stancu-Minasian, I.M. Stochastic Programming with Multiple Objective
     Functions. D. Reidel Publishing Company, 1984.

[34] Stancu-Minasian, I.M., Wets, M.J. “A Research Bibliography in Stochastic
     Programming 1955-1975“. Operations Research, 24, 1078-1119, 1976.

[35] Vajda, S. Probabilistic Programming. Academic Press, 1972.

[36] Wets, R.J.B. “Stochastic Programming“. En NEmhauser, G.L., Rinnooy
     Kan, A.H.G., Todd, M.J. (ed). Optimization. Vol. 1 North-Holland, 1989.




Rect@                                                     Monogr´fico 2 (2004)
                                                                a

Más contenido relacionado

La actualidad más candente

Matematica i silabo_2012_-_i (1)
Matematica i silabo_2012_-_i (1)Matematica i silabo_2012_-_i (1)
Matematica i silabo_2012_-_i (1)Pedro Nuñez
 
Optimizacion Osvelis Ruiz
Optimizacion Osvelis RuizOptimizacion Osvelis Ruiz
Optimizacion Osvelis RuizOsvelis Ruiz
 
Problemario analisis vectorial
Problemario analisis vectorial Problemario analisis vectorial
Problemario analisis vectorial Oscar Sanchez
 
RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...
RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...
RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...Fernandoss2
 
G:\Taller Nº 3
G:\Taller Nº 3G:\Taller Nº 3
G:\Taller Nº 3kvmozita83
 
Inteligencia Artificial - Inversiones
Inteligencia Artificial - InversionesInteligencia Artificial - Inversiones
Inteligencia Artificial - InversionesDaniel Muccela
 

La actualidad más candente (11)

Matematica i silabo_2012_-_i (1)
Matematica i silabo_2012_-_i (1)Matematica i silabo_2012_-_i (1)
Matematica i silabo_2012_-_i (1)
 
Optimizacion Diusty Mijares
Optimizacion Diusty MijaresOptimizacion Diusty Mijares
Optimizacion Diusty Mijares
 
Optimizacion Osvelis Ruiz
Optimizacion Osvelis RuizOptimizacion Osvelis Ruiz
Optimizacion Osvelis Ruiz
 
Dualidad
DualidadDualidad
Dualidad
 
Problemario analisis vectorial
Problemario analisis vectorial Problemario analisis vectorial
Problemario analisis vectorial
 
RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...
RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...
RESOLUCIÓN EXACTA DEL MODELO DEL MÁXIMO PROMEDIO PARA EL PROBLEMA DE LA DISPE...
 
G:\Taller Nº 3
G:\Taller Nº 3G:\Taller Nº 3
G:\Taller Nº 3
 
Inteligencia Artificial - Inversiones
Inteligencia Artificial - InversionesInteligencia Artificial - Inversiones
Inteligencia Artificial - Inversiones
 
Prototipo integralisto
Prototipo integralistoPrototipo integralisto
Prototipo integralisto
 
UNIDAD EN CURSO
UNIDAD EN CURSOUNIDAD EN CURSO
UNIDAD EN CURSO
 
Programacion practica prolog
Programacion practica prologProgramacion practica prolog
Programacion practica prolog
 

Similar a Estocastica

Similar a Estocastica (9)

Sudoku
SudokuSudoku
Sudoku
 
Tema 8
Tema 8Tema 8
Tema 8
 
Programación dinámica
Programación dinámicaProgramación dinámica
Programación dinámica
 
Optimizacion_Robusta_I
Optimizacion_Robusta_IOptimizacion_Robusta_I
Optimizacion_Robusta_I
 
Practica2
Practica2Practica2
Practica2
 
TÓPICOS DE MATLAB: APLICACIÓN A LOS MÉTODOS NUMÉRICOS.
TÓPICOS DE MATLAB: APLICACIÓN A LOS MÉTODOS NUMÉRICOS.TÓPICOS DE MATLAB: APLICACIÓN A LOS MÉTODOS NUMÉRICOS.
TÓPICOS DE MATLAB: APLICACIÓN A LOS MÉTODOS NUMÉRICOS.
 
Sesion R
Sesion RSesion R
Sesion R
 
Determinaciondeldiametro
DeterminaciondeldiametroDeterminaciondeldiametro
Determinaciondeldiametro
 
Ocwpl dualidad
Ocwpl dualidadOcwpl dualidad
Ocwpl dualidad
 

Estocastica

  • 1. Programaci´n Estoc´stica o a E. Cerd´a , J. Morenob a a Departamento An´lisis Econ´mico. UCM. a o b Departamento de Estad´ ıstica. UCM. 1 Introducci´n o Tal como su nombre indica, la Programaci´n Estoc´stica trata problemas de Pro- o a gramaci´n Matem´tica en cuya formulaci´n aparece alg´n elemento estoc´stico. o a o u a Por tanto, mientras que en un problema determin´ ıstico de Programaci´n Ma- o tem´tica, ya sea de Programaci´n Lineal, Programaci´n No Lineal, Programaci´n a o o o Entera, Programaci´n Mixta Lineal Entera o Programaci´n Mixta No Lineal En- o o tera, todos los datos (coeficientes) que aparecen en su formulaci´n son n´meros o u conocidos, en Programaci´n Estoc´stica dichos datos (o al menos alguno de ellos) o a son desconocidos, aunque para ellos se conoce o se puede estimar su distribuci´n o de probabilidad. Para precisar m´s, veamos las dos definiciones que propone a Prekopa [29]: Primera definici´n: “Programaci´n Estoc´stica es la ciencia que ofrece solu- o o a ciones para problemas formulados en conexi´n con sistemas estoc´sticos, en los o a que el problema num´rico resultante a resolver es un problema de Programaci´n e o Matem´tica de tama˜o no trivial“. a n Segunda definici´n: “La Programaci´n Estoc´stica trata problemas de Progra- o o a maci´n Matem´tica en los que algunos de los par´metros son variables aleatorias, o a a bien estudiando las propiedades estad´ ısticas del valor optimo aleatorio o de otras ´ variables aleatorias presentes en el problema o bien reformulando el problema en otro de decisi´n en el que se tiene en cuenta la distribuci´n de probabilidad o o conjunta de los par´metros aleatorios“. a Los problemas resultantes de ambas definiciones son llamados problemas de Programaci´n Estoc´stica. o a Rect@ Monogr´fico 2 (2004) a
  • 2. 4 Programaci´n Estoc´stica o a La aleatoriedad en coeficientes en unos casos se deber´ a la falta de fiabilidad a en los datos recogidos, en otros casos a errores de medida, en otros a eventos futuros a´n no conocidos, etc. u Tal como indica Dantzig [11], la Programaci´n Estoc´stica comenz´ en 1955 o a o con los trabajos de Dantzig [10] y Beale [2]. y ya en la misma d´cada alcanz´ e o con Markowitz [23] una aplicaci´n muy destacada al problema de selecci´n de o o carteras que le llevar´ a la consecuci´n del Premio N´bel. En [34] se recogen ıa o o unas 800 referencias sobre trabajos publicados entre 1955 y 1975, clasificadas en funci´n de su contenido. o En 1974 se celebr´ en Oxford (Inglaterra) la primera conferencia internacio- o nal en Programaci´n Estoc´stica, organizada por Michael Dempster. En 1981 o a se celebr´ en K¨szeg (Hungr´ la segunda conferencia, organizada por Andra o o ıa) Prekopa. En dicho encuentro se puso en marcha el Committee on Stochastic Pro- gramming (COSP), como una rama de la Mathematical Programming Society. Dicho comit´ ha sido el responsable de organizar los sucesivas conferencias que e se han ido celebrando. La novena conferencia internacional se celebr´ en Berl´ o ın (Alemania) en 2001 y la d´cima se celebrar´ los d´ 9 a 12 de Octubre de 2004 e a ıas en Tucson, Arizona (USA). El COSP ha puesto en funcionamiento la p´gina web http// stoprog.org en la a que se puede encontrar mucha informaci´n y documentaci´n sobre Programaci´n o o o Estoc´stica. a 2 Definiciones b´sicas a Se considera el siguiente problema de Programaci´n Estoc´stica: o a ˜ m´ g0 x, ξ , ın ˜ x sujeto a : (1.1) ˜ gi x, ξ ≤ 0, i = 1, 2, ..., m, ˜ x ∈ D, ˜ donde el conjunto D ⊂ Rn , ξ es un vector aleatorio definido sobre un conjunto E ⊂ R .Suponemos que est´n dados una familia de eventos F formada por s a , , subconjuntos de E y una distribuci´n de probabilidad P definida sobre F Por o . tanto, para cada A ⊂ E, es A ∈ F, y la probabilidad P (A) es conocida. Adem´s a suponemos que las funciones gi (x, ·) : E → R, ∀x, i son variables aleatorias y ˜ que la distribuci´n de probabilidad P es independiente del vector de variables de o decisi´n x. o Obs´rvese que en el problema formulado (PE) para cada realizaci´n ξ del vec- e o ˜ tor aleatorio ξ se tiene un problema determin´ ıstico. Un vector x ∈ D puede ser factible para una realizaci´n del vector aleatorio y no serlo para otra realizaci´n. o o Rect@ Monogr´fico 2 (2004) a
  • 3. E. Cerd´, J. Moreno a 5 ımismo puede ocurrir que para una realizaci´n ξ 1 sea g0 x1 , ξ 1 < g0 x2 , ξ 1 As´ o o 2 ˜ y en cambio para otra realizaci´n ξ del vector aleatorio ξ sea g0 x2 , ξ 2 < 1 2 g0 x , ξ . Un caso particular del problema (PE) es el siguiente problema de Progra- maci´n Lineal Estoc´stica: o a m´ ın ˜ cT ξ x, x sujeto a : Ax = b, (1.2) ˜ ˜ T ξ x≥h ξ , x ≥ 0, donde la matriz A y el vector b son determin´ ısticos. La matriz T (·) y los vectores ˜ c (·) y h (·) dependen del vector aleatorio ξ y por tanto son estoc´sticos. a Normalmente el problema estoc´stico se reemplaza por un problema deter- a min´ ıstico, que se llama determinista equivalente cuya soluci´n optima pasa a o ´ considerarse la soluci´n optima del problema estoc´stico. o ´ a Fundamentalmente existen dos tipos de modelos en Programaci´n Estoc´stica: o a • Modelos “esperar y ver” (“wait and see”) o modelos de programaci´m o estoc´stica pasiva, basados en la suposici´n de que el decisor es capaz de a o esperar a que se produzca la realizaci´n de las variables aleatorias y hacer o su decisi´n con informaci´n completa de dicha realizaci´n, con lo que el pro- o o o blema se convierte en determin´ ıstico y es posible encontrar el valor optimo ´ de las variables de decisi´n con las t´cnicas habituales de programaci´n o e o matem´tica determin´ a ıstica. En ocasiones puede tener inter´s el conocer e la distribuci´n de probabilidad del valor objetivo optimo o algunos de sus o ´ momentos (valor esperado o varianza) antes de conocer la realizaci´n de o sus variables aleatorias. Tales problemas se llaman problemas de distri- buci´n. Estos problemas se estudian en [4], [33], [29]. o • Modelos “aqu´ y ahora” (“here and now”) o modelos de programaci´n es- ı o toc´stica activa. En estos modelos el decisor toma la decisi´n sin el conoci- a o miento de la realizaci´n de las variables aleatorias, sin que por ello queden o afectadas las distribuciones de probabilidad de las mismas. En los siguientes apartados veremos diferentes enfoques para resolver el problema. 3 Programaci´n con restricciones probabil´ o ısticas Se considera el problema (1.1) en el que se supone que la funci´n objetivo no o contiene ninguna variable aleatoria: Rect@ Monogr´fico 2 (2004) a
  • 4. 6 Programaci´n Estoc´stica o a m´ ın g0 (x) , x ˜ ˜ sujeto a : gi x, ξ ≤ 0, i = 1, 2, ..., m, (1.3) x ∈ D, El m´todo de restricciones de azar (chance constrained) fue introducido e por Charnes, Cooper y Symonds en 1958. V´anse [7], [8]. La idea consiste e en transformar el problema dado en un determinista equivalente en el que se verifiquen las restricciones con, al menos, una determinada probabilidad fijada de antemano. Hay que distinguir dos casos seg´n se fije la probabidad para el u conjunto de las restricciones o para cada una de ellas por separado. Restricciones de azar conjuntas: Se considera el problema (3.1). Sea p ∈ [0, 1] dado. Se define el determinista equivalente: m´ ın g0 (x) , x ˜ ˜ ˜ ˜ ˜ ˜ sujeto a : P g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0 ≥ p, (1.4) x ∈ D. Para este problema, 1 − p es el riesgo admisible para el decisor de que la soluci´n del problema sea no factible. o En el caso particular de que para cada x ∈ D las variables aleatorias ˜ ˜ ˜ ˜ g1 (x, ξ), g2 (x, ξ), ..., gm (x, ξ) ˜ ˜ sean mutuamente estad´ ısticamente independientes, el problema equivalente de- terminista anterior se puede expresar de la siguiente forma. m´ ın g0 (x) x ˜ ˜ ˜ ˜ ˜ ˜ sujeto a : P g1 (x, ξ) ≤ 0 P g2 (x, ξ) ≤ 0 ...P gm (x, ξ) ≤ 0 ≥ p, (1.5) x ∈ D. Restricciones de azar separadas o individuales: Se considera el problema (1.3). Para cada restricci´n i ∈ {1, 2, ..., m} sea o pi ∈ [0, 1] dado. Se define el determinista equivalente: m´ ın g0 (x) , x ˜ ˜ sujeto a : P gi (x, ξ) ≤ 0 ≥ pi , para i = 1, 2, ..., m, (1.6) x ∈ D. Rect@ Monogr´fico 2 (2004) a
  • 5. E. Cerd´, J. Moreno a 7 La siguiente Proposici´n recoge la relaci´n entre los dos casos: o o Proposici´n 3.1. o Supongamos que x es una soluci´n factible del problema ˆ o m (1.6) para los valores p1 , p2 , ..., pm . Entonces para p = 1 − m + pi , se verifica i=1 que x es factible para el problema (1.4). ˆ Demostraci´n: Sea x soluci´n factible del problema (1.4). Ello quiere decir o ˆ o que se verifica: P (ξ | gi (ˆ, ξ) ≤ 0) ≥ pi , para todo i = 1, 2, ..., m. Definimos los x eventos Ai de la siguiente forma: Ai = {ξ | gi (ˆ, ξ) ≤ 0} , para i = 1, 2, ..., m. x Se verifica que P (Ai ) ≥ pi , P AC ≤ 1 − pi . Veamos que se verifica que i m P Ai ≥ p, i=1 lo cual quiere decir que x es factible para el problema (1.4). En efecto: ˆ Teniendo en cuenta la desigualdad de Boole: P Sk ≤ P (Sk ) , se tiene k k que   m m C m 1−P  =1−P C P Ai = Ai (Ai ) ≥ i=1 i=1 i=1 m m C ≥ 1− P (Ai ) ≥1− (1 − pi ) = p. i=1 i=1 Sean: q(x) = P (ξ | g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0) , qi (x) = P (ξ | gi (x, ξ) ≤ 0) , i = 1, 2, ..., m. El conjunto factible del problema (1.4) lo podemos representar de la siguiente forma: C(p) = {x ∈ D | q(x) ≥ p} . Sea: Ci (pi ) = {x ∈ D | qi (x) ≥ pi } , i ∈ {1, 2, ..., m} . El conjunto factible del Problema (1.6) lo podemos respresentar como m ˆ C (p1 , p2 , ..., pm ) = Ci (pi ) . i=1 ˆ Ser´ deseable que los conjuntos C(p) y C (p1 , p2 , ..., pm ), que son los conjuntos ıa de soluciones factibles de los deterministas equivalentes que estamos estudiando, fueran no vac´ cerrados y convexos. Las siguientes proposiciones tratan sobre ıos, dichas cuestiones. Rect@ Monogr´fico 2 (2004) a
  • 6. 8 Programaci´n Estoc´stica o a Proposici´n 3.2 Sea C(p) el conjunto de soluciones factibles del Problema (1.4). o En dicho conjunto se verifican las siguientes propiedades: 1) Si p1 ≤ p2 , entonces C(p1 ) ⊃ C(p2 ). 2) C(0) = D. 3) C(p) es no vac´ para todo p ∈ [0, 1] ⇐⇒ C(1) = ∅. ıo Demostraci´n:o 1) Sea p1 ≤ p2 . Si x ∈ C(p2 ), es q(x) = P (ξ | g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0) ≥ p2 ≥ p1 =⇒ x ∈ C(p1 ). 2) C(0) = {x ∈ D | q(x) ≥ 0} = D, ya que q(x) es una probabilidad y por tanto es mayor o igual que cero. 3) Si C(p) = ∅, ∀p ∈ [0, 1] =⇒ C(1) = ∅. Por otra parte, si C(1) = ∅ =⇒ ∀p ≤ 1, por 1) es C(p) ⊃ C(1) = ∅. ˆ Obs´rvese que si C(p) = ∅, ∀p ∈ [0, 1], entonces C (p1 , p2 , ..., pm ) = ∅, para e todo p1 , p2 , ..., pm en [0,1]. La siguiente proposici´n, cuya demostraci´n se encuentra en [17, ?] da condi- o o ciones que aseguran que los conjuntos que estamos considerando son cerrados. Proposici´n 3.3 Si las funciones gi : Rn × E → R son continuas, entonces los o ˆ conjuntos factibles C(p) y C (p1 , p2 , ..., pm ) son cerrados. A continuaci´n se aborda el problema de la convexidad de los conjuntos C(p) o ˆ y C (p1 , p2 , ..., pm ) . Estos conjuntos en general no son convexos. Veamos con- diciones en que s´ lo son. Las demostraciones de las proposiciones siguientes se ı encuentran en [17, ?]. V´ase tambi´n [29]. e e Definici´n 3.1 Una medida de probabilidad P : F → [0, 1] se dice que es cua- o sic´ncava si ∀S1 , S2 ∈ F , siendo S1 y S2 conjuntos convexos, y ∀λ ∈ [0, 1],se o verifica que P (λS1 + (1 − λ) S2 ) ≥ m´ {P (S1 ) , P (S2 )} . ın Definici´n 3.2 Una medida de probabilidad P : F → [0, 1] se dice que es log- o c´ncava si ∀S1 , S2 ∈ F , siendo S1 y S2 conjuntos convexos, y ∀λ ∈ [0, 1],se verifica o λ 1−λ que P (λS1 + (1 − λ) S2 ) ≥ [P (S1 )] [P (S2 )] . Las dos proposiciones siguientes dan condiciones para que una medida de probabilidad sea cuasi-c´ncava. o Proposici´n 3.3 Si P es una medida de probabilidad log-c´ncava en F , entonces o o P es cuasic´ncava. o Proposici´n 3.4 Sea P una medida de probabilidad en Rs , de tipo continuo con o funci´n de densidad asociada f. Entonces se verifica: o Rect@ Monogr´fico 2 (2004) a
  • 7. E. Cerd´, J. Moreno a 9 • P es log-c´ncava si y s´lo si el logaritmo de f es una funci´n c´ncava. o o o o • P es cuasi-c´ncava si y s´lo si f −1/s es convexa. o o La siguiente proposici´n da condiciones suficientes para que los conjuntos que o estamos estudiando sean convexos. Proposici´n 3.5 Si gi (·, ·) es conjuntamente convexa en (x, ξ), para cada i = o 1, 2, ..., m y P es cuasi-c´ncava , entonces C(p) es convexo para todo p ∈ [0, 1] y o ˆ C (p1 , p2 , ..., pm ) es convexo, ∀p1 , p2 , ..., pm en [0, 1]. Algunas medidas de probabilidad cuasi-c´ncavas son: La uniforme k−dimen- o sional, sobre un conjunto convexo S ⊂ Rk , la distribuci´n exponencial en R, la o normal multivariante en Rk , la distribuci´n de Dirichlet, la beta, la distribuci´n de o o Wishart, la gamma para ciertos valores del par´metro, la distribuci´n de Cauchy, a o la distribuci´n de Pareto para determinados valores etc. o El caso lineal: Se considera el problema lineal estoc´stico (1.2), en el cual se supone que la a funci´n objetivo no contiene ninguna variable aleatoria: o m´ ın cT x, x sujeto a : Ax = b, (1.7) ˜ ˜ T (ξ)x ≥ h(ξ), x ≥ 0, Para el Problema (1.7), dado el valor p ∈ [0, 1] , el programa determinista equi- valente correspondiente al m´todo de restricciones de azar tomadas en conjunto e ser´: a m´ ın cT x, x sujeto a : Ax = b, (1.8) ˜ ˜ P T (ξ)x ≥ h(ξ) ≥ p, x ≥ 0, Para el mismo Problema (1.7), dados los valores p1 , p2 , ..., pm , pertenecientes al intervalo [0, 1] , el programa determinista equivalente correspondiente al m´todo e de restricciones de azar tomadas de manera separada ser´: a m´ ın cT x, x sujeto a : Ax = b, (1.9) ˜ ˜ P T i ξ x ≥ hi ξ ≥ pi , i = 1, 2, ..., m, x ≥ 0, Rect@ Monogr´fico 2 (2004) a
  • 8. 10 Programaci´n Estoc´stica o a ˆ Sean C(p) el conjunto factible del programa (1.8) y C(p1 , p2 , ..., pm ) el con- junto factible de (1.9). Aunque el programa estoc´stico inicial (1.7) es lineal, a ˆ los conjuntos de soluciones factibles C(p), C(p1 , p2 , ..., pm ) no tienen por qu´ ser e convexos, como se puede observar en el siguiente ejemplo. Se considera el siguiente programa estoc´stico con una sola variable de decisi´n a o x: m´ g0 (x), ın x ˜ sujetoa : T x ≥ h ξ , −2 en donde T = , 1 ˜ h ξ toma los valores: −4 −10 , con probabilidad 1/2, y con probabilidad 1/2. 0 3 Para este programa estoc´stico se tiene que, para todo p ∈ [0, 1/2] es C(p) = a ˆ C(p) = [0, 2] ∪ [3, 5], que no es convexo no conexo. Las siguientes proposiciones recogen los principales resultados conocidos para el tipo de problema que estamos considerando. Proposici´n 3.6 Se considera el programa estoc´stico (1.7). Supongamos que o a ˜ ξ es un vector aleatorio cuya distribuci´n de probabilidad es discreta y finita.Sea o P ξ = ξ k = αk , para k = 1, 2, ..., K. Entonces para p > 1 − m´ k∈{1,2,...,K} αk ın se verifica que el conjunto factible C(p) es convexo. La demostraci´n se encuentra en [17, ?] o A la vista de la proposici´n anterior, se comprueba inmediatamente que si o ˆ pj > 1 − m´ k∈{1,2,...,K} αk para cada j = 1, 2, ..., m, el conjunto C (p1 , p2 , ..., pm ) ın es convexo. Proposici´n 3.7 Se considera el programa estoc´stico (1.7). Supongamos que o a ˜ ˜ ˜ T ξ = T y que la probabilidad P correspondiente a h(ξ) = h es cuasi-c´ncava. o ˆ Entonces los conjuntos C(p) y C (p1 , p2 , ..., pm ) son cerrados y convexos. La demostraci´n se puede ver en [5] o ˜ ˜ ˜ Proposici´n 3.8Se considera el programa estoc´stico (1.7). Sean T1· , T2· , ..., Tm· o a ˜ ˜ ˜ ˜ ˜ ˜ las filas respectivas de la matriz T ξ , h ξ = h. Supongamos que T1· , T2· , ..., Tm· , ˜ h tienen distribuci´n normal con o T E ˜ ˜ Ti· − E Ti· ˜ ˜ Tj· − E Tj· = rij C, para i, j = 1, 2, ..., m, Rect@ Monogr´fico 2 (2004) a
  • 9. E. Cerd´, J. Moreno a 11 E ˜ ˜ Ti· − E Ti· ˜ ˜ h−E h = si C, para i, j = 1, 2, ..., m, donde rij y si son constantes para todo i, j. Entonces, C(p) es convexo para p ≥ 0, 5. La demostraci´n se puede ver en [5] o Ejemplos: 1) Se considera el programa estoc´stico con conjunto factible a ˜ g(x) ≥ ξ, (1.10) T en donde x ∈ Rn , g(x) = (g1 (x), g2 (x), ..., gm (x)) no contiene ning´n elemneto u ˜ ˜ ˜ ˜ aleatorio y ξ = ξ1 , ξ2 , ..., ξm es un vector aleatorio de dimensi´n m. o En este caso para p ∈ [0, 1] se tiene que el conjunto factible del determinista equivalente para restricciones de azar conjuntas es C(p) = {x ∈ Rn | P (ξ | g(x) ≥ ξ) ≥ p} = = x ∈ Rn | Fξ (g(x)) ≥ p , ˜ ˜ o o ˜ en donde Fξ es la funci´n de distribuci´n del vectora aleatorio ξ. Para pi ∈ [0, 1], considerando restricciones de azar individuales se tiene que Ci (pi ) = {x ∈ Rn | P (ξi | gi (x) ≥ ξi ) ≥ pi } = = x ∈ Rn | Fξi (gi (x)) ≥ pi = {x ∈ Rn | gi (x) ≥ γi } , ˜ −1 en donde γi = Fξ (pi ) . ˜ i 2) Se considera el programa estoc´stico lineal (1.7) y su determinista equiva- a lente (1.9) para restricciones de azar separadas. Sea la restricci´n estoc´stica o a T Ti ξ˜ x ≥ hi ξ de la forma tT x ≥ h, siendo tT , h ˜ ˜ ˜ ˜ ˜ un vector aleato- rio con distribuci´n conjunta normal de media µ ∈ Rn+1 , y matriz de varian- o zas y covarianzas V , de dimensi´n (n + 1) × (n + 1) . Calculemos su correspon- o diente restricci´n en el determinista equivalente (para restricciones de azar sepa- o T T radas). P | tT x ≥ h = P tT , h | xT t − h ≥ 0 = P (η | η(x) ≥ 0) , tT , h ˜ ˜ ˜ en donde η (x) = xT t − h. La variable aleatoria η es normal (unidimensional), ˜ por ser combinaci´n lineal de variables conjuntamente normales. Su media es o n mη (x) = ˜ µj xj − µn+1 , y su varianza es ση (x) = z(x)T V z(x), donde z(x) = 2 ˜ j=1 Rect@ Monogr´fico 2 (2004) a
  • 10. 12 Programaci´n Estoc´stica o a T (x1 , x2 , ..., xn , −1) . η (x) − mη (x) ˜ ˜ −mη (x) ˜ P (˜ (x) ≥ 0) ≥ pi ⇐⇒ P η ≥ ≥ pi . ⇐⇒ ση (x) ˜ ση (x) ˜ η (x) − mη (x) ˜ ˜ −mη (x) ˜ −mη (x) ˜ 1−P < ≥ pi ⇐⇒ 1 − Φ ≥ pi , ση (x) ˜ ση (x) ˜ ση (x) ˜ donde Φ es la funci´n de distribuci´n de la normal de media cero y varianza 1. o o Por tanto, la restricci´n de azar correspondiente queda como: o −mη (x) ˜ −mη (x) ˜ 1−Φ ≥ pi ⇐⇒ Φ ≤ 1 − pi ⇐⇒ ση (x) ˜ ση (x) ˜ −mη (x) ≤ Φ−1 (1 − pi ) ⇐⇒ −Φ−1 (1 − pi ) ση (x) − mη (x) ≤ 0. ˜ ⇐⇒ ˜ ˜ ση (x) ˜ El conjunto de los x ∈ Rn que verifican esa condici´n es convexo si y s´lo si o o −1 Φ (1 − pi ) ≤ 0, lo cual se verifica si y s´lo si pi ≥ 0, 5. o Pueden encontrarse m´s ejemplos en [14], [27], [28], [30], [33], [35]. En [26] se a presenta una aplicaci´n muy interesante. o 4 Funci´n objetivo aleatoria o Consideremos el siguiente problema estoc´stico, en el que todas las restriccio- a nes son determin´ ısticas y la funci´n objetivo es aleatoria. o m´ ın ˜ g0 (x, ξ), ˜ x (1.11) sujetoa : x ∈ X El conjunto factible X ⊂ Rn est´ compuesto por restricciones determin´ a ısticas, bien porque lo sean de manera natural, bien porque se haya obtenido el determi- nista equivalente utilizando el m´todo de restricciones de azar. e Se trata de transformar el objetivo estoc´stico en su determinista equivalente. a Ello puede hacerse utilizando distintos criterios, que vamos a ver a continuaci´n, o siguiendo el enfoque de los trabajos [6] y [27]. 4.1 Algunos conceptos de soluci´n o a) Criterio del valor esperado. ˜ ˜ Se convierte la variable aleatoria g0 (x, ξ) en una funci´n determin´ o ıstica to- mando la esperanza matem´tica a ˜ E[˜0 (x, ξ)]. g Rect@ Monogr´fico 2 (2004) a
  • 11. E. Cerd´, J. Moreno a 13 El determinista equivalente del problema estoc´stico (1.11) ser´ a a m´ ın ˜ E[˜0 (x, ξ)], g x (1.12) sujeto a : x ∈ X Para resolver el problema de programaci´n estoc´stica siguiendo este criterio, o a basta con conocer el valor esperado de la funci´n objetivo estoc´stica y, por tanto, o a es aplicable a´n en el caso en el que se desconozca la distribuci´n de probabilidad u o ˜ de la variable aleatoria g0 (x, ξ). ˜ En [29] se se˜ala que para que este criterio sea considerado apropiado se deben n cumplir dos condiciones: 1) El sistema debe repetir su realizaci´n de manera independiente un gran o n´mero de veces, para asegurar que la media de los resultados sea bastante u pr´xima al valor esperado. o 2) La magnitud de la variaci´n del resultado no debe ser grande. En otro caso o nuestra pol´ ıtica optima puede llevar al sistema a la bancarrota antes de que ´ la deseada media a largo plazo pueda ser alcanzada. En muchas situaciones pr´cticas estas condiciones no se cumplen y, por tanto, a este criterio no deber´ ser utilizado en tales casos. ıa ınima varianza. b) Criterio de m´ ˜ ˜ Se convierte la variable aleatoria g0 (x, ξ) en una funci´n determin´ o ıstica to- mando su varianza: V ar[˜0 (x, ξ)] g ˜ = E[(˜0 (x, ξ))2 ] − {E[˜0 (x, ξ)]}2 . g ˜ g ˜ La utilizaci´n de este criterio da lugar a la elecci´n de aquel vector x para o o ˜ ˜ el que la variable aleatoria g0 (x, ξ) est´ m´s concentrada alrededor de su valor a a esperado, de manera que el determinista equivalente seg´n el criterio de m´ u ınima varianza puede interpretarse como una medida de error cuadr´tico. a El criterio de optimizaci´n es el de m´ o ınima varianza tanto si se trata de mini- mizar la funci´n objetivo (como estamos suponiendo en este trabajo) como si se o trata de maximizarlo. Para poder utilizar este criterio es suficiente con que se conozca la varianza ˜ ˜ de la variable aleatoria g0 (x, ξ). No hace falta que se conozca su distribuci´n de o probabilidad. El determinista equivalente del problema estoc´stico (1.11), seg´n el criterio a u de m´ınima varianza ser´a m´ ın ˜ V ar[˜0 (x, ξ)] g x (1.13) sujeto a : x ∈ X Rect@ Monogr´fico 2 (2004) a
  • 12. 14 Programaci´n Estoc´stica o a c) Criterio de eficiencia valor esperado desviaci´n est´ndar. o a Este concepto de eficiencia fue introducido por Markowitz en 1952 para resol- ver problemas de selecci´n de carteras en el campo de las finanzas. V´ase [22] y o e tambi´n [23] y [24]. e ıtica x0 que sea eficiente en el sentido de Markowitz. Se trata de elegir una pol´ Expliquemos su significado: ˜ ˜ Sean µ (x) = E[˜0 (x, ξ)], σ 2 (x) = V ar[˜0 (x, ξ)]. g g Se tiene que verificar que no existe ning´n x ∈ X para el cual se tenga que u µ(x) = µ(x0 ) y σ(x) < σ(x0 ), o bien σ(x) = σ(x0 ) y µ(x) < µ(x0 ). El conjunto de puntos eficientes normalmente tiene infinitos elementos. Por tanto, normalmente este criterio no especifica un unico punto como soluci´n ´ o o ´ptima. Si se quiere llegar a “una“ soluci´n optima habr´ que a˜adir otras con- o ´ a n sidereciones al conjunto obtenido de puntos eficientes. El c´lculo de soluciones eficientes valor esperado desviaci´n est´ndar se tra- a o a duce en el c´lculo de soluciones eficientes del siguiente problema biobjetivo de- a terminista equivalente: m´ ın ˜ ˜ E[˜0 (x, ξ)], V ar[˜0 (x, ξ)] , g g x (1.14) sujeto a : x ∈ X d) Criterio de m´ ınimo riesgo. Este criterio fue introducido por Bereanu [3] con el nombre de criterio de m´ınimo riesgo y por Charnes y Cooper [9] con el nombre de P-modelo. Se trata de maximizar la probabilidad de que la funci´n objetivo sea menor o o igual que cierto valor previamente establecido. Por tanto, para resolver el problema hay que fijar un nivel para la funci´n objetivo estoc´stica, λ ∈ R, o a al que se denomina nivel de aspiraci´n, y maximizar la probabilidad de que el o ˜ objetivo sea menor o igual que ese nivel: P g0 (x, ξ) ≤ λ . ˜ La idea del nivel de aspiraci´n es que “como mucho el valor objetivo sea λ”. o El determinista equivalente del problema estoc´stico (1.11), seg´n el criterio a u de m´ınimo riesgo ser´a m´x a ˜ ˜ P g0 (x, ξ) ≤ λ , x (1.15) sujeto a : x ∈ X a ˜ ˜ a g ˜ Teniendo en cuenta que m´x P g0 (x, ξ) ≤ λ = m´x 1 − P {˜0 x, ξ > λ} = x x ın ˜ ˜ 1 − m´ P g0 (x, ξ) > λ , el problema (1.15) es equivalente a x m´ ın ˜ P g0 (x, ξ) > λ , ˜ x sujeto a : x ∈ X, Rect@ Monogr´fico 2 (2004) a
  • 13. E. Cerd´, J. Moreno a 15 y el problema puede interpretarse como la minimizaci´n del riesgo de que la o funci´n objetivo sobrepase el nivel de aspiraci´n λ. o o Si el problema a resolver consistiera en maximizar la funci´n objetivo (en lugar o de minimizar como estamos considerando), es decir, si el problema original fuera m´x a ˜ g0 (x, ξ), ˜ x sujeto a : x ∈ X el problema de m´ ınimo riesgo determinista equivalente ser´ ıa m´x a ˜ ˜ P g0 (x, ξ) ≥ λ , x sujeto a : x ∈ X En este caso la idea del nivel de aspiraci´n es que “el valor objetivo al menos o sea λ”. e) Criterio de Kataoka o criterio β−fractil El criterio fue introducido por Kataoka [20]. Se comienza fijando por el decisor una probabilidad β ∈ (0, 1) para la funci´n o objetivo y se determina el menor nivel que puede alcanzar la funci´n objetivo o con esa probabilidad. En concreto, el determinista equivalente del problema es- toc´stico (1.11), seg´n el criterio de Kataoka1 ser´: a u a m´ ın λ (xT ,λ) ˜ sujeto a : P g0 x, ξ ≤ λ = β, ˜ x∈X Si el problema a resolver consistiera en maximizar la funci´n objetivo (en lugar o de minimizar como estamos considerando), es decir, si el problema original fuera m´ ın ˜ g0 x, ξ , ˜ x sujeto a : x ∈ X el problema de Kataoka determinista equivalente ser´ ıa m´ ın λ (xT ,λ) ˜ sujeto a : P g0 x, ξ ≥ λ = β, ˜ x∈X 1 En trabajos posteriores al de Kataoka otros autores como Stancu-Minasian [33] plantean el problema con restricci´n probabil´ o ˜ ˜ ıstica de desigualdad: P g0 x, ξ ≤ λ ≥ β. Se demuestra ˜ que si la variable aleatoria g0 x, ξ es continua el resultado del problema es el mismo en ambos ˜ casos. Rect@ Monogr´fico 2 (2004) a
  • 14. 16 Programaci´n Estoc´stica o a Comparando los tres primeros criterios con los dos ultimos (que se llaman de ´ m´xima probabilidad) aparecen algunas diferencias: a • En el criterio de m´ ınimo riesgo se fija el nivel de aspiraci´n y en el criterio o de Kataoka se fija la probabilidad, luego ambos dependen de los valores que se asignen a estos par´metros, mientras que en los tres primeros casos no a hay que fijar ning´n par´metro. u a • En los criterios valor esperado, m´ ınima varianza y eficiencia valor esperado desviaci´n est´ndar s´lo necesita conocerse la esperanza t/o la varianza , o a o no haciendo falta la distribuci´n de probabilidad. o La elecci´n de un criterio u otro deber´ realizarse en base a las caracter´ o a ısticas del rpoblema y a las preferencias del decisor. De todas formas, los cinco cri- terios est´n relacionados entre s´ dado que cada uno de ellos utiliza diferentes a ı, caracter´ısticas de la funci´n objetivo. o 4.2 Relaciones entre las soluciones seg´n los distintos cri- u terios En [6] se obtienen algunos resultados para problemas estoc´sticos como (1.11) a que cumplen algunas condiciones adicionales. Veamos algunos de dichos resulta- dos. Consideremos el problema estoc´stico (1.11) en el que suponemos ahora que a el conjunto de soluciones factibles X ⊂ Rn es no vac´ cerrado, acotado y con- ıo, ˜ vexo. Suponemos tambi´n que ξ es un vector aleatorio definido sobre un con- e junto E ⊂ Rs cuyas componentes son variables aleatorias continuas y cuya distri- buci´n de probabilidad es independiente de las variables de decisi´n del problema o o x1 , x2 , ..., xn . Las demostraciones de todas las proposiciones que presentamos a continuaci´n o se encuentran en [6]. Proposici´n 4.1 Se considera el problema estoc´stico (1.11) con las hip´tesis o a o adicionales introducidas en este subapartado. a) Si la soluci´n ´ptima del problema seg´n el criterio del valor esperado es o o u unica, entonces es una soluci´n eficiente valor esperado desviaci´n est´ndar. Si ´ o o a no es unica s´lo se puede asegurar que las soluciones optimas valor esperado ´ o ´ son soluciones d´bilmente eficientes valor esperado desviaci´n est´ndar, pero no e o a tienen por qu´ ser eficientes valor esperado desviaci´n est´ndar. e o a b) Si la varianza de la funci´n objetivo es una funci´n estrictamente convexa, o o el problema de varianza m´ ınima tiene soluci´n unica que es una soluci´n eficiente o ´ o valor esperado desviaci´n est´ndar. Si no es unica s´lo se puede asegurar que las o a ´ o Rect@ Monogr´fico 2 (2004) a
  • 15. E. Cerd´, J. Moreno a 17 soluciones optimas de m´ ´ ınima varianza son soluciones d´bilmente eficientes valor e esperado desviaci´n est´ndar, pero no tienen por qu´ ser eficientes valor esperado o a e desviaci´n est´ndar. o a La siguiente proposici´n establece relaci´n entre las soluciones ´ptimas seg´n o o o u los criterios de m´ ınimo riesgo y de Kataoka. Proposici´n 4.2 Se considera el problema estoc´stico (1.11) con las hip´tesis o a o adicionales introducidas en este subapartado. Supongamos que la funci´n de o o ˜ ˜ distribuci´n de la variable aleatoria g0 (x, ξ) es estrictamente creciente. Entonces x∗ es la soluci´n de m´ o ınimo riesgo para el nivel de aspiraci´n λ∗ si y s´lo si o o ∗T ∗ T ∗ ∗ ∗ x ,λ es la soluci´n de Kataoka con probabilidad β , con λ y β verificando o ˜ ≤ λ∗ = β ∗ . P g0 (x, ξ) ˜ A la vista de la proposici´n anterior se puede asegurar que en las condiciones o que estamos considerando en este subapartado: • Para cada nivel de aspiraci´n λ, la soluci´n de m´ o o ınimo riesgo es tambi´n la e soluci´n de Kataoka con una probabilidad β igual a la m´xima probabilidad o a obtenida en el problema de m´ ınimo riesgo. • Para cada valor β fijado, la soluci´n de Kataoka es tambi´n soluci´n de o e o m´ınimo riesgo para un nivel de aspiraci´n igual al valor optimo del problema o ´ de Kataoka. En [6] se establecen tambi´n relaciones entre soluciones de Kataoka y solucio- e nes eficientes valor esperado desviaci´n est´ndar para algunos tipos de programas o a estoc´sticos lineales. a 4.3 Ejemplo Como ejemplo vamos a considerar el caso de funci´n objetivo lineal con dis- o tribuci´n de probabilidad normal. o Sea el programa estoc´stico lineal a m´ ın ˜ ξ T x, x (1.16) sujeto a : x ∈ X El conjunto factible X ⊂ Rn est´ compuesto por restricciones determin´ a ısticas, bien porque lo sean de manera natural, bien porque se haya obtenido el determi- nista equivalente utilizando el m´todo de restricciones de azar. Se supone que el e ˜ vector aleatorio ξ sigue una distribuci´n de probabilidad normal multivariante, o ¯ con valor esperado ξ y matriz de varianzas y covarianzas S definida positiva. Rect@ Monogr´fico 2 (2004) a
  • 16. 18 Programaci´n Estoc´stica o a ˜ En estas condiciones la variable aleatoria ξ T x es normal con valor esperado ˜T ¯ ¯T x y varianza xT Sx. Por tanto se tiene que ξ√x−ξT x es una variable aleatoria ξ xT Sx N (0, 1) (normal con valor esperado 0 y desviaci´n t´ o ıpica 1). A continuaci´n se calcula el determinista equivalente del programa estoc´stico o a (1.16) para cada uno de los criterios considerados en este apartado. a) Criterio del valor esperado ın m´ ¯ ξ T x, x sujeto a : x ∈ X b) Criterio de m´ ınima varianza m´ ın xT Sx, x sujeto a : x ∈ X c) Criterio de eficiencia valor esperado desviaci´n est´ndar o a √ m´ ın ¯ ξ T x, . xT Sx , x sujeto a : x ∈ X d) Criterio de m´ ınimo riesgo de nivel λ m´x a ˜ P ξT x ≤ λ , x (1.17) sujeto a : x ∈ X Pero ˜ ¯ ξT x − ξT x ¯ λ − ξT x ¯ λ − ξT x ˜ P ξT x ≤ λ = P √ ≤ √ =Φ √ , (1.18) xT Sx xT Sx xT Sx donde Φ es la funci´n de distribuci´n de la N (0, 1), que es estrictamente creciente, o o ¯ λ − ξT x ¯ λ − ξT x por lo que m´x P ξ T x ≤ λ = m´x Φ √ a ˜ a = Φ m´x √ a , y el x x xT Sx x xT Sx problema (1.17) es equivalente a ¯ λ − ξT x m´x a √ x xT Sx (1.19) sujeto a : x ∈ X. Una vez resuelto este problema, la probabilidad m´xima para la que se puede a asegurar que la funci´n objetivo estoc´stica es menor o igual que el nivel de o a ¯ λ − ξT x aspiraci´n fijado λ, es: Φ m´x √ o a . x xT Sx Rect@ Monogr´fico 2 (2004) a
  • 17. E. Cerd´, J. Moreno a 19 e) Criterio de Kataoka o criterio β−fractil m´ ın λ (xT ,λ) ˜ sujeto a : P ξ T x ≤ λ = β, x∈X Teniendo en cuenta (1.18), y que la funci´n de distribuci´n Φ es estricta- o o ¯ λ−ξ T x ¯ λ−ξ T x mente creciente, se tiene que Φ √ T = β ⇐⇒ √ T = Φ−1 (β) ⇐⇒ λ = √ x Sx x Sx Φ−1 (β) xT Sx + ξ T x, por lo que el problema (4.11) se puede expresar: ¯ m´ ın λ (xT ,λ) √ sujeto a λ = Φ−1 (β) xT Sx + ξ T x, ¯ x∈X y este problema es equivalente al problema con n variables de decisi´n: o √ m´ ın Φ−1 (β) xT Sx + ξ T x, ¯ x sujeto a : x ∈ X. Este problema es convexo para β ≥ 0, 5. Una vez resuelto este problema, el menor nivel λ para el que podemos afirmar que la funci´n objetivo no supera ese √ o −1 ¯ T Sx + ξ T x. nivel con probabilidad β es λ = m´ Φ (β) x ın x 5 Bibliograf´ ıa ´ [1] Alvarez, F., Cerd´, E. “A Solution Method for a Class of Learning by Doing a Models with Multiplicative Uncertainty“. Top, 7, 1, 1-23, 1999. [2] Beale, E.M.L., “On Minimizing a Convex Function Subject to Linear Ine- qualities“. Journal of the Royal Statistical Society, B 17, 173-184, 1955. [3] Bereanu, B. “Programme de Risque Minimal en Programmation Lin´aire e Stochastique“. C. R. Acad. Sci. Paris, 259, 981-983, 1964. [4] Bereanu, B. The Generalized Distribution Problem of Stochastic Linear Pro- gramming. Symposia Matematica. Academic Press, 1976. [5] Birge, J.R., Louveaux, F.V. Introduction to Stochastic Programming. Sprin- ger, 1997. [6] Caballero, R., Cerd´, E., Mu˜oz, M.M., Rey, L. “Analysis and Comparisons a n of Some Solution Concepts for Stochastic Programming Problems“. Top, 10(1), 101-124, 2002. Rect@ Monogr´fico 2 (2004) a
  • 18. 20 Programaci´n Estoc´stica o a [7] Charnes, A., Cooper, W.W. “Chance-Constrained Programming“. Manage- ment Science, 5, 73-79, 1959. [8] Charnes, A., Cooper, W.W., Symonds, G.H. “Cost Horizons and Certainty Equivalents: An Approach to Stochastic Programming of Heating Oil“. Ma- nagement Science, 4, 235-263, 1958. [9] Charnes, A., Cooper, W.W. “Deterministic Equivalents for Optimizing and Satisfying under Chance Constraints“. Operations Research, 11, 1, 18-39, 1963. [10] Dantzig, G.B. “Linear Programming under Uncertainty“. Management Science, 1, 197-206, 1955. [11] Dantzig, G.B. “Planning under Uncertainty“. Annals of Operations Research, 85, 1999. [12] Dempster, M.A.H. Stochastic Programming. Academic Press, 1980. [13] Diwelar, U. “Optimization under Uncertainty: An Overview“. SIAG/OPT Views -and-News, 13,11-8, 2002 [14] Goicoechea, A., Hansen, D.R., Duckstein, L. Multiobjective Decision Analy- sis with Engineering and Business Applications. John Wiley and Sons, 1982. [15] Hammer, P.L. Stochastic Programming. State Of The Art, 1998. Annals of Operations Research, Vol 85, 1999. [16] Higle, J.L., Sen, S. Stochastic Decomposition. Kluwer Academic Publishers, 1996. [17] Kall, P. Stochastic Linear Programming. Springer-Verlag, 1976. [18] Kall, P. “Stochastic Programming“. European Journal of Operational Re- search, 10, 125-130, 1982. [19] Kall, P., Wallace, S.W. Stochastic Programming. John Wiley, 1994. [20] Kataoka, S. “A Stochastic Programming Model“. Econometrica, 31, 1-2, 186-196, 1963. [21] Kibzun, A.I., Kan, I.S. Stochastic Programming Problems with Probability and Quantile Functions. John Wiley, 1996. [22] Markowitz, H. “Portfolio Selection“. The Journal of Finance, 7, 77-91, 1952. [23] Markowitz, H. Portfolio Selection: Efficient Diversification of Investment. Cowles Commission Monograph 16, John Wiley and Sons, 1959. Rect@ Monogr´fico 2 (2004) a
  • 19. E. Cerd´, J. Moreno a 21 [24] Markowitz, H. Mean Variance Analysis in Portfolio Choice and Capital Mar- kets. Blackwell, 1987. [25] Marti K. (ed). Stochastic Optimization. Numerical Methods and Technical Applications. Lecture Notes in Economics and Mathematical Systems 379. Springer-Verlag, 1992. [26] Medova, E. “Chance Constrained Stochastic Programming for Integrated Services Network Management“. Annals of Operations Research, 81,213- 229,1998. [27] Mu˜oz M.M. Programaci´n Estoc´stica: Algunas Aportaciones Te´ricas n o a o y Computacionales. Tesis Doctoral. Universidad Complutense de Madrid, 1998. [28] Prawda, J. M´todos y Modelos de Investigaci´n de Operaciones. Vol. 2. Mo- e o delos Estoc´sticos. Ed. Limusa, 1980. a [29] Prekopa, A. Stochastic Programming. Kluwer Academic Publishers, 1995. [30] R´ Insua, S. Investigaci´n Operativa. Optimizaci´n. Editorial Centro de ıos o o Estudios Ram´n Areces, S.A. Segunda Edici´n, 1993. o o [31] Ruszczynski, A., Shapiro, A. (ed). Stochastic Programming. Handbooks in Operations Research and Management Science, Vol 10. Norh-Holland, 2003. [32] Sen, S., Higle, J.L. “An Introductory Tutorial on Stochastic Linear Program- ming Models“. Interfaces, 29:2, 33-61, 1999. [33] Stancu-Minasian, I.M. Stochastic Programming with Multiple Objective Functions. D. Reidel Publishing Company, 1984. [34] Stancu-Minasian, I.M., Wets, M.J. “A Research Bibliography in Stochastic Programming 1955-1975“. Operations Research, 24, 1078-1119, 1976. [35] Vajda, S. Probabilistic Programming. Academic Press, 1972. [36] Wets, R.J.B. “Stochastic Programming“. En NEmhauser, G.L., Rinnooy Kan, A.H.G., Todd, M.J. (ed). Optimization. Vol. 1 North-Holland, 1989. Rect@ Monogr´fico 2 (2004) a