Este documento presenta una introducción a la programación estocástica. Define la programación estocástica como problemas de programación matemática en los que algunos de los parámetros son variables aleatorias. Discute dos enfoques principales: modelos "esperar y ver" donde el decisor puede esperar a ver las realizaciones de las variables aleatorias, y modelos "aquí y ahora" donde el decisor debe tomar una decisión sin conocer las realizaciones. También introduce el método de restricciones probabilísticas, que transforma el problema estocástico en un
1. Programaci´n Estoc´stica
o a
E. Cerd´a , J. Morenob
a
a Departamento An´lisis Econ´mico. UCM.
a o
b Departamento de Estad´
ıstica. UCM.
1 Introducci´n
o
Tal como su nombre indica, la Programaci´n Estoc´stica trata problemas de Pro-
o a
gramaci´n Matem´tica en cuya formulaci´n aparece alg´n elemento estoc´stico.
o a o u a
Por tanto, mientras que en un problema determin´ ıstico de Programaci´n Ma-
o
tem´tica, ya sea de Programaci´n Lineal, Programaci´n No Lineal, Programaci´n
a o o o
Entera, Programaci´n Mixta Lineal Entera o Programaci´n Mixta No Lineal En-
o o
tera, todos los datos (coeficientes) que aparecen en su formulaci´n son n´meros
o u
conocidos, en Programaci´n Estoc´stica dichos datos (o al menos alguno de ellos)
o a
son desconocidos, aunque para ellos se conoce o se puede estimar su distribuci´n o
de probabilidad. Para precisar m´s, veamos las dos definiciones que propone
a
Prekopa [29]:
Primera definici´n: “Programaci´n Estoc´stica es la ciencia que ofrece solu-
o o a
ciones para problemas formulados en conexi´n con sistemas estoc´sticos, en los
o a
que el problema num´rico resultante a resolver es un problema de Programaci´n
e o
Matem´tica de tama˜o no trivial“.
a n
Segunda definici´n: “La Programaci´n Estoc´stica trata problemas de Progra-
o o a
maci´n Matem´tica en los que algunos de los par´metros son variables aleatorias,
o a a
bien estudiando las propiedades estad´ ısticas del valor optimo aleatorio o de otras
´
variables aleatorias presentes en el problema o bien reformulando el problema
en otro de decisi´n en el que se tiene en cuenta la distribuci´n de probabilidad
o o
conjunta de los par´metros aleatorios“.
a
Los problemas resultantes de ambas definiciones son llamados problemas de
Programaci´n Estoc´stica.
o a
Rect@ Monogr´fico 2 (2004)
a
2. 4 Programaci´n Estoc´stica
o a
La aleatoriedad en coeficientes en unos casos se deber´ a la falta de fiabilidad
a
en los datos recogidos, en otros casos a errores de medida, en otros a eventos
futuros a´n no conocidos, etc.
u
Tal como indica Dantzig [11], la Programaci´n Estoc´stica comenz´ en 1955
o a o
con los trabajos de Dantzig [10] y Beale [2]. y ya en la misma d´cada alcanz´
e o
con Markowitz [23] una aplicaci´n muy destacada al problema de selecci´n de
o o
carteras que le llevar´ a la consecuci´n del Premio N´bel. En [34] se recogen
ıa o o
unas 800 referencias sobre trabajos publicados entre 1955 y 1975, clasificadas en
funci´n de su contenido.
o
En 1974 se celebr´ en Oxford (Inglaterra) la primera conferencia internacio-
o
nal en Programaci´n Estoc´stica, organizada por Michael Dempster. En 1981
o a
se celebr´ en K¨szeg (Hungr´ la segunda conferencia, organizada por Andra
o o ıa)
Prekopa. En dicho encuentro se puso en marcha el Committee on Stochastic Pro-
gramming (COSP), como una rama de la Mathematical Programming Society.
Dicho comit´ ha sido el responsable de organizar los sucesivas conferencias que
e
se han ido celebrando. La novena conferencia internacional se celebr´ en Berl´
o ın
(Alemania) en 2001 y la d´cima se celebrar´ los d´ 9 a 12 de Octubre de 2004
e a ıas
en Tucson, Arizona (USA).
El COSP ha puesto en funcionamiento la p´gina web http// stoprog.org en la
a
que se puede encontrar mucha informaci´n y documentaci´n sobre Programaci´n
o o o
Estoc´stica.
a
2 Definiciones b´sicas
a
Se considera el siguiente problema de Programaci´n Estoc´stica:
o a
˜
m´ g0 x, ξ ,
ın ˜
x
sujeto a :
(1.1)
˜
gi x, ξ ≤ 0, i = 1, 2, ..., m,
˜
x ∈ D,
˜
donde el conjunto D ⊂ Rn , ξ es un vector aleatorio definido sobre un conjunto
E ⊂ R .Suponemos que est´n dados una familia de eventos F formada por
s
a ,
,
subconjuntos de E y una distribuci´n de probabilidad P definida sobre F Por
o .
tanto, para cada A ⊂ E, es A ∈ F, y la probabilidad P (A) es conocida. Adem´s a
suponemos que las funciones gi (x, ·) : E → R, ∀x, i son variables aleatorias y
˜
que la distribuci´n de probabilidad P es independiente del vector de variables de
o
decisi´n x.
o
Obs´rvese que en el problema formulado (PE) para cada realizaci´n ξ del vec-
e o
˜
tor aleatorio ξ se tiene un problema determin´ ıstico. Un vector x ∈ D puede ser
factible para una realizaci´n del vector aleatorio y no serlo para otra realizaci´n.
o o
Rect@ Monogr´fico 2 (2004)
a
3. E. Cerd´, J. Moreno
a 5
ımismo puede ocurrir que para una realizaci´n ξ 1 sea g0 x1 , ξ 1 < g0 x2 , ξ 1
As´ o
o 2 ˜
y en cambio para otra realizaci´n ξ del vector aleatorio ξ sea g0 x2 , ξ 2 <
1 2
g0 x , ξ .
Un caso particular del problema (PE) es el siguiente problema de Progra-
maci´n Lineal Estoc´stica:
o a
m´
ın ˜
cT ξ x,
x
sujeto a : Ax = b,
(1.2)
˜ ˜
T ξ x≥h ξ ,
x ≥ 0,
donde la matriz A y el vector b son determin´ ısticos. La matriz T (·) y los vectores
˜
c (·) y h (·) dependen del vector aleatorio ξ y por tanto son estoc´sticos.
a
Normalmente el problema estoc´stico se reemplaza por un problema deter-
a
min´ ıstico, que se llama determinista equivalente cuya soluci´n optima pasa a
o ´
considerarse la soluci´n optima del problema estoc´stico.
o ´ a
Fundamentalmente existen dos tipos de modelos en Programaci´n Estoc´stica:
o a
• Modelos “esperar y ver” (“wait and see”) o modelos de programaci´m o
estoc´stica pasiva, basados en la suposici´n de que el decisor es capaz de
a o
esperar a que se produzca la realizaci´n de las variables aleatorias y hacer
o
su decisi´n con informaci´n completa de dicha realizaci´n, con lo que el pro-
o o o
blema se convierte en determin´ ıstico y es posible encontrar el valor optimo
´
de las variables de decisi´n con las t´cnicas habituales de programaci´n
o e o
matem´tica determin´
a ıstica. En ocasiones puede tener inter´s el conocer
e
la distribuci´n de probabilidad del valor objetivo optimo o algunos de sus
o ´
momentos (valor esperado o varianza) antes de conocer la realizaci´n de o
sus variables aleatorias. Tales problemas se llaman problemas de distri-
buci´n. Estos problemas se estudian en [4], [33], [29].
o
• Modelos “aqu´ y ahora” (“here and now”) o modelos de programaci´n es-
ı o
toc´stica activa. En estos modelos el decisor toma la decisi´n sin el conoci-
a o
miento de la realizaci´n de las variables aleatorias, sin que por ello queden
o
afectadas las distribuciones de probabilidad de las mismas. En los siguientes
apartados veremos diferentes enfoques para resolver el problema.
3 Programaci´n con restricciones probabil´
o ısticas
Se considera el problema (1.1) en el que se supone que la funci´n objetivo no
o
contiene ninguna variable aleatoria:
Rect@ Monogr´fico 2 (2004)
a
4. 6 Programaci´n Estoc´stica
o a
m´
ın g0 (x) ,
x
˜ ˜
sujeto a : gi x, ξ ≤ 0, i = 1, 2, ..., m, (1.3)
x ∈ D,
El m´todo de restricciones de azar (chance constrained) fue introducido
e
por Charnes, Cooper y Symonds en 1958. V´anse [7], [8]. La idea consiste
e
en transformar el problema dado en un determinista equivalente en el que se
verifiquen las restricciones con, al menos, una determinada probabilidad fijada
de antemano. Hay que distinguir dos casos seg´n se fije la probabidad para el
u
conjunto de las restricciones o para cada una de ellas por separado.
Restricciones de azar conjuntas:
Se considera el problema (3.1). Sea p ∈ [0, 1] dado. Se define el determinista
equivalente:
m´
ın g0 (x) ,
x
˜ ˜ ˜ ˜ ˜ ˜
sujeto a : P g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0 ≥ p, (1.4)
x ∈ D.
Para este problema, 1 − p es el riesgo admisible para el decisor de que la
soluci´n del problema sea no factible.
o
En el caso particular de que para cada x ∈ D las variables aleatorias
˜ ˜ ˜ ˜
g1 (x, ξ), g2 (x, ξ), ..., gm (x, ξ)
˜ ˜
sean mutuamente estad´ ısticamente independientes, el problema equivalente de-
terminista anterior se puede expresar de la siguiente forma.
m´
ın g0 (x)
x
˜ ˜ ˜ ˜ ˜ ˜
sujeto a : P g1 (x, ξ) ≤ 0 P g2 (x, ξ) ≤ 0 ...P gm (x, ξ) ≤ 0 ≥ p, (1.5)
x ∈ D.
Restricciones de azar separadas o individuales:
Se considera el problema (1.3). Para cada restricci´n i ∈ {1, 2, ..., m} sea
o
pi ∈ [0, 1] dado. Se define el determinista equivalente:
m´
ın g0 (x) ,
x
˜ ˜
sujeto a : P gi (x, ξ) ≤ 0 ≥ pi , para i = 1, 2, ..., m, (1.6)
x ∈ D.
Rect@ Monogr´fico 2 (2004)
a
5. E. Cerd´, J. Moreno
a 7
La siguiente Proposici´n recoge la relaci´n entre los dos casos:
o o
Proposici´n 3.1.
o Supongamos que x es una soluci´n factible del problema
ˆ o
m
(1.6) para los valores p1 , p2 , ..., pm . Entonces para p = 1 − m + pi , se verifica
i=1
que x es factible para el problema (1.4).
ˆ
Demostraci´n: Sea x soluci´n factible del problema (1.4). Ello quiere decir
o ˆ o
que se verifica: P (ξ | gi (ˆ, ξ) ≤ 0) ≥ pi , para todo i = 1, 2, ..., m. Definimos los
x
eventos Ai de la siguiente forma: Ai = {ξ | gi (ˆ, ξ) ≤ 0} , para i = 1, 2, ..., m.
x
Se verifica que P (Ai ) ≥ pi , P AC ≤ 1 − pi . Veamos que se verifica que
i
m
P Ai ≥ p,
i=1
lo cual quiere decir que x es factible para el problema (1.4). En efecto:
ˆ
Teniendo en cuenta la desigualdad de Boole: P Sk ≤ P (Sk ) , se tiene
k k
que
m m C m
1−P =1−P C
P Ai = Ai (Ai ) ≥
i=1 i=1 i=1
m m
C
≥ 1− P (Ai ) ≥1− (1 − pi ) = p.
i=1 i=1
Sean:
q(x) = P (ξ | g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0) ,
qi (x) = P (ξ | gi (x, ξ) ≤ 0) , i = 1, 2, ..., m.
El conjunto factible del problema (1.4) lo podemos representar de la siguiente
forma: C(p) = {x ∈ D | q(x) ≥ p} .
Sea: Ci (pi ) = {x ∈ D | qi (x) ≥ pi } , i ∈ {1, 2, ..., m} .
El conjunto factible del Problema (1.6) lo podemos respresentar como
m
ˆ
C (p1 , p2 , ..., pm ) = Ci (pi ) .
i=1
ˆ
Ser´ deseable que los conjuntos C(p) y C (p1 , p2 , ..., pm ), que son los conjuntos
ıa
de soluciones factibles de los deterministas equivalentes que estamos estudiando,
fueran no vac´ cerrados y convexos. Las siguientes proposiciones tratan sobre
ıos,
dichas cuestiones.
Rect@ Monogr´fico 2 (2004)
a
6. 8 Programaci´n Estoc´stica
o a
Proposici´n 3.2 Sea C(p) el conjunto de soluciones factibles del Problema (1.4).
o
En dicho conjunto se verifican las siguientes propiedades:
1) Si p1 ≤ p2 , entonces C(p1 ) ⊃ C(p2 ).
2) C(0) = D.
3) C(p) es no vac´ para todo p ∈ [0, 1] ⇐⇒ C(1) = ∅.
ıo
Demostraci´n:o
1) Sea p1 ≤ p2 . Si x ∈ C(p2 ), es
q(x) = P (ξ | g1 (x, ξ) ≤ 0, g2 (x, ξ) ≤ 0, ..., gm (x, ξ) ≤ 0) ≥ p2 ≥ p1 =⇒ x ∈
C(p1 ).
2) C(0) = {x ∈ D | q(x) ≥ 0} = D, ya que q(x) es una probabilidad y por tanto
es mayor o igual que cero.
3) Si C(p) = ∅, ∀p ∈ [0, 1] =⇒ C(1) = ∅. Por otra parte, si C(1) = ∅ =⇒ ∀p ≤ 1,
por 1) es C(p) ⊃ C(1) = ∅.
ˆ
Obs´rvese que si C(p) = ∅, ∀p ∈ [0, 1], entonces C (p1 , p2 , ..., pm ) = ∅, para
e
todo p1 , p2 , ..., pm en [0,1].
La siguiente proposici´n, cuya demostraci´n se encuentra en [17, ?] da condi-
o o
ciones que aseguran que los conjuntos que estamos considerando son cerrados.
Proposici´n 3.3 Si las funciones gi : Rn × E → R son continuas, entonces los
o
ˆ
conjuntos factibles C(p) y C (p1 , p2 , ..., pm ) son cerrados.
A continuaci´n se aborda el problema de la convexidad de los conjuntos C(p)
o
ˆ
y C (p1 , p2 , ..., pm ) . Estos conjuntos en general no son convexos. Veamos con-
diciones en que s´ lo son. Las demostraciones de las proposiciones siguientes se
ı
encuentran en [17, ?]. V´ase tambi´n [29].
e e
Definici´n 3.1 Una medida de probabilidad P : F → [0, 1] se dice que es cua-
o
sic´ncava si ∀S1 , S2 ∈ F , siendo S1 y S2 conjuntos convexos, y ∀λ ∈ [0, 1],se
o
verifica que P (λS1 + (1 − λ) S2 ) ≥ m´ {P (S1 ) , P (S2 )} .
ın
Definici´n 3.2 Una medida de probabilidad P : F → [0, 1] se dice que es log-
o
c´ncava si ∀S1 , S2 ∈ F , siendo S1 y S2 conjuntos convexos, y ∀λ ∈ [0, 1],se verifica
o
λ 1−λ
que P (λS1 + (1 − λ) S2 ) ≥ [P (S1 )] [P (S2 )] .
Las dos proposiciones siguientes dan condiciones para que una medida de
probabilidad sea cuasi-c´ncava.
o
Proposici´n 3.3 Si P es una medida de probabilidad log-c´ncava en F , entonces
o o
P es cuasic´ncava.
o
Proposici´n 3.4 Sea P una medida de probabilidad en Rs , de tipo continuo con
o
funci´n de densidad asociada f. Entonces se verifica:
o
Rect@ Monogr´fico 2 (2004)
a
7. E. Cerd´, J. Moreno
a 9
• P es log-c´ncava si y s´lo si el logaritmo de f es una funci´n c´ncava.
o o o o
• P es cuasi-c´ncava si y s´lo si f −1/s es convexa.
o o
La siguiente proposici´n da condiciones suficientes para que los conjuntos que
o
estamos estudiando sean convexos.
Proposici´n 3.5 Si gi (·, ·) es conjuntamente convexa en (x, ξ), para cada i =
o
1, 2, ..., m y P es cuasi-c´ncava , entonces C(p) es convexo para todo p ∈ [0, 1] y
o
ˆ
C (p1 , p2 , ..., pm ) es convexo, ∀p1 , p2 , ..., pm en [0, 1].
Algunas medidas de probabilidad cuasi-c´ncavas son: La uniforme k−dimen-
o
sional, sobre un conjunto convexo S ⊂ Rk , la distribuci´n exponencial en R, la
o
normal multivariante en Rk , la distribuci´n de Dirichlet, la beta, la distribuci´n de
o o
Wishart, la gamma para ciertos valores del par´metro, la distribuci´n de Cauchy,
a o
la distribuci´n de Pareto para determinados valores etc.
o
El caso lineal:
Se considera el problema lineal estoc´stico (1.2), en el cual se supone que la
a
funci´n objetivo no contiene ninguna variable aleatoria:
o
m´
ın cT x,
x
sujeto a : Ax = b, (1.7)
˜ ˜
T (ξ)x ≥ h(ξ),
x ≥ 0,
Para el Problema (1.7), dado el valor p ∈ [0, 1] , el programa determinista equi-
valente correspondiente al m´todo de restricciones de azar tomadas en conjunto
e
ser´:
a
m´
ın cT x,
x
sujeto a : Ax = b,
(1.8)
˜ ˜
P T (ξ)x ≥ h(ξ) ≥ p,
x ≥ 0,
Para el mismo Problema (1.7), dados los valores p1 , p2 , ..., pm , pertenecientes
al intervalo [0, 1] , el programa determinista equivalente correspondiente al m´todo
e
de restricciones de azar tomadas de manera separada ser´: a
m´
ın cT x,
x
sujeto a : Ax = b,
(1.9)
˜ ˜
P T i ξ x ≥ hi ξ ≥ pi , i = 1, 2, ..., m,
x ≥ 0,
Rect@ Monogr´fico 2 (2004)
a
8. 10 Programaci´n Estoc´stica
o a
ˆ
Sean C(p) el conjunto factible del programa (1.8) y C(p1 , p2 , ..., pm ) el con-
junto factible de (1.9). Aunque el programa estoc´stico inicial (1.7) es lineal,
a
ˆ
los conjuntos de soluciones factibles C(p), C(p1 , p2 , ..., pm ) no tienen por qu´ ser
e
convexos, como se puede observar en el siguiente ejemplo.
Se considera el siguiente programa estoc´stico con una sola variable de decisi´n
a o
x:
m´ g0 (x),
ın
x
˜
sujetoa : T x ≥ h ξ ,
−2
en donde T = ,
1
˜
h ξ toma los valores:
−4 −10
, con probabilidad 1/2, y con probabilidad 1/2.
0 3
Para este programa estoc´stico se tiene que, para todo p ∈ [0, 1/2] es C(p) =
a
ˆ
C(p) = [0, 2] ∪ [3, 5], que no es convexo no conexo.
Las siguientes proposiciones recogen los principales resultados conocidos para
el tipo de problema que estamos considerando.
Proposici´n 3.6 Se considera el programa estoc´stico (1.7). Supongamos que
o a
˜
ξ es un vector aleatorio cuya distribuci´n de probabilidad es discreta y finita.Sea
o
P ξ = ξ k = αk , para k = 1, 2, ..., K. Entonces para p > 1 − m´ k∈{1,2,...,K} αk
ın
se verifica que el conjunto factible C(p) es convexo.
La demostraci´n se encuentra en [17, ?]
o
A la vista de la proposici´n anterior, se comprueba inmediatamente que si
o
ˆ
pj > 1 − m´ k∈{1,2,...,K} αk para cada j = 1, 2, ..., m, el conjunto C (p1 , p2 , ..., pm )
ın
es convexo.
Proposici´n 3.7 Se considera el programa estoc´stico (1.7). Supongamos que
o a
˜ ˜ ˜
T ξ = T y que la probabilidad P correspondiente a h(ξ) = h es cuasi-c´ncava. o
ˆ
Entonces los conjuntos C(p) y C (p1 , p2 , ..., pm ) son cerrados y convexos.
La demostraci´n se puede ver en [5]
o
˜ ˜ ˜
Proposici´n 3.8Se considera el programa estoc´stico (1.7). Sean T1· , T2· , ..., Tm·
o a
˜ ˜ ˜ ˜ ˜ ˜
las filas respectivas de la matriz T ξ , h ξ = h. Supongamos que T1· , T2· , ..., Tm· ,
˜
h tienen distribuci´n normal con
o
T
E ˜ ˜
Ti· − E Ti· ˜ ˜
Tj· − E Tj· = rij C, para i, j = 1, 2, ..., m,
Rect@ Monogr´fico 2 (2004)
a
9. E. Cerd´, J. Moreno
a 11
E ˜ ˜
Ti· − E Ti· ˜ ˜
h−E h = si C, para i, j = 1, 2, ..., m,
donde rij y si son constantes para todo i, j. Entonces, C(p) es convexo para
p ≥ 0, 5.
La demostraci´n se puede ver en [5]
o
Ejemplos:
1) Se considera el programa estoc´stico con conjunto factible
a
˜
g(x) ≥ ξ, (1.10)
T
en donde x ∈ Rn , g(x) = (g1 (x), g2 (x), ..., gm (x)) no contiene ning´n elemneto
u
˜ ˜ ˜ ˜
aleatorio y ξ = ξ1 , ξ2 , ..., ξm es un vector aleatorio de dimensi´n m.
o
En este caso para p ∈ [0, 1] se tiene que el conjunto factible del determinista
equivalente para restricciones de azar conjuntas es
C(p) = {x ∈ Rn | P (ξ | g(x) ≥ ξ) ≥ p} =
= x ∈ Rn | Fξ (g(x)) ≥ p ,
˜
˜ o o ˜
en donde Fξ es la funci´n de distribuci´n del vectora aleatorio ξ.
Para pi ∈ [0, 1], considerando restricciones de azar individuales se tiene que
Ci (pi ) = {x ∈ Rn | P (ξi | gi (x) ≥ ξi ) ≥ pi } =
= x ∈ Rn | Fξi (gi (x)) ≥ pi = {x ∈ Rn | gi (x) ≥ γi } ,
˜
−1
en donde γi = Fξ (pi ) .
˜ i
2) Se considera el programa estoc´stico lineal (1.7) y su determinista equiva-
a
lente (1.9) para restricciones de azar separadas. Sea la restricci´n estoc´stica
o a
T
Ti ξ˜ x ≥ hi ξ de la forma tT x ≥ h, siendo tT , h
˜ ˜ ˜ ˜ ˜ un vector aleato-
rio con distribuci´n conjunta normal de media µ ∈ Rn+1 , y matriz de varian-
o
zas y covarianzas V , de dimensi´n (n + 1) × (n + 1) . Calculemos su correspon-
o
diente restricci´n en el determinista equivalente (para restricciones de azar sepa-
o
T T
radas). P | tT x ≥ h = P tT , h | xT t − h ≥ 0 = P (η | η(x) ≥ 0) ,
tT , h
˜ ˜ ˜
en donde η (x) = xT t − h. La variable aleatoria η es normal (unidimensional),
˜
por ser combinaci´n lineal de variables conjuntamente normales. Su media es
o
n
mη (x) =
˜ µj xj − µn+1 , y su varianza es ση (x) = z(x)T V z(x), donde z(x) =
2
˜
j=1
Rect@ Monogr´fico 2 (2004)
a
10. 12 Programaci´n Estoc´stica
o a
T
(x1 , x2 , ..., xn , −1) .
η (x) − mη (x)
˜ ˜ −mη (x)
˜
P (˜ (x) ≥ 0) ≥ pi ⇐⇒ P
η ≥ ≥ pi . ⇐⇒
ση (x)
˜ ση (x)
˜
η (x) − mη (x)
˜ ˜ −mη (x)
˜ −mη (x)
˜
1−P < ≥ pi ⇐⇒ 1 − Φ ≥ pi ,
ση (x)
˜ ση (x)
˜ ση (x)
˜
donde Φ es la funci´n de distribuci´n de la normal de media cero y varianza 1.
o o
Por tanto, la restricci´n de azar correspondiente queda como:
o
−mη (x)
˜ −mη (x)
˜
1−Φ ≥ pi ⇐⇒ Φ ≤ 1 − pi ⇐⇒
ση (x)
˜ ση (x)
˜
−mη (x)
≤ Φ−1 (1 − pi ) ⇐⇒ −Φ−1 (1 − pi ) ση (x) − mη (x) ≤ 0.
˜
⇐⇒ ˜ ˜
ση (x)
˜
El conjunto de los x ∈ Rn que verifican esa condici´n es convexo si y s´lo si
o o
−1
Φ (1 − pi ) ≤ 0, lo cual se verifica si y s´lo si pi ≥ 0, 5.
o
Pueden encontrarse m´s ejemplos en [14], [27], [28], [30], [33], [35]. En [26] se
a
presenta una aplicaci´n muy interesante.
o
4 Funci´n objetivo aleatoria
o
Consideremos el siguiente problema estoc´stico, en el que todas las restriccio-
a
nes son determin´
ısticas y la funci´n objetivo es aleatoria.
o
m´
ın ˜
g0 (x, ξ),
˜
x (1.11)
sujetoa : x ∈ X
El conjunto factible X ⊂ Rn est´ compuesto por restricciones determin´
a ısticas,
bien porque lo sean de manera natural, bien porque se haya obtenido el determi-
nista equivalente utilizando el m´todo de restricciones de azar.
e
Se trata de transformar el objetivo estoc´stico en su determinista equivalente.
a
Ello puede hacerse utilizando distintos criterios, que vamos a ver a continuaci´n,
o
siguiendo el enfoque de los trabajos [6] y [27].
4.1 Algunos conceptos de soluci´n
o
a) Criterio del valor esperado.
˜ ˜
Se convierte la variable aleatoria g0 (x, ξ) en una funci´n determin´
o ıstica to-
mando la esperanza matem´tica
a
˜
E[˜0 (x, ξ)].
g
Rect@ Monogr´fico 2 (2004)
a
11. E. Cerd´, J. Moreno
a 13
El determinista equivalente del problema estoc´stico (1.11) ser´
a a
m´
ın ˜
E[˜0 (x, ξ)],
g
x (1.12)
sujeto a : x ∈ X
Para resolver el problema de programaci´n estoc´stica siguiendo este criterio,
o a
basta con conocer el valor esperado de la funci´n objetivo estoc´stica y, por tanto,
o a
es aplicable a´n en el caso en el que se desconozca la distribuci´n de probabilidad
u o
˜
de la variable aleatoria g0 (x, ξ).
˜
En [29] se se˜ala que para que este criterio sea considerado apropiado se deben
n
cumplir dos condiciones:
1) El sistema debe repetir su realizaci´n de manera independiente un gran
o
n´mero de veces, para asegurar que la media de los resultados sea bastante
u
pr´xima al valor esperado.
o
2) La magnitud de la variaci´n del resultado no debe ser grande. En otro caso
o
nuestra pol´
ıtica optima puede llevar al sistema a la bancarrota antes de que
´
la deseada media a largo plazo pueda ser alcanzada.
En muchas situaciones pr´cticas estas condiciones no se cumplen y, por tanto,
a
este criterio no deber´ ser utilizado en tales casos.
ıa
ınima varianza.
b) Criterio de m´
˜ ˜
Se convierte la variable aleatoria g0 (x, ξ) en una funci´n determin´
o ıstica to-
mando su varianza: V ar[˜0 (x, ξ)]
g ˜ = E[(˜0 (x, ξ))2 ] − {E[˜0 (x, ξ)]}2 .
g ˜ g ˜
La utilizaci´n de este criterio da lugar a la elecci´n de aquel vector x para
o o
˜ ˜
el que la variable aleatoria g0 (x, ξ) est´ m´s concentrada alrededor de su valor
a a
esperado, de manera que el determinista equivalente seg´n el criterio de m´
u ınima
varianza puede interpretarse como una medida de error cuadr´tico. a
El criterio de optimizaci´n es el de m´
o ınima varianza tanto si se trata de mini-
mizar la funci´n objetivo (como estamos suponiendo en este trabajo) como si se
o
trata de maximizarlo.
Para poder utilizar este criterio es suficiente con que se conozca la varianza
˜ ˜
de la variable aleatoria g0 (x, ξ). No hace falta que se conozca su distribuci´n de
o
probabilidad.
El determinista equivalente del problema estoc´stico (1.11), seg´n el criterio
a u
de m´ınima varianza ser´a
m´
ın ˜
V ar[˜0 (x, ξ)]
g
x (1.13)
sujeto a : x ∈ X
Rect@ Monogr´fico 2 (2004)
a
12. 14 Programaci´n Estoc´stica
o a
c) Criterio de eficiencia valor esperado desviaci´n est´ndar.
o a
Este concepto de eficiencia fue introducido por Markowitz en 1952 para resol-
ver problemas de selecci´n de carteras en el campo de las finanzas. V´ase [22] y
o e
tambi´n [23] y [24].
e
ıtica x0 que sea eficiente en el sentido de Markowitz.
Se trata de elegir una pol´
Expliquemos su significado:
˜ ˜
Sean µ (x) = E[˜0 (x, ξ)], σ 2 (x) = V ar[˜0 (x, ξ)].
g g
Se tiene que verificar que no existe ning´n x ∈ X para el cual se tenga que
u
µ(x) = µ(x0 ) y σ(x) < σ(x0 ), o bien σ(x) = σ(x0 ) y µ(x) < µ(x0 ).
El conjunto de puntos eficientes normalmente tiene infinitos elementos. Por
tanto, normalmente este criterio no especifica un unico punto como soluci´n
´ o
o
´ptima. Si se quiere llegar a “una“ soluci´n optima habr´ que a˜adir otras con-
o ´ a n
sidereciones al conjunto obtenido de puntos eficientes.
El c´lculo de soluciones eficientes valor esperado desviaci´n est´ndar se tra-
a o a
duce en el c´lculo de soluciones eficientes del siguiente problema biobjetivo de-
a
terminista equivalente:
m´
ın ˜ ˜
E[˜0 (x, ξ)], V ar[˜0 (x, ξ)] ,
g g
x (1.14)
sujeto a : x ∈ X
d) Criterio de m´
ınimo riesgo.
Este criterio fue introducido por Bereanu [3] con el nombre de criterio de
m´ınimo riesgo y por Charnes y Cooper [9] con el nombre de P-modelo.
Se trata de maximizar la probabilidad de que la funci´n objetivo sea menor
o
o igual que cierto valor previamente establecido. Por tanto, para resolver el
problema hay que fijar un nivel para la funci´n objetivo estoc´stica, λ ∈ R,
o a
al que se denomina nivel de aspiraci´n, y maximizar la probabilidad de que el
o
˜
objetivo sea menor o igual que ese nivel: P g0 (x, ξ) ≤ λ .
˜
La idea del nivel de aspiraci´n es que “como mucho el valor objetivo sea λ”.
o
El determinista equivalente del problema estoc´stico (1.11), seg´n el criterio
a u
de m´ınimo riesgo ser´a
m´x
a ˜ ˜
P g0 (x, ξ) ≤ λ ,
x (1.15)
sujeto a : x ∈ X
a ˜ ˜ a g ˜
Teniendo en cuenta que m´x P g0 (x, ξ) ≤ λ = m´x 1 − P {˜0 x, ξ > λ} =
x x
ın ˜ ˜
1 − m´ P g0 (x, ξ) > λ , el problema (1.15) es equivalente a
x
m´
ın ˜
P g0 (x, ξ) > λ ,
˜
x
sujeto a : x ∈ X,
Rect@ Monogr´fico 2 (2004)
a
13. E. Cerd´, J. Moreno
a 15
y el problema puede interpretarse como la minimizaci´n del riesgo de que la
o
funci´n objetivo sobrepase el nivel de aspiraci´n λ.
o o
Si el problema a resolver consistiera en maximizar la funci´n objetivo (en lugar
o
de minimizar como estamos considerando), es decir, si el problema original fuera
m´x
a ˜
g0 (x, ξ),
˜
x
sujeto a : x ∈ X
el problema de m´
ınimo riesgo determinista equivalente ser´
ıa
m´x
a ˜ ˜
P g0 (x, ξ) ≥ λ ,
x
sujeto a : x ∈ X
En este caso la idea del nivel de aspiraci´n es que “el valor objetivo al menos
o
sea λ”.
e) Criterio de Kataoka o criterio β−fractil
El criterio fue introducido por Kataoka [20].
Se comienza fijando por el decisor una probabilidad β ∈ (0, 1) para la funci´n
o
objetivo y se determina el menor nivel que puede alcanzar la funci´n objetivo
o
con esa probabilidad. En concreto, el determinista equivalente del problema es-
toc´stico (1.11), seg´n el criterio de Kataoka1 ser´:
a u a
m´
ın λ
(xT ,λ)
˜
sujeto a : P g0 x, ξ ≤ λ = β,
˜
x∈X
Si el problema a resolver consistiera en maximizar la funci´n objetivo (en lugar
o
de minimizar como estamos considerando), es decir, si el problema original fuera
m´
ın ˜
g0 x, ξ ,
˜
x
sujeto a : x ∈ X
el problema de Kataoka determinista equivalente ser´
ıa
m´
ın λ
(xT ,λ)
˜
sujeto a : P g0 x, ξ ≥ λ = β,
˜
x∈X
1 En trabajos posteriores al de Kataoka otros autores como Stancu-Minasian [33] plantean el
problema con restricci´n probabil´
o ˜ ˜
ıstica de desigualdad: P g0 x, ξ ≤ λ ≥ β. Se demuestra
˜
que si la variable aleatoria g0 x, ξ es continua el resultado del problema es el mismo en ambos
˜
casos.
Rect@ Monogr´fico 2 (2004)
a
14. 16 Programaci´n Estoc´stica
o a
Comparando los tres primeros criterios con los dos ultimos (que se llaman de
´
m´xima probabilidad) aparecen algunas diferencias:
a
• En el criterio de m´
ınimo riesgo se fija el nivel de aspiraci´n y en el criterio
o
de Kataoka se fija la probabilidad, luego ambos dependen de los valores que
se asignen a estos par´metros, mientras que en los tres primeros casos no
a
hay que fijar ning´n par´metro.
u a
• En los criterios valor esperado, m´
ınima varianza y eficiencia valor esperado
desviaci´n est´ndar s´lo necesita conocerse la esperanza t/o la varianza ,
o a o
no haciendo falta la distribuci´n de probabilidad.
o
La elecci´n de un criterio u otro deber´ realizarse en base a las caracter´
o a ısticas
del rpoblema y a las preferencias del decisor. De todas formas, los cinco cri-
terios est´n relacionados entre s´ dado que cada uno de ellos utiliza diferentes
a ı,
caracter´ısticas de la funci´n objetivo.
o
4.2 Relaciones entre las soluciones seg´n los distintos cri-
u
terios
En [6] se obtienen algunos resultados para problemas estoc´sticos como (1.11)
a
que cumplen algunas condiciones adicionales. Veamos algunos de dichos resulta-
dos.
Consideremos el problema estoc´stico (1.11) en el que suponemos ahora que
a
el conjunto de soluciones factibles X ⊂ Rn es no vac´ cerrado, acotado y con-
ıo,
˜
vexo. Suponemos tambi´n que ξ es un vector aleatorio definido sobre un con-
e
junto E ⊂ Rs cuyas componentes son variables aleatorias continuas y cuya distri-
buci´n de probabilidad es independiente de las variables de decisi´n del problema
o o
x1 , x2 , ..., xn .
Las demostraciones de todas las proposiciones que presentamos a continuaci´n
o
se encuentran en [6].
Proposici´n 4.1 Se considera el problema estoc´stico (1.11) con las hip´tesis
o a o
adicionales introducidas en este subapartado.
a) Si la soluci´n ´ptima del problema seg´n el criterio del valor esperado es
o o u
unica, entonces es una soluci´n eficiente valor esperado desviaci´n est´ndar. Si
´ o o a
no es unica s´lo se puede asegurar que las soluciones optimas valor esperado
´ o ´
son soluciones d´bilmente eficientes valor esperado desviaci´n est´ndar, pero no
e o a
tienen por qu´ ser eficientes valor esperado desviaci´n est´ndar.
e o a
b) Si la varianza de la funci´n objetivo es una funci´n estrictamente convexa,
o o
el problema de varianza m´ ınima tiene soluci´n unica que es una soluci´n eficiente
o ´ o
valor esperado desviaci´n est´ndar. Si no es unica s´lo se puede asegurar que las
o a ´ o
Rect@ Monogr´fico 2 (2004)
a
15. E. Cerd´, J. Moreno
a 17
soluciones optimas de m´
´ ınima varianza son soluciones d´bilmente eficientes valor
e
esperado desviaci´n est´ndar, pero no tienen por qu´ ser eficientes valor esperado
o a e
desviaci´n est´ndar.
o a
La siguiente proposici´n establece relaci´n entre las soluciones ´ptimas seg´n
o o o u
los criterios de m´
ınimo riesgo y de Kataoka.
Proposici´n 4.2 Se considera el problema estoc´stico (1.11) con las hip´tesis
o a o
adicionales introducidas en este subapartado. Supongamos que la funci´n de
o
o ˜ ˜
distribuci´n de la variable aleatoria g0 (x, ξ) es estrictamente creciente. Entonces
x∗ es la soluci´n de m´
o ınimo riesgo para el nivel de aspiraci´n λ∗ si y s´lo si
o o
∗T ∗ T ∗ ∗ ∗
x ,λ es la soluci´n de Kataoka con probabilidad β , con λ y β verificando
o
˜ ≤ λ∗ = β ∗ .
P g0 (x, ξ)
˜
A la vista de la proposici´n anterior se puede asegurar que en las condiciones
o
que estamos considerando en este subapartado:
• Para cada nivel de aspiraci´n λ, la soluci´n de m´
o o ınimo riesgo es tambi´n la
e
soluci´n de Kataoka con una probabilidad β igual a la m´xima probabilidad
o a
obtenida en el problema de m´ ınimo riesgo.
• Para cada valor β fijado, la soluci´n de Kataoka es tambi´n soluci´n de
o e o
m´ınimo riesgo para un nivel de aspiraci´n igual al valor optimo del problema
o ´
de Kataoka.
En [6] se establecen tambi´n relaciones entre soluciones de Kataoka y solucio-
e
nes eficientes valor esperado desviaci´n est´ndar para algunos tipos de programas
o a
estoc´sticos lineales.
a
4.3 Ejemplo
Como ejemplo vamos a considerar el caso de funci´n objetivo lineal con dis-
o
tribuci´n de probabilidad normal.
o
Sea el programa estoc´stico lineal
a
m´
ın ˜
ξ T x,
x (1.16)
sujeto a : x ∈ X
El conjunto factible X ⊂ Rn est´ compuesto por restricciones determin´
a ısticas,
bien porque lo sean de manera natural, bien porque se haya obtenido el determi-
nista equivalente utilizando el m´todo de restricciones de azar. Se supone que el
e
˜
vector aleatorio ξ sigue una distribuci´n de probabilidad normal multivariante,
o
¯
con valor esperado ξ y matriz de varianzas y covarianzas S definida positiva.
Rect@ Monogr´fico 2 (2004)
a
16. 18 Programaci´n Estoc´stica
o a
˜
En estas condiciones la variable aleatoria ξ T x es normal con valor esperado
˜T ¯
¯T x y varianza xT Sx. Por tanto se tiene que ξ√x−ξT x es una variable aleatoria
ξ
xT Sx
N (0, 1) (normal con valor esperado 0 y desviaci´n t´
o ıpica 1).
A continuaci´n se calcula el determinista equivalente del programa estoc´stico
o a
(1.16) para cada uno de los criterios considerados en este apartado.
a) Criterio del valor esperado
ın
m´ ¯
ξ T x,
x
sujeto a : x ∈ X
b) Criterio de m´
ınima varianza
m´
ın xT Sx,
x
sujeto a : x ∈ X
c) Criterio de eficiencia valor esperado desviaci´n est´ndar
o a
√
m´
ın ¯
ξ T x, . xT Sx ,
x
sujeto a : x ∈ X
d) Criterio de m´
ınimo riesgo de nivel λ
m´x
a ˜
P ξT x ≤ λ ,
x (1.17)
sujeto a : x ∈ X
Pero
˜ ¯
ξT x − ξT x ¯
λ − ξT x ¯
λ − ξT x
˜
P ξT x ≤ λ = P √ ≤ √ =Φ √ , (1.18)
xT Sx xT Sx xT Sx
donde Φ es la funci´n de distribuci´n de la N (0, 1), que es estrictamente creciente,
o o
¯
λ − ξT x ¯
λ − ξT x
por lo que m´x P ξ T x ≤ λ = m´x Φ √
a ˜ a = Φ m´x √ a , y el
x x xT Sx x xT Sx
problema (1.17) es equivalente a
¯
λ − ξT x
m´x
a √
x xT Sx (1.19)
sujeto a : x ∈ X.
Una vez resuelto este problema, la probabilidad m´xima para la que se puede
a
asegurar que la funci´n objetivo estoc´stica es menor o igual que el nivel de
o a
¯
λ − ξT x
aspiraci´n fijado λ, es: Φ m´x √
o a .
x xT Sx
Rect@ Monogr´fico 2 (2004)
a
17. E. Cerd´, J. Moreno
a 19
e) Criterio de Kataoka o criterio β−fractil
m´
ın λ
(xT ,λ)
˜
sujeto a : P ξ T x ≤ λ = β,
x∈X
Teniendo en cuenta (1.18), y que la funci´n de distribuci´n Φ es estricta-
o o
¯
λ−ξ T x ¯
λ−ξ T x
mente creciente, se tiene que Φ √ T = β ⇐⇒ √ T = Φ−1 (β) ⇐⇒ λ =
√ x Sx x Sx
Φ−1 (β) xT Sx + ξ T x, por lo que el problema (4.11) se puede expresar:
¯
m´
ın λ
(xT ,λ)
√
sujeto a λ = Φ−1 (β) xT Sx + ξ T x,
¯
x∈X
y este problema es equivalente al problema con n variables de decisi´n:
o
√
m´
ın Φ−1 (β) xT Sx + ξ T x,
¯
x
sujeto a : x ∈ X.
Este problema es convexo para β ≥ 0, 5. Una vez resuelto este problema, el
menor nivel λ para el que podemos afirmar que la funci´n objetivo no supera ese
√ o
−1 ¯
T Sx + ξ T x.
nivel con probabilidad β es λ = m´ Φ (β) x
ın
x
5 Bibliograf´
ıa
´
[1] Alvarez, F., Cerd´, E. “A Solution Method for a Class of Learning by Doing
a
Models with Multiplicative Uncertainty“. Top, 7, 1, 1-23, 1999.
[2] Beale, E.M.L., “On Minimizing a Convex Function Subject to Linear Ine-
qualities“. Journal of the Royal Statistical Society, B 17, 173-184, 1955.
[3] Bereanu, B. “Programme de Risque Minimal en Programmation Lin´aire
e
Stochastique“. C. R. Acad. Sci. Paris, 259, 981-983, 1964.
[4] Bereanu, B. The Generalized Distribution Problem of Stochastic Linear Pro-
gramming. Symposia Matematica. Academic Press, 1976.
[5] Birge, J.R., Louveaux, F.V. Introduction to Stochastic Programming. Sprin-
ger, 1997.
[6] Caballero, R., Cerd´, E., Mu˜oz, M.M., Rey, L. “Analysis and Comparisons
a n
of Some Solution Concepts for Stochastic Programming Problems“. Top,
10(1), 101-124, 2002.
Rect@ Monogr´fico 2 (2004)
a
18. 20 Programaci´n Estoc´stica
o a
[7] Charnes, A., Cooper, W.W. “Chance-Constrained Programming“. Manage-
ment Science, 5, 73-79, 1959.
[8] Charnes, A., Cooper, W.W., Symonds, G.H. “Cost Horizons and Certainty
Equivalents: An Approach to Stochastic Programming of Heating Oil“. Ma-
nagement Science, 4, 235-263, 1958.
[9] Charnes, A., Cooper, W.W. “Deterministic Equivalents for Optimizing and
Satisfying under Chance Constraints“. Operations Research, 11, 1, 18-39,
1963.
[10] Dantzig, G.B. “Linear Programming under Uncertainty“. Management
Science, 1, 197-206, 1955.
[11] Dantzig, G.B. “Planning under Uncertainty“. Annals of Operations Research,
85, 1999.
[12] Dempster, M.A.H. Stochastic Programming. Academic Press, 1980.
[13] Diwelar, U. “Optimization under Uncertainty: An Overview“. SIAG/OPT
Views -and-News, 13,11-8, 2002
[14] Goicoechea, A., Hansen, D.R., Duckstein, L. Multiobjective Decision Analy-
sis with Engineering and Business Applications. John Wiley and Sons, 1982.
[15] Hammer, P.L. Stochastic Programming. State Of The Art, 1998. Annals of
Operations Research, Vol 85, 1999.
[16] Higle, J.L., Sen, S. Stochastic Decomposition. Kluwer Academic Publishers,
1996.
[17] Kall, P. Stochastic Linear Programming. Springer-Verlag, 1976.
[18] Kall, P. “Stochastic Programming“. European Journal of Operational Re-
search, 10, 125-130, 1982.
[19] Kall, P., Wallace, S.W. Stochastic Programming. John Wiley, 1994.
[20] Kataoka, S. “A Stochastic Programming Model“. Econometrica, 31, 1-2,
186-196, 1963.
[21] Kibzun, A.I., Kan, I.S. Stochastic Programming Problems with Probability
and Quantile Functions. John Wiley, 1996.
[22] Markowitz, H. “Portfolio Selection“. The Journal of Finance, 7, 77-91, 1952.
[23] Markowitz, H. Portfolio Selection: Efficient Diversification of Investment.
Cowles Commission Monograph 16, John Wiley and Sons, 1959.
Rect@ Monogr´fico 2 (2004)
a
19. E. Cerd´, J. Moreno
a 21
[24] Markowitz, H. Mean Variance Analysis in Portfolio Choice and Capital Mar-
kets. Blackwell, 1987.
[25] Marti K. (ed). Stochastic Optimization. Numerical Methods and Technical
Applications. Lecture Notes in Economics and Mathematical Systems 379.
Springer-Verlag, 1992.
[26] Medova, E. “Chance Constrained Stochastic Programming for Integrated
Services Network Management“. Annals of Operations Research, 81,213-
229,1998.
[27] Mu˜oz M.M. Programaci´n Estoc´stica: Algunas Aportaciones Te´ricas
n o a o
y Computacionales. Tesis Doctoral. Universidad Complutense de Madrid,
1998.
[28] Prawda, J. M´todos y Modelos de Investigaci´n de Operaciones. Vol. 2. Mo-
e o
delos Estoc´sticos. Ed. Limusa, 1980.
a
[29] Prekopa, A. Stochastic Programming. Kluwer Academic Publishers, 1995.
[30] R´ Insua, S. Investigaci´n Operativa. Optimizaci´n. Editorial Centro de
ıos o o
Estudios Ram´n Areces, S.A. Segunda Edici´n, 1993.
o o
[31] Ruszczynski, A., Shapiro, A. (ed). Stochastic Programming. Handbooks in
Operations Research and Management Science, Vol 10. Norh-Holland, 2003.
[32] Sen, S., Higle, J.L. “An Introductory Tutorial on Stochastic Linear Program-
ming Models“. Interfaces, 29:2, 33-61, 1999.
[33] Stancu-Minasian, I.M. Stochastic Programming with Multiple Objective
Functions. D. Reidel Publishing Company, 1984.
[34] Stancu-Minasian, I.M., Wets, M.J. “A Research Bibliography in Stochastic
Programming 1955-1975“. Operations Research, 24, 1078-1119, 1976.
[35] Vajda, S. Probabilistic Programming. Academic Press, 1972.
[36] Wets, R.J.B. “Stochastic Programming“. En NEmhauser, G.L., Rinnooy
Kan, A.H.G., Todd, M.J. (ed). Optimization. Vol. 1 North-Holland, 1989.
Rect@ Monogr´fico 2 (2004)
a