miércoles, 25 de mayo de 2011

Dinámica de Turismo


Análisis de decisiones para los negocios


Los temas se fundamentan en la Teoría Matemática de la Administración. Las personas que están involucradas con la Toma de Decisiones, necesitan de instrumentos matemáticos para ciertas decisiones de carácter repetitivo, posibles de ser programables, las cuales pueden presentarse en niveles de decisión operativos, tácticos e incluso estratégicos.

El objetivo es reconocer las nociones fundamentales de la teoría de decisiones para aplicarlas en el análisis, formulación y evaluación de situaciones reales y en condiciones de mayor incertidumbre.



La teoría de decisiones proporciona una manera útil de clasificar modelos para la toma de decisiones. Se supondrá que se ha definido el problema, que se tienen todos los datos y que se han identificado los cursos de acción alternativos. La tarea es entonces seleccionar la mejor alternativa. la teoría de decisiones dice que esta tarea de hacer una selección caerá en una de las cuatro categorías generales dependiendo de la habilidad personal para predecir las consecuencias de cada alternativa.

 
   Categorías
Consecuencias
Certidumbre
Deterministas
Riesgo
Probabilísticas
Incertidumbre
Desconocidas
Conflicto
Influidas por un oponente
TOMA DE DECISIONES BAJO CERTIDUMBRE

Si se pueden predecir con certeza las consecuencias de cada alternativa de acción.
Otra manera de pensar en esto es que existe una relación directa de causa y efecto entre cada acto y su consecuencia:
 
Si hace frío, ¿deberá llevarse un abrigo?, Si se necesita comprar artículos para la oficina, ¿dónde se deberán comprarlos? Ya sea que se lleve o no el abrigo o dónde se comprarán los artículos de la oficina, las consecuencias son predecibles.
 
Algunos de los modelos o técnicas ya conocidas utilizados para manejar estas decisiones son:
-       Análisis del punto de equilibrio
-       Programación Lineal
-       Programación de la producción
-       Control de Inventarios


TOMA DE DECISIONES BAJO INCERTIDUMBRE

En los procesos de decisión bajo incertidumbre, el decisor conoce cuáles son los posibles estados de la naturaleza, aunque no dispone de información alguna sobre cuál de ellos ocurrirá. No sólo es incapaz de predecir el estado real que se presentará, sino que además no puede cuantificar de ninguna forma esta incertidumbre. En particular, esto excluye el conocimiento de información de tipo probabilístico sobre las posibilidades de ocurrencia de cada estado.

Reglas de decisión

A continuación se describen las diferentes reglas de decisión en un ambiente de incertidumbre:
-       Criterio de Wald
-       Criterio Maximax
-       Criterio de Hurwicz
-       Criterio de Savage
-       Criterio de Laplace

Para trabajar con los criterios utilizaremos la siguiente matriz:
<>
<>
<>
<>


Estados

Alternativas


e1
e2
. . .
en
a1
x11
x12
. . .
x1n
a2
x21
x22
. . .
x2n
. . .
. . .
. . .
. . .
. . .
am
xm1
xm2
. . .
xmn

Tabla de decisión como ejemplo

.
S1
S2
S3
E1
60
50
40
E2
10
40
70


1.       CRITERIO DE LAPLACE O RACIONALISTA

Este criterio está basado en el principio de razón insuficiente: como a priori no existe ninguna razón para suponer que un estado se puede presentar antes que los demás, podemos considerar que todos los estados tienen la misma probabilidad de ocurrencia, es decir, si no se conocen las probabilidades de cada uno de los estados, no hay razón para pensar que uno tenga más probabilidad que otros.

Así, para un problema de decisión con “n” posibles estados de la naturaleza, asignaríamos probabilidad “1/n” a cada uno de ellos. Calculamos las medias aritméticas de cada alternativa y elegimos aquella con valor medio más favorable.

La regla de Laplace selecciona como alternativa óptima aquella que proporciona un mayor resultado esperado:

60+50+40 = 50 (favorable)                           10+40+70 = 40 (desfavorable)   

            3                                                                   3



2.       CRITERIO OPTIMISTA (MAXIMAX)

Consiste en especificar el beneficio estimado más alto de cada estrategia y seleccionar aquella que corresponde al más alto de este grupo de beneficios. Este es un criterio marcadamente optimista mediante el cual se asume que todas o casi todas las circunstancias van a propiciar el beneficio más alto entre todos los estimados. Este criterio conlleva un alto grado de riesgo  de que los resultados se den peores de lo planificado, pero persigue el más lato beneficio posible como recompensa.



                E1 favorable = 60             E2 favorable = 70                            Maxi-max  = 70 à E2





3.       CRITERIO DE WALD O PESIMISTA (MAXIMIN)

Este es el criterio más conservador ya que está basado en lograr lo mejor de las peores condiciones posibles.

Esto es, si el resultado x(ai, ej) representa pérdida para el decisor, entonces, para ai la peor pérdida independientemente de lo que ej pueda ser, es máx ej { x(ai, ej) }.


Corresponde a un pensamiento pesimista, pues razona sobre lo peor que le puede ocurrir al decisor cuando elige una alternativa.
                E1 = 40  E2 = 10  Maxi-min = 10 à E2


4.       CRITERIO DE HURWICZ U OPTIMISMO PARCIAL

Representa un intervalo de actitudes desde la más optimista hasta la más pesimista.

En las condiciones más optimistas se elegiría la acción que proporcione el máx ai máx ej { x(ai, ej) }. Se supone que x(ai, ej), representa la ganancia o beneficio.

De igual manera, en las condiciones más pesimistas, la acción elegida corresponde a  máx ai mín ej { x(ai, ej) }.

El criterio de Hurwicz da un balance entre el optimismo extremo y el pesimismo extremo mediante la introducción de:

Un coeficiente de optimismo “a” entre 0 y 1

y otro coeficiente de pesimismo “1-a

Donde 0 ≤ a ≤ 1



El parámetro a se conoce como índice de optimismo:

Cuando a = 1, el criterio es demasiado optimista;

Cuando a = 0, es demasiado pesimista.

Un valor de a entre cero y uno puede ser seleccionado dependiendo de si el decisor tiende hacia el pesimismo o al optimismo. En ausencia de una sensación fuerte de una circunstancia u otra, un valor de  a = 1/2 parece ser una selección razonable.



El mejor de los resultados se multiplica por “x”

El peor de los resultados se multiplica por “1-x”



H1 = 60 · x + 40 (1-x)

H2 = 70 · x + 10 (1-x)                                   Aplicando 60% = x



H1 = 60 · 0,6 + 40 · 0,4 = 52 favorable

H2 = 70 · 0,6 + 10 · 0,4 = 48 desfavorable





5.       CRITERIO DE SAVAGE (MINIMAX)

Al utilizar los valores xij para realizar la elección, el decisor compara el resultado de una alternativa bajo un estado de la naturaleza con todos los demás resultados, independientemente del estado de la naturaleza bajo el que ocurran. Sin embargo, el estado de la naturaleza no es controlable por el decisor, por lo que el resultado de una alternativa sólo debería ser comparado con los resultados de las demás alternativas bajo el mismo estado de la naturaleza. 

Con este propósito Savage define el concepto de pérdida relativa o pérdida de oportunidad rij asociada a un resultado xij como la diferencia entre el resultado de la mejor alternativa dado que ej es el verdadero estado de la naturaleza y el resultado de la alternativa ai bajo el estado ej.
Así, si el verdadero estado en que se presenta la naturaleza es ej y el decisor elige la alternativa ai que proporciona el máximo resultado xij, entonces no ha dejado de ganar nada, pero si elige otra alternativa cualquiera ar , entonces obtendría como ganancia xrj y dejaría de ganar xij-xrj.
Savage propone seleccionar la alternativa que proporcione la menor de las mayores pérdidas relativas, es decir, si se define ri como la mayor pérdida que puede obtenerse al seleccionar la alternativa ai,


ÁRBOL DE DECISIONES

Un árbol de decisión es una forma gráfica y analítica de representar todos los sucesos que pueden surgir a partir de una decisión asumida en cierto momento.
Nos ayudan a tomar la decisión “más acertada”, desde un punto de vista probabilístico, ante un abanico de posibles decisiones.
Permite desplegar visualmente un problema y organizar el trabajo de cálculos que deben realizarse.

Terminología
Nodo de decisión: Indica que una decisión necesita tomarse en ese punto del proceso.
Nodo de probabilidad: Indica que en ese punto del proceso ocurre un evento aleatorio.
Rama: Nos muestra los distintos caminos que se pueden emprender cuando tomamos una decisión o bien ocurre algún evento aleatorio.
Gráficamente
Pasos

-       Definir el problema.
-       Dibujar el árbol de decisión.
-       Asignar probabilidades a los eventos aleatorios.
-       Estimar los resultados para cada combinación posible de alternativas.
-       Resolver el problema obteniendo como solución la ruta que proporcione la política óptima.


Ejemplo: Decidir si es mejor desarrollar un nuevo producto o consolidar los existentes.


Programación dinámica_Componentes de Sistema


miércoles, 18 de mayo de 2011

Problemas Programación Dinámica_Taha

El problema de programación de la producción de un producto las 3 semanas siguientes. El costo unitario de producción es de $100 para las 2 primeras semanas y $150 para las dos últimas. Las demás semanas son 5,3 y 8 unidades respectivamente y tienen que ser satisfechas. Las plantas pueden producir un máximo de 7 semanales. Además, se pueden emplear horas extras durante 2 últimas semanas, esto incrementa la producción en 2 unidades por semana, pero el costo de producción sube en $20 por unidad extra. El exceso de producción se puede almacenar a un costo unitario de $3 por semana. Si al inicio se tiene 1 unidad de inventario y se desea tener al final 2 unidades ¿Cuál debe ser el plan de producción?




miércoles, 11 de mayo de 2011

Problemas de Programación Dinámica Determinística

Problema 1:  Cierto estudiante desea destinar los siete días de la semana próxima a estudiar cuatro cursos. Necesita al menos un día para cada curso y el puntaje que puede lograr se da en la siguiente tabla:

Días de estudio
Curso 1
Curso 2
Curso 3
Curso 4
1
13
15
12
16
2
15
15
12
16
3
16
16
17
19
4
17
19
18
19


¿Cuántos días debe estudiar cada curso para lograr un puntaje?








Richard Bellman y la Programación Dinámica

Richard Ernest Bellman (1920 - 1984) fue un matemático aplicado, célebre por su invención de la programación dinámica en 1953, y sus importantes contribuciones en otros campos de las matemáticas.



Biografía

Bellman nació en 1920 en Nueva York, donde su padre John James Bellman tenía una tienda de abarrotes en Bergen Street, cerca de Prospect Park en Brooklyn. Bellman completó sus estudios en la Abraham Lincoln High School en 1937, y estudió matemáticas en el Brooklyn College, donde obtuvo su licenciatura en 1941. Más tarde obtuvo una maestría de la Universidad de Wisconsin-Madison. Durante la Segunda Guerra Mundial trabajó para un grupo de Física Teórica de la División de Los Álamos. En 1946 recibió su doctorado
en Filosofía (Ph.D.) de Princeton bajo la supervisión de Salomón Lefschetz. A partir de 1949 Bellman trabajado durante muchos años en la corporación RAND y fue durante este tiempo que él desarrolló de programación dinámica.

Fue profesor en la Universidad del Sur de California, miembro de la Academia Americana de las Artes y las Ciencias (1975), y miembro de la Academia Nacional de Ingeniería (1977).

Fue galardonado con la Medalla de Honor del IEEE en 1979, "por sus contribuciones a los procesos de decisión y la teoría de sistemas de control, en particular por la creación y aplicación de la programación dinámica". Su obra fundamental es la ecuación de Bellman.

Trabajo

Ecuación de Bellman: Programación Dinámica




Una ecuación de Bellman, también conocida como la ecuación de programación dinámica, es una condición necesaria para la optimalidad asociado con el método de optimización matemática conocida como la programación dinámica. Casi cualquier problema que se puede resolver utilizando la teoría de control óptimo también se puede resolver mediante el análisis de la correspondiente ecuación de Bellman. La ecuación de Bellman se aplicó por primera vez a la teoría de la ingeniería de control y otros temas de matemáticas aplicadas, y, posteriormente, se convirtió en una herramienta importante en la teoría económica.


La programación dinámica es un método para reducir el tiempo de ejecución de un algoritmo mediante la utilización de subproblemas superpuestos y subestructuras óptimas, se utiliza para optimizar problemas complejos que pueden ser discretizados y secuencializados.
Una subestructura óptima significa que se pueden usar soluciones óptimas de subproblemas para encontrar la solución óptima del problema en su conjunto. Por ejemplo, el camino más corto entre dos vértices se puede encontrar calculando primero el camino más corto al objetivo desde todos los vértices adyacentes al de partida, y después usando estas soluciones para elegir el mejor camino de todos ellos.

 En general, se pueden resolver problemas con subestructuras óptimas siguiendo estos tres pasos:

1.     Dividir el problema en subproblemas más pequeños.
2.     Resolver estos problemas de manera óptima usando este proceso de tres pasos     recursivamente.
 3.    Usar estas soluciones óptimas para construir una solución óptima al problema original.



Ecuación de Hamilton-Jacobi-Bellman


La ecuación de Hamilton-Jacobi-Bellman (HJB) es una ecuación diferencial parcial que es fundamental para la teoría de control óptimo. La solución de la ecuación HJB es la "función de valor", que da a la óptima función de los costos un determinado sistema dinámico con una función de costos asociados. Clásicos problemas variacionales, por ejemplo puede resolverse utilizando este método.


La ecuación es el resultado de la teoría de programación dinámica que fue creado en los 50’s por Richard Bellman y compañeros de trabajo. La ecuación correspondiente en tiempo discreto que normalmente se conoce como la ecuación de Bellman. En tiempo continuo, el resultado puede ser visto como una extensión del trabajo anterior en la física clásica en la ecuación de Hamilton-Jacobi por William Rowan Hamilton y Carl Gustav Jacob Jacobi.




Algoritmo de Bellman-Ford


El algoritmo de Bellman-Ford, a veces conocido como el algoritmo de corrección de la etiqueta, calcula un solo proveedor o caminos más cortos en un digrafo ponderado (donde algunos de los valores pueden ser negativos). El algoritmo de Dijkstra logra el mismo problema con un tiempo de baja en ejecución, pero requiere de pesos ventaja de ser no-negativas.

Publicaciones

A lo largo de su carrera ha publicado 619 artículos y 39 libros. Aquí una pequeña selección:




1957. Programación Dinámica
1959.
Comportamiento asintótico de las soluciones de las ecuaciones diferenciales
1961.
Introducción a las desigualdades
1961.
Control de Procesos Adaptativos: Un Tour guiado
1962.
Programación Dinámica Aplicada
1967.
Introducción a la Teoría Matemática de Control de Procesos
1970.
Algoritmos, Grafos y equipos
1972.
Programación Dinámica y Ecuaciones Diferenciales Parciales
1982.
Aspectos matemáticos de Programación y Aplicaciones
1983.
Métodos Matemáticos en Medicina
1984.
Ecuaciones Diferenciales Parciales
1984.
Ojo del huracán: publicación de una autobiografía, Mundo Científico.
1985.
Inteligencia Artificial
1995.
Ecuaciones Diferenciales Elementales modernas
1997. Introducción a Análisis de matrices