Historia de los métodos cuantitativos

4.663 lecturas

Los métodos cuantitativos

El inicio formal de la Investigación Operativa tuvo lugar en Inglaterra a finales de 1939. La finalidad era conseguir la máxima eficiencia posible. Así en Agosto de 1940 el Físico P.M.S Balckett de la Universidad de Manchester fue responsabilizado de formar un grupo de trabajo para estudiar el sistema de defensa antiáerea gobernado por radar.

Foto: Universidad de Manchester Fuente: Wikimedia Commons

Uno de los primeros esfuerzos de este grupo fue dirigido al estudio del ataque áereo a los submarinos. Pero aunque el razonamiento era válido, los resultados obtenidos con esta política eran muy limitados.

En definitiva la profundidad de treinta metros era adecuada cuando el submarino divisaba con antelación al bombardero pero la falta de precisión impedía obtener resultados.

Advertisements

Se llegó a la conclusión de que la alternativa más adecuada era optar por causar daños cuando  el submarino estuviera en la superficie. Los aspectos que caracterizan a los estudios de Investigación Operativa:

  1. Toma Directa de Datos.
  2. Empleo de Modelos matemáticos
  3. Obtención de las políticas óptimas
  4. Modificación de dichas políticas de acuerdo con factores reales no considerados en el modelo.

En Estados Unidos, los fondos para la investigación en el campo militar se incrementaron, por lo que la mayoría de los grupos se consolidaron aumentando su número y tamaño. En cambio en Gran Bretaña los componentes de los grupos se habían desarrollado en el medio militar pasaron a la sociedad civil.

Otro aspecto importante en este contexto es que el desarrollo de la Organización Industrial tradicional en Gran Bretaña había sido más limitado y con la excepción del Estudio del Trabajo era todavía una novedad en los círculos industriales. A mediados de la década de los cincuenta, la investigación operativa se encontraba afianzada en el mundo industrial.

La I.O. utiliza resultados de muchas áreas científicas, aunque su base fundamental se encuentra en la matemática, la economía y el cálculo de probabilidades y estadística.

Los primeros estudios que se etiquetaron como de Investigación Operativa, el aspecto técnico más característico consistió en la estructuración estadística de los datos y el empleo de modelos descriptivos de tipo probabilístico.

Los fundamentos matemáticos de los modelos lineales discretos se encuentran en la teoría de las desigualdades lineales desarrolladas en el siglo pasado. En el resto de los años cincuenta, la Programación Lineal quedó completamente establecida con los trabajos de Charnes sobre la degeneración de Lemke sobre la dualidad, de Dantzing, Orden y Wolfe sobre la forma compacta y la descomposición de grandes programas.

Sin embargo la Programación Lineal Entera no recibe atención hasta finales de esta década en que Gomory obtiene la expresión general. A pesar de las esperanzas que el procedimiento general sigue siendo un campo con métodos limitados e insatisfactorios

En los modelos no Lineales los resultados fundamentales proceden del desarrollo del cálculo matemático en el siglo XVIII, siendo el concepto básico el del Langrangiano.

La Programación no Lineal progresó durante los años sesenta y setenta, pudiendo atacarse la resolución de problemas de tamaño medio con varias decenas de restricciones y algunos cientos de variables.

La Programación Dinámica su inicio y desarrollo básico se debe a Richard Bellman al principio de los cincuenta. Esta metodología no se limita a la Investigación Operativa sino que es también de gran importancia en la Teoría del Control Optimo. Muchos autores aún consideran a la Programación Dinámica como un punto de vista conceptual y un bagaje teórico para el análisis de problemas; y no como un método.

Te puede interesar:  Comida rápidá, comida lenta: ¿cultura o barbarie?

La Teoría de Colas se inicia con el trabajo del ingeniero Dánes A.K. Erlang en la industria telefónica de principios de Siglo. Los modelos más usuales en que tanto la distribución de llegadas al sistema como la del tiempo de servicio son conocidas y pertenecen a categorías bien establecidas. Debe resaltarse la existencia de multitud de lenguajes de simulación a disposición de los usuarios de computadoras de las empresas de mayor importancia en el sector.

La Teoría de Juegos se inicia con los primeros resultados de von Neumann sobre el teorema del minimax en 1926. En cualquier caso, la influencia de esta teoría sobre la organización de la producción ha sido muy limitada.

La Teoría de la Decisión se basa en la estadística Bayesiana y la estimación subjetiva de las probabilidades de los sucesos. En la actualidad se la considera un instrumento válido para la estructuración de la toma de decisiones con incertidumbre cuando la información no es completa.

Desde su origen la Investigación Operativa se encuentra encarada con problemas para los que no existe método analítico alguno que permita obtener, con seguridad y en un tiempo conveniente, el óptimo teórico.

La Investigación de Operaciones ha establecido por tales razones métodos denominados heurísticos, incapaces de proporcionar el óptimo formal, pero susceptibles de llegar a soluciones buenas, tanto más fiables en cuanto que permiten determinar al mismo tiempo un cuota (superior o inferior) del óptimo teórico con el que se comparan.

La gran difusión que ha sufrido el software de optimización debido al incremento en la potencia de cálculo de los ordenadores y abaratamiento del costo de las aplicaciones y el hardware.

Durante los últimos años han aparecido una serie de métodos. Entre ellos se puede enumerar los algoritmos genéticos, el reconocido simulado, la búsqueda tabú y las redes neuronales.

Los algoritmos genéticos fueron introducidos por Holland para imitar algunos de los mecanismos que se observan en la evolución de las especies. Holland creó un algoritmo que genera nuevas soluciones a partir de la unión de soluciones progenitoras, utilizando operadores similares a los de la reproducción, sin necesidad de conocer el tipo de problema a resolver.

Los algoritmos de reconocido simulado no buscan la mejor solución en el entorno de la situación actual sino que generan aleatoriamente una solución cercana y la aceptan como la mejor si tiene menor costo, caso contrario con una cierta probabilidad; esta probabilidad de aceptación irá disminuyendo con el número de iteraciones y está relacionada con el empeoramiento del costo.

El algoritmo de búsqueda Tabú a diferencia de otros algoritmos basados en técnicas aleatorias de búsqueda de soluciones cercanas se utiliza una estrategia basada e el uso de estructuras de memoria para escapara de los óptimos locales en los que se puede caer al moverse de una solución a otra por el espacio de soluciones. Al contrario que sucede con la búsqueda local, se permiten movimientos a soluciones del entorno aunque se produzca un empeoramiento de la función objetivo.

Las Redes Neuronales son modelos analógicos que tienen como objetivo reproducir en la medida de lo posible las características y la capacidad de procesamiento de información del conjunto de neuronas presentes en el cerebro de los seres vivos.


 En resumen, podría decirse que el uso de estas técnicas supone la posibilidad de resolver, de forma practica, problemas de gran complejidad que resultaban intratables mediante técnicas exactas.

Te puede interesar:  Las patatas chips nacieron por una protesta de un comensal.

La Investigación Operativa.

Los denominados Métodos Cuantitativos de Gestión visión especialmente aplicada de la disciplina conocida como Investigación Operativa.

Los objetivos de los métodos cuantitativos están claramente ceñidos al estudio de problemas de toma de decisiones. Las Fases  del método son inmediatas.

  • La primera Fase, formulación del problema, cumple una función primordial, ya que en base a él es posible enjuiciar que aspectos deben analizarse.
  • La segunda Fase consiste en la formulación de un modelo matemático que describe la situación a estudiar. Un modelo es una abstracción p representación simplificada de una parte o segmento de la realidad.

En el modelo se pueden distinguir dos partes: esta representación se apoya generalmente en un lenguaje matemático más o menos sofisticado de acuerdo con las características del estudio que se esté realizando. Una vez finalizada la construcción del modelo se aborda la selección del criterio concreto de valoración de alternativas.


 Tiene primordial importancia el conocimiento de los métodos y técnicas por una     parte sugiere posibilidades para la expresión matemática de las relaciones y por otra proporciona información sobre lo que se le puede pedir y es de esperar que proporcione el modelo.

  • En la Tercera Fase, deducción se soluciones, se requiere un bagaje técnico suficiente que permita obtener las soluciones del modelo, si este es normativo o las características fundamentales del proceso si es predictivo, conociendo de que aspectos depende la modificación de estas características.

La complejidad consustancial de los problemas conduce a la imposibilidad de obtención de las soluciones óptimas. En tales casos la generación de reglas heurísticas puede conducir a revelar nuevas formas de actuar en la práctica.

Indispensable en este caso resulta el conocimiento asociado al análisis y diseño y   codificación de algoritmos.

  • En la cuarta Fase es necesario discernir entre las soluciones reveladas en la fase anterior, eligiendo una de ellas  o una síntesis de varias. La última fase trae consigo la caracterización en todos sus detalles de la decisión tomada.

MÉTODOS CUANTITATIVOS DE GESTIÓN

La formación de Métodos Cuantitativos de Gestión tiene como objetivo la formación del alumno en los conceptos y técnicas básicas de la Investigación Operativa, así como en el empelo de modelos matemáticos para la resolución de problemas de Gestión e Ingenieria y en el análisis y desarrollo de algoritmos básicos y herramientas para la optimización.

PROGRAMACIÓN LINEAL

La Programación Lineal nace a partir de la Segunda Guerra Mundial, como una técnica dedicada a la resolución de cierto tipo de problemas de asignación de recursos entre diferentes actividades.

FLUJO DE REDES

Se trata de un módulo centrado en el problema de transporte sirviendo como finalización del módulo dedicado a programación lineal en general, para iniciar el análisis de problemas con estructuras especiales. Se completa el módulo con el estudio de problemas de distribución y su análisis mediante el método primal-dual.

PROGRAMACIÓN LINEAL ENTERA

El siguiente módulo introduce la programación lineal entera mediante el modelado de situaciones en que existen variables de decisión, implicaciones lógicas o relaciones disyuntivas.

TEORÍA DE JUEGOS

El cuarto módulo, teoría de Juegos, aborda  un conjunto de situaciones caracterizada por la lucha o enfrentamiento entre dos o más oponentes.

TEORÍA DE LA DECISIÓN

En el quinto módulo se realiza una cinta introducción al análisis de alternativas en diversos entornos. Se describe como un instrumento conveniente para abordar la toma de decisiones en condiciones de incertidumbre en las que no se dispone de información completa. Se analiza el valor de la información en este contexto.

Te puede interesar:  ¿Ensalada César o Caesar?

PROGRAMACIÓN DINÁMICA

El sexto módulo se dedica al estudio de problemas de decisión secuenciales o de múltiples etapas. Las variables que los describen están gobernadas por transformaciones en el tiempo.

TÉCNICAS DE MODELADO

El módulo de técnicas de modelado describe la sistemática general del modelado basándose en las siguientes etapas: descripción verbal del problema identificado, especificación del horizonte al que se refiere el análisis, evaluación de la disponibilidad y existencia de datos, identificación de variables, especificación de la estructura y limitaciones a través de la construcción de restricciones, expresadas en términos de los datos disponibles y de las variables identificadas, selección de criterios de evaluación de alternativas y enfoque empleado para la solución del modelo.

SIMULACIÓN DE EVENTOS DISCRETOS

Básicamente consiste en la construcción de modelo que describen la parte esencial del comportamiento de un sistema de interés, así como en el diseño de experimentos con el modelo y la extracción de conclusiones de los resultados de los mismos.

MÉTODOS AVANZADOS DE GESTIÓN

Concretamente esta asignatura estudia las técnicas más novedosas para la resolución de problemas lineales continuos y enteros, amplia las técnicas más novedosas para la resolución de problemas lineales continuos y enteros, amplia las técnicas ya expuestas desde un punto de vista computacional y generaliza los conocimientos en el campo de la optimización al caso más general de problemas no lineales repasando los métodos que permiten solucionarlos.

EXTENSIONES DE LA PROGRAMACIÓN LINEAL

Comienza con el análisis, desde un punto de vista computacional del algoritmo simplex como método de resolución. Posteriormente se estudian los métodos de descomposición y partición. El tercer tema se centra en los métodos llamados de punto interior y su aplicación en el campo de la programación lineal.

PROGRAMACIÓN NO LINEAL

Se estudian las condiciones necesarias y suficientes de optimalidad en cada tipo de problema y se introducen otros métodos de optimización para problemas con restricciones.

Los métodos duales no atacan el problema original son dual.

ALGORITMOS GENÉTICOS

En particular se muestran diversos tipos de operadores de selección, cruce, mutación, etc. Así como formas dinámicas de determinar sus respectivas frecuencias de empleo.

RECONOCIDO SIMULADO

La idea básica consiste no sólo en moverse de un punto a otro mejor, que sería lo razonable sino también permitir la ocurrencia esporádica y probabilística de pasos hacia atrás, esto es empeoramientos en el valor de la función objetivo.

BÚSQUEDA TABÚ

La idea es que prohibiendo movimientos inmersos a los que aparecen en dicha tabla se minimiza la probabilidad de que la búsqueda entre en un ciclo sin salida. El efecto de memoria a corto plazo que supone la Lista Tabú se completa con mecanismos de memoria intermedia y memoria a largo plazo que se denominan intensificación y Diversificación respectivamente.

REDES NEURONALES ARTIFICIALES

Son sistemas formados por un elevado número de unidades de procesamiento elemental muy interrelacionadas y que son capaces de realizar tareas como clasificación, generalización, optimización, abstracción, etc.

Advertisements

TEORÍA DE COLAS

Introduce el estudio desde un punto de vista analítico, de los fenómenos de espera tan corrientes en el entorno productivo. Entre las aplicaciones prácticas de la teoría de colas, destacan las relativas al diseño y análisis de unidades productivas y de servicios.