Los algoritmos de pivote (o algoritmos de cambio de base) son algoritmos de la optimización matemática, y en especial de la Programación Lineal. Dado un sistema de ecuaciones lineales cuyas variables deben adoptar valores no negativos (esencialmente lo mismo que un sistema de inecuaciones lineales), se busca la mejor de entre muchas soluciones alternativas, es decir, una solución óptima del sistema. En cada paso de tal búsqueda, el algoritmo transforma el sistema sin alterar su conjunto de soluciones. Algoritmos de pivote importantes son los diversos algoritmos simplex[1][2] y los algoritmos criss-cross.[3]
Todo algoritmo de pivote parte de un sistema especialmente arreglado de ecuaciones lineales, cuyas variables todas, excepto tal vez una, deben tomar valores no negativos. De hecho, cualquier sistema de inecuaciones o ecuaciones lineales, así como todo problema de Programación Lineal, puede siempre reducirse a la siguiente forma diccionario:[1][2]
donde los son números reales (en la práctica casi siempre números racionales). Este formato especifica que se busca valores para las incógnitas , que satisfagan las ecuaciones e inecuaciones del sistema anterior de modo tal que la variable objetivo tome el mayor valor posible.
( Al convertir un problema a la forma anterior no disminuye el número de desigualdades; estas permanecen en su totalidad y sólo se convierten en condiciones de no-negatividad de algunas variables. De este modo, una inecuación como por ejemplo
es sustituida por
)
Definiendo los conjuntos de índices
se escribirá esto en lo que sigue de la forma más compacta
En cada iteración de un algoritmo de pivote se destaca un conjunto de variables independientes, mientras que las restantes son variables dependientes y se expresan como funciones lineales de las primeras. Al pasar de una iteración a la siguiente se intercambia una variable independiente por una dependiente; tales pares de variables se denominan pivotes.
Condiciones de optimalidad
En caso de que se cumplan las siguientes dos condiciones de optimalidad,
para todo (sistema factible) y
para todo (sistema acotado),
podemos obtener una solución al problema anterior, asignando a las variables independientes del sistema los valores . Por un lado, esto logra que las variables dependientes adopten valores nonegativos, tal como se pedía. Por otro lado, toda solución alternativa al problema debe satisfacer la relación , ya que en ella las variables independientes también deben tomar valores nonegativos.
( Por ejemplo, en el siguiente sistema,
las condiciones de optimalidad son violadas en dos lugares, ya que y . Por un lado, los valores obtenidos al anular las variables independientes, , no constituyen una solución admisible porque contienen un valor negativo, . Por otro lado, no podemos descartar la posibilidad de aumentar el valor que adopta la variable objetivo eligiendo conjuntos de variables independientes con .)
Transformación de las ecuaciones
En el caso habitual de que las condiciones de optimalidad no se cumplan, puede reformularse el sistema de ecuaciones, eligiendo adecuadamente un nuevo subconjunto de entre las incógnitas, y expresando las incógnitas elegidas en función de las incógnitas restantes. Sea un reordenamiento de las variables, es decir una función de los índices que cumpla
A partir de la partición , con
que divide las variables del sistema en variables independientes con y las llamadas variables básicas con , se construye entonces el sistema:
Nótese que los coeficientes existen solo para pares de subíndices con y con . En cada iteración, los coeficientes del sistema así modificado vuelven a examinarse para ver si satisfacen las condiciones de optimalidad
para todo (sistema factible) y
para todo (sistema acotado),
y de este modo generan una posible solución al problema.
Un resultado estándar de la Programación Lineal establece que todo problema que tiene soluciones también posee un conjunto de variables básicas que conduce a una de ellas.[1][2] Si los coeficientes del sistema satisfacen las condiciones de optimalidad, se dice que las variables básicas forman una base optimal del problema.
Pivotes admisibles
Un coeficiente no nulo del sistema de ecuaciones se llama elemento pivote, porque permite despejar la variable independiente en lugar de la variable básica para así seguir buscando una solución al problema. Sin embargo, los algoritmos de pivote no eligen un elemento pivote cualquiera, sino solamente los llamados pivotes admisibles, que deben satisfacer:
O se cumple simultáneamente y (pivote de restricción),
o se cumple simultáneamente y (pivote de objetivo).
( En el ejemplo anterior,
el coeficiente no optimal permite seleccionar el elemento pivote correspondiente a un pivote admisible con intercambio de ó también el elemento pivote correspondiente al pivote admisible Alternativamente, el coeficiente no optimal permite también seleccionar el elemento pivote correspondiente al pivote admisible ó el elemento pivote con el pivote admisible .)
La restricción a pivotes admisibles impide que en dos iteraciones sucesivas se elija el mismo pivote. Las reglas según las cuales el pivote es elegido dependen del algoritmo de pivote particular. No obstante, debe imponerse que el algoritmo termine en un número finito de pasos, lo que no sucede con una elección de pivotes inadecuada. Fukuda & Terlaky demostraron[5] en 1999 que para todo problema con solución y para toda base inicial existe una secuencia de a lo más pivotes admisibles que conduce a una base optimal. Lamentablemente, esa demostración no es constructiva en el sentido de que indique cuál pivote deba elegirse en cada paso.
Como se puede observar de las definiciones anteriores, una base optimal no tiene pivotes admisibles, por lo que el algoritmo no puede ser continuado a partir de una base optimal. Por otro lado, es fácil demostrar con argumentos similares a los expuestos que una base no optimal sin pivotes admisibles siempre pertenece a un problema sin solución; sea esto, porque el sistema de ecuaciones e inecuaciones no tiene solución alguna (problema infactible), o porque existen soluciones con un valor objetivo arbitrariamente grande (problema no acotado).
Implementación sin errores de redondeo
Para evitar errores de redondeo se trabaja en lo que sigue con números racionales, eligiendo un único denominador común para todo el sistema de ecuaciones. Para encontrar un denominador así en cada paso del algoritmo no hace falta analizar los coeficientes del sistema; en caso de un sistema inicial con coeficientes enteros, en cada iteración se cumplirá que
El numerador del elemento pivote es un denominador común para el sistema de ecuaciones siguiente.
Al evaluar los coeficientes de un nuevo sistema el denominador común del sistema anterior quedará obsoleto, por lo que se procede a dividir los coeficientes del sistema nuevo por el denominador antiguo, con resultados que siempre serán enteros.[6]
Un arreglo matricial que contiene los coeficientes de un sistema de pivote suele llamarse tabla de pivoteo o cuadro de pivoteo. El siguiente esquema muestra cómo cambian los coeficientes del sistema de pivoteo al pasar de una iteración a la que sigue:
En ese esquema,
el símbolo designa al denominador común del sistema de ecuaciones,
el símbolo designa al numerador del elemento pivote,
designa cualquier coeficiente restante en la misma fila del elemento pivote, designa cualquier coeficiente restante en la misma columna del elemento pivote, y cualquier coeficiente ajeno a la fila y a la columna del pivote.
Los coeficientes de la variable a maximizar() y los coeficientes de la columna de valores() se transforman de acuerdo a las mismas reglas.
Representación gráfica
Las ilustraciones en cada paso del ejemplo siguiente muestran todas el mismo sistema de ecuaciones graficado en distintos sistemas de coordenadas. En estos gráficos,
el área bordeada de verde es el conjunto de soluciones factibles, para el cual todas las variables toman valores no negativos,
los ejes de coordenadas corresponden a ecuaciones de variables independientes, las demás rectas a ecuaciones de variables básicas,
la recta en rojo recorre los puntos donde la variable objetivo adopta su valor máximo,
las intersecciones de rectas correspondientes a pivotes admisibles llevan puntos rojos, el pivote seleccionado va bordeado de negro, y
el área anaranjada corresponde al ortante no negativo de la iteración siguiente.
Ejemplo de elección de pivotes
La siguiente estrategia de elección de pivote corresponde al algoritmo criss-cross con pivoteo en los índices mínimos (minimal index criss-cross-algorithm). En cada paso, el pivote admisible se elegirá de acuerdo a la siguiente regla (el mínimo de un conjunto vacío se considera igual a infinito):
Determinar los índices y.
Si se tiene , elegir el pivote donde.
Si se tiene , elegir el pivote donde.
Se puede demostrar[3] que este criterio simple (aunque no siempre eficiente) conduce siempre a una base optimal en un sistema que tenga solución.
En el siguiente ejemplo se busca valores no negativos para las variables que maximicen la variable adicional satisfaciendo el siguiente conjunto de ecuaciones lineales:
En el sistema inicial del ejemplo, los coeficientes no optimales son , , y todos los pivotes son admisibles. El criterio de selección, sin embargo, prescribe que despejemos en lugar de :
(para animar con Firefox, pulsar aquí y luego en la imagen, manteniendo presionado)
Con ello obtenemos:
Ahora los coeficientes no optimales son con los pivotes admisibles , , y el coeficiente con los pivotes admisibles , . En consecuencia, despejamos en lugar de :
Como este sistema satisface las condiciones de optimalidad, hemos obtenido la solución
Problemas duales
A todo problema de programación lineal llevado a la forma básica arriba descrita se le puede asociar un problema dual de programación lineal. Con respecto a esa forma básica, la matriz de coeficientes del problema dual es la matriz negativa traspuesta de la matriz de coeficientes del problema original, lo que muestra de paso que el dual del problema dual es el problema original, llamado problema primal en ese contexto.
ó, en notación compacta,
Como se muestra a continuación, el máximo obtenido en el problema dual (si es que existe) es igual al negativo del máximo obtenido en el problema primal.
( Precaución: Al usar la forma diccionario para escribir el problema dual, no es lícito sustituir por . A menudo el problema dual se define con una función objetivo en lugar de , lo que es lícito pero un tanto engorroso.)
Transformaciones sucesivas
La relación anterior entre los coeficientes de un par de problemas duales no se cumple solamente para el sistema de partida, sino que persiste paso a paso a través de un algoritmo de pivotes, siempre y cuando el pivote elegido en cada iteración sea el mismo en ambos problemas:
La relación de dualidad es particularmente fácil de observar en un sistema de pivoteo que tiene solo dos variables independientes y dos variables despejadas. El sistema obtenido es el mismo si se intercambia el estado de dos de las variables y a continuación se construye el problema dual, o si se realiza estas operaciones en orden inverso:
De esta relación de dualidad se concluye que toda base optimal para el problema primal provee también una base optimal para el problema dual. Al ejemplo anteriormente desarrollado le corresponde el problema dual
El sistema optimal de este problema es entonces
En el problema original, la variable a maximizarse toma el valor óptimo ; el valor óptimo del problema dual es el negativo de este valor: el mayor valor posible que su variable objetivo puede adoptar es . Una posible solución óptima para el problema dual es
.
Tratamiento conjunto
Una importante consecuencia teórica de la dualidad es la siguiente: para resolver problemas de optimización lineal no se requiere un algoritmo que maximice (o minimice) una de las variables, basta para ello cualquier algoritmo capaz de resolver sistemas de desigualdades lineales. Esto es así porque las relaciones de dualidad implican que toda base optimal para el problema primal también provee una base optimal para el problema dual, donde el valor óptimo de la variable del problema dual es el negativo del valor óptimo de la variable del problema original. Por tanto, para pares de soluciones óptimas se tiene
Por otro lado, para pares de soluciones factibles de las cuales al menos una no es óptima se cumple
De ahí podemos concluir que las soluciones óptimas para un par de problemas duales son exactamente las soluciones de los sistemas de igualdades escritos arriba más las siguientes desigualdades,
lo que se reduce a
En el caso de aplicaciones prácticas, sin embargo, esta forma de proceder solo es competitiva si se logra aprovechar adecuadamente la estructura de datos común a los sistemas primal y dual.
La implementación computacional de problemas prácticos a menudo dista mucho de ser trivial.[7] Los coeficientes de sistemas con decenas de miles de variables siempre presentan una u otra estructura, la cual debe ser aprovechada para determinar los sistemas de iteraciones subsecuentes de manera relativamente rápida y numéricamente estable (sin mayores errores de redondeo):
Los sistemas iniciales de problemas grandes (no los sistemas transformados) contienen una inmensa mayoría de coeficientes iguales a cero (el sistema es disperso), lo que permite ahorrar muchas operaciones aritméticas si se recurre al sistema de partida.
Muchos procedimientos se basan en una evaluación retardada, donde se calcula solo aquellos coeficientes de un sistema que sean necesarios para determinar un pivote, y esto solamente en el instante en que se ocupan. Para evitar la evaluación de coeficientes superfluos tales procedimientos emplean permutaciones de las variables en el sistema de partida, factorizaciones de las inversas de matrices básicas, una factorización de la matriz de coeficientes, y otras técnicas más. En todos estos casos suele ser necesario referirse a sistemas de iteraciones previas a la última, por lo que las transformaciones adoptan formas bastante más complejas que la directa.
A menudo se encuentran insertas en la estructura del sistema diversas estructuras especiales, por ejemplo de flujos en redes,[1][8] y para tales estructuras especiales se ha desarrollado implementaciones particularmente eficientes.
No obstante lo anterior, hay también muchas aplicaciones que dan origen a problemas de tamaño moderado, para los cuales basta una implementación simple como la presentada.
El applet de pivoteo interactivo de Robert Vanderbei, programado en1997, permite definir un sistema de ecuaciones lineales de tamaño reducido y realizar en ese sistema pivoteos sobre pares arbitrarios de variables. La herramienta (en inglés) se autodenomina «Simplex Pivot Tool», pero está orientada a algoritmos de pivote totalmente arbitrarios. Para evitar redondeo, los coeficientes del sistema pueden también verse en forma de fracciones, aunque éstas no adoptan un denominador común.
Robert Vanderbei (1996/2007): Linear Programming; Foundations and Extensions, 3.ed.Springer, ISBN978-0-387-74385-5, archivopdf, (edición alternativa: Linear Programming; Foundations and Extensions, Kluwer, 1996, ISBN0-7923-9804-1)
Robert Vanderbei: Linear Programming. Foundations and Extensions, Kluwer, ISBN 978-0-7923-9804-2}}, capítulo 21.4: Simplex Method vs Interior-Point Methods.
Komei Fukuda & Tamás Terlaky (1999): On the Existence of a Short Admissible Pivot Sequences for Feasibility and Linear Optimization Problems, Pure Mathematics and Applications, vol.10, 431-447,
archivops(enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
Robert Vanderbei: Linear Programming. Foundations and Extensions (= International Series in Operations Research & Management Science. Bd. 114). 3rd edition. Springer, New York NY 2007, ISBN 978-0-387-74387-5, Kapitel 8: Implementation Issues.
Robert Vanderbei: Linear Programming. Foundations and Extensions (= International Series in Operations Research & Management Science. Bd. 114). 3rd edition. Springer, New York NY 2007, ISBN 978-0-387-74387-5, Kapitel 13: Network Flow Problems.