Uma revisão comentada das abordagens do problema quadrático de alocação
1. Introdução
Consideremos o problema de se designar objetos a locais de modo que cada objeto
seja atribuído a um único local e reciprocamente, quando são conhecidas as
distâncias entre os pares de locais, os fluxos de algum tipo de demanda entre
os pares de objetos e, nos casos mais gerais, os custos fixos de cada
atribuição "objeto versus local". O Problema Quadrático de Alocação (PQA),
Quadratic Assignment Problem (QAP) na literatura internacional, consiste em
encontrar uma alocação de custo mínimo dos objetos aos locais, sendo os custos
obtidos pela soma dos produtos distância-fluxo.
Proposto originalmente por Koopmans & Beckmann (1957) como um modelo
matemático relacionado a atividades econômicas, o PQA aparece em inúmeras
aplicações práticas: Steinberg (1961) o utilizou para minimizar a quantidade de
ligações entre componentes de placas de circuitos eletrônicos; Francis &
White (1974), no desenvolvimento de um framework de decisões de alocação de uma
nova facilidade (postos policiais, supermercados, escolas) que atenda a um dado
conjunto de clientes; Geoffrion & Graves (1976), em problemas de
escalonamento de horário; Pollatschek et al. (1976), na definição de design de
teclados e painéis de controle; Krarup & Pruzan (1978), em arqueologia;
Forsberg et al. (1994), em análise de reações químicas; Hubert (1987), em
análise estatística; Bokhari (1987), em computação paralela e distribuída; Bos
(1993), em um problema relacionado a parques florestais. No entanto, é como
problema de layout que o PQA vem sendo mais extensivamente aplicado: Elshafei
(1977) o utilizou em planejamentos de hospitais, além de Dickey & Hopkins
(1972) que o utilizaram na modelagem de localização de construções em campus
universitário. Outras aplicações podem ser encontradas em McCormick (1970),
Hubert & Schulz. (1976), Heffley (1977), Los (1978), Krackhardt (1988),
Khare et al. (1988a, 1988b), Bland & Dawson (1991), Lacksonen & Enscore
(1993), Medova (1994), Gouveia & Voß (1995), Bozer & Suk-Chul (1996),
Mason & Rönnqvist (1997), Ostrowski & Ruoppila (1997), Ball et al.
(1998), Haghani & Chen (1998), Kochhar et al. (1998), Martin (1998), Sarker
et al. (1998), Spiliopoulos & Sofianopoulou (1998), Tansel & Bilen
(1998), Tavakkoli-Moghaddain & Shayab (1998), Urban (1998), Gong et al.
(1999), Rossin et al. (1999), Hahn & Krarup (2001), Pitsoulis et al.
(2001), Siu & Chang (2002), Youssef et al. (2003) e Yu & Sarker (2003).
Desde a sua primeira formulação, o PQA tem atraído a atenção de pesquisadores
em todo o mundo, não apenas pela sua importância prática e teórica, mas
principalmente pela sua complexidade. Trata-se de um dos mais difíceis
problemas de otimização combinatória: instâncias de ordem n > 30 não podem, em
geral, ser resolvidas exatamente em tempo computacional aceitável. Sahni &
Gonzales (1976) mostraram que o PQA é NP-árduo e que, a menos que P = NP, não
será possível encontrar para ele uma solução aproximada por um fator constante
da solução ótima. Tais resultados são válidos mesmo quando fluxos e distâncias
aparecem como coeficientes de matrizes simétricas.
Diversos problemas NP-árduos de otimização combinatória, como os problemas do
caixeiro viajante, do empacotamento, da clique maximal e do isomorfismo de
grafos, podem ser modelados como PQA's. A investigação de problemas de
Otimização Combinatória através de instâncias disponibilizadas na Internet é
uma tendência atual permitindo que se utilizem algoritmos exatos onde isso for
possível ou obter ótimos locais melhores que a melhor solução conhecida para
exemplares cuja otimalidade ainda não foi comprovada (Burkard et al., 1996a; e
Çela, 1998). No caso do PQA, podemos citar, como exemplo, instâncias com
soluções ótimas recentemente provadas: Tai25a, em 2003, por Peter Hahn; Ste36a,
em 2001, por Brixius e Anstreicher; Bur26a, em 2001, por Peter Hahn; Kra30a,
Kra30b, Kra32 e Tho30, em 2000, por Anstreicher, Brixius, Goux e Linderoth;
Nug30 (uma das instâncias mais conhecidas e desafiadoras), em 2000, por
Anstreicher, Brixius, Goux e Linderoth; Ste36b e Ste36c, em 1999, por Nystrõm.
Em 2003, Misevicius melhorou a melhor solução conhecida para Tai80a, utilizando
uma busca tabu modificada (Burkard et al., 1991, 1997; QAPLIB). Estes
resultados motivaram o artigo de Anstreicher (2003) que registra os recentes
avanços na solução de instâncias do PQA, destacando-se os novos algoritmos e as
novas estruturas computacionais utilizadas para isto. Cabe informar que além
dos exemplares disponíveis para testes em Burkard et al. (1991, 1997) e QAPLIB,
hoje em dia existem geradores de instâncias com ótimos conhecidos que são
utilizados para testar os algoritmos (Çela, 1998).
Outra tendência atual das pesquisas em Otimização Combinatória é estudar
versões polinomiais de problemas ou procurar instrumentos para análise da
dificuldade dos exemplares. No caso do PQA, Çela (1998) apresenta diversos
exemplares polinomiais, além de Herroelen & Vanglis (1985), Mautor &
Roucairol (1994b), Angel & Zissimopoulos (1998, 2000, 2001, 2002) e Abreu
et al. (2002) que discutem a dificuldade de outros exemplares em função das
variâncias dos coeficientes das matrizes de fluxo e distância que os definem.
Os seguintes surveys são referências indispensáveis para quem deseja conhecer
bem este problema: Burkard (1984, 1991, 2002), Pardalos et. al. (1994) e
Burkard et al. (1998), assim como, os livros: Pardalos & Wolkowicz (1994),
Padberg & Rijal (1996), Dell'Amico et al. (1997) e Çela (1998).
Na tentativa de identificar novas propriedades estruturais para as instâncias
do PQA, muitas formulações aparecem com base em diferentes enfoques. Propomos
reunir aqui tais formulações, destacando as principais características de cada
uma, para classificá-las segundo as técnicas usadas, desde a Programação
Inteira e a Programação Semidefinida Positiva, passando pela Matemática
Discreta e Combinatória através das teorias de Grupos e de Grafos, até a
Álgebra Linear, via Teoria Espectral. Considerando as dificuldades do PQA,
essas formulações, quase sempre equivalentes (à exceção das que caracterizam
situações mais gerais) fornecem recursos matemáticos alternativos para o
desenvolvimento de novas técnicas de resolução do problema. Ao final do artigo,
relatamos as contribuições obtidas a partir de tais formulações, quer na
elaboração de algoritmos exatos ou heurísticos, quer no cálculo de limites
inferiores ou na caracterização de classes de exemplares do problema.
2. Formulações do PQA e de Problemas Relacionados
O objetivo deste item é apresentar as principais formulações do PQA,
destacando-se o tipo de abordagem adotado em cada uma delas. Formulações para
problemas relacionados ao PQA serão acrescentadas ao final, apenas com a
finalidade de indicar as contribuições colaterais obtidas, sem preocupação em
discutir as técnicas matemáticas utilizadas.
2.1 Principais Formulações do PQA
Formulações por Programação Inteira (PLI): Inicialmente apresentaremos o PQA
como um caso de programação booleana para depois apresentá-lo como um problema
de programação linear, onde as restrições binárias são relaxadas. A formulação
booleana foi proposta inicialmente por Koopmans & Beckmann (1957), sendo
depois utilizada em diversos trabalhos, tais como Steinberg (1961), Lawer
(1963), Gavett & Plyter (1966), Elshafei (1977), Bazaraa & Kirca
(1983), Christofides & Benavent (1989), Bos (1993), Mans et al. (1995),
Jünger & Kaibel (1996a, 1996b, 2001) e mais recentemente por Liang (1996),
Torki et al. (1996), Tsuchiya et al. (1996, 2001), Maniezzo (1997), Ball et al.
(1998), Ishii & Sato (1998), Kochhar et al. (1998), Martin (1998),
Spiliopoulos & Sofianopoulou (1998), Siu & Chang (2002), Fedjki &
Duffuaa (2004) e Yu & Sarker (2003).
Consideremos fij o fluxo entre os objetos i e j e dkp a distância entre as
localizações k e p. Deseja-se então calcular:
Se considerarmos a função do custo de atribuição de atividades a locais, uma
instância PQA de ordem n, em sua forma mais geral, é dada por três matrizes F =
[fij], D = [dkp] e B = [bik], onde as matrizes F e D definem os fluxos entre os
objetos e as distâncias entre as localizações, respectivamente, e bik é o custo
para alocar o objeto i à posição k. Considerando o custo fixo de alocação, o
problema pode então ser definido por:
A maioria dos autores dispensa a parcela linear de (2.5), dado que ela pode ser
facilmente resolvida.
Uma versão ainda mais geral do PQA, proposta por Lawler (1963), envolve
coeficientes de custos cijkp que não correspondem necessariamente a produtos de
fluxos fij por distâncias dkp. Assim, a formulação de Lawler é dada:
Esta formulação foi utilizada, também, em Bazaraa & Elshafei (1979),
Drezner (1995), Sarket et al. (1995, 1998), Brüngger et al. (1997, 1998),
Chiang & Chiang (1998), Hahn & Grant (1998), Hahn et al. (1998), Gong
et al. (1999) e Rossin et al. (1999).
Formulações por Programação Inteira Mista (PLIM): O PQA, como um modelo de
Programação Linear Inteira Mista, PLIM, é encontrado na literatura, via
diversas propostas. Em todas elas, o termo quadrático da função objetivo do
problema é substituído por termos lineares. Por exemplo, Lawler (1963)
compensou este termo por imposição de restrições dadas a n4 variáveis, tais
como .
Outras formulações utilizam relaxações do problema original. Enquadram-se nesta
categoria os trabalhos de Love & Wong (1976a, 1976b), Kaufman & Broeckx
(1978), Balas & Mazolla (1980), Bazaraa & Sherali (1980), Christofides
et al. (1980), Burkard & Bonniger (1983), Frieze & Yadegar (1983),
Assad & Xu (1985), Adams & Sherali (1986), Christofides & Benavent
(1989) e ainda os artigos de Adams & Johnson (1994), Drezner (1995),
Gouveia & Voß (1995), Padberg & Rijal (1996), Ramachandran & Pekny
(1998), Karisch et al. (1999) e de Ramakrishnan et al. (2002). Em geral, as
linearizações do PQA, baseadas em modelos de PLIM, apresentam um grande número
de variáveis e restrições, o que as torna, quase sempre, inconvenientes. No
entanto, elas permitem explorar propriedades que resultam da linearidade da
função objetivo, o que, ao lado da relaxação de algumas restrições, possibilita
a determinação de limites inferiores para a solução ótima. Nesta abordagem se
destacam os trabalhos de Kaufman & Broeckx (1978), Bazaraa & Sherali
(1980), Frieze & Yadegar (1983), Adams & Sherali (1986), Adams &
Johnson (1994) e Padberg & Rijal, (1996). Çela (1998) destaca três
linearizações do PQA: a de Kaufman & Broeckx (1978), por conter o menor
número de restrições; a de Frieze & Yadegar (1983) por obter os melhores
limites inferiores via relaxação lagrangeana e a de Padberg & Rijal (1996),
porque descreve o politopo das soluções do PQA. A vantagem trazida pela
formulação de Frieze & Yadegar (1983) que descreve o PQA de forma linear,
utilizando-se n4 variáveis reais, n2 variáveis booleanas e n4 + 4n3 + n2 + 2n
restrições, nos leva a inseri-la aqui. Os autores mostram que sua formulação
dada em (2.7) a (2.16) é equivalente às equações (2.1) a (2.4).
Formulação por permutações: Em sua forma mais simples, o custo de alocar um par
de objetos a um par de localizações é proporcional ao fluxo e à distância entre
eles. A formulação do PQA que destaca essa proporcionalidade e utiliza o
conceito de permutação pode ser encontrada em Hillier & Michael (1966),
Graves & Whinston (1970), Pierce & Crowston (1971) e, posteriormente,
em Cung et al. (1977), Burkard & Stratman (1978), Roucairol (1979, 1987),
Burkard (1984), Frenk et al. (1985), Abreu & Boaventura-Netto (1989), Brown
et al. (1989), Bland & Dawson (1991, 1994), Battiti & Tecchiolli
(1994a, 1994b), Bui & Moon (1994), Chakrapani & Skorin-Kapov (1994),
Fleurent & Ferland (1994), Li et al. (1994b), Mautor & Roucairol
(1994a, 1994b), Li & Smith (1995), Taillard (1995), Bozer & Suk-Chul
(1996), Colorni et al. (1996), Huntley & Brown (1996), Peng et al. (1996),
Mavridou & Pardalos (1997), Merz & Freisleben (1997), Nissen (1997),
Pardalos et al. (1997), Angel & Zissimopoulos (1998), Deineko &
Woeginger (1998), Talbi et al. (1998a, 1998b, 2001), Tansel & Bilen (1998),
Abreu et al. (1999), Fleurent & Glover (1999), Gambardella et al. (1999),
Maniezzo & Colorni (1999) e Tian et al. (1999). A partir de 2000, temos
ainda as seguintes publicações Ahuja et al. (2000), Angel & Zissimopoulos
(2000, 2001 e 2002), Stützle & Holger (2000), Arkin et al. (2001),
Pitsoulis et al. (2001) e ainda em Abreu et al. (2002), Gutin & Yeo (2002),
Hasegawa et al. (2002), Boaventura Netto (2003) e Rangel & Abreu (2003).
Considere Sn o conjunto de todas as permutações a n elementos e sejam fij, o
fluxo entre os objetos i e j e dp(i)p(j), a distância entre as localizações p
(i) e p (j), dada pela permutação p ÎSn. Se cada permutação p representar uma
alocação de objetos a locais, a expressão matemática para o PQA toma a forma:
Esta formulação e a apresentada em (2.1) a (2.4) são equivalentes, dado que as
restrições (2.2) e (2.3) definem matrizes de permutações X = [xij] que
caracterizam permutações em Sn, como visto em (2.17). Lá se tem, para todo 1 <
i, j< n,
Formulação Traço: Esta formulação explora, com recursos da álgebra linear, as
propriedades da função traço de uma matriz (soma dos elementos da diagonal
principal da matriz) para determinar limites inferiores do custo ótimo do
problema. Trata-se de uma abordagem por teoria espectral de matrizes, o que vem
permitindo a aplicação da programação semidefinida ao PQA. Considerando-se P
como o conjunto de todas as matrizes de permutações, a formulação traço,
proposta por Edwards (1977), se apresenta como:
Posteriormente, esta abordagem foi utilizada em diversos trabalhos Edwards
(1980), Finke et al. (1987), Hadley et al. (1990, 1992a, 1992b, 1992c), Hadley
(1994), Karisch et al. (1994), Karisch & Rendl (1995), Zhao et al. (1998),
Anstreicher et al. (1999), Wolkowicz (2000a, 2000b), Brixius & Anstreicher
(2001) e Anstreicher & Brixius (2001).
Relaxação por Programação Semidefinida (PSD): Estas formulações definem
relaxações do PQA e podem ser obtidas utilizando-se o dual do dual Lagrangeano
de formulações equivalentes ao problema, como se vê em Karisch et al. (1994),
Zhao et al. (1998), Wolkowicz (2000a, 2000b). A formulação por PSD é dada a
seguir e considera o vetor e em que todos os coeficientes são iguais a 1, a
matriz de permutação X e a matriz de custo fixo B.
Outra relaxação para o PQA utilizando SDP, encontrada em Zhao et al. (1998),
pode ser assim expressa:
Formulação por Grafos: Dados dois grafos completos, um com arestas valoradas
pelos fluxos e o outro pelas distâncias, o PQA pode ser pensado como a
atribuição dos vértices de um grafo aos do outro, de modo a que as arestas
estejam corretamente superpostas, caracterizando uma solução cujo custo é dado
pela soma dos produtos dos valores associados às arestas. Em geral, esta
formulação é algebricamente dada pela expressão (2.17), onde a permutação p
representa a sobreposição dos vértices de um grafo completo sobre o outro. Veja
a Figura_2.1.
O estudo algébrico e combinatório adotado por Abreu & Boaventura Netto
(1989), Abreu et al. (1999) levou Marins (2001) a definir outra, envolvendo
automorfismos de grafos de linha, tópico explorado em teoria algébrica de
grafos. O grafo de linha de um grafo G, denotado por L(G), é determinado
tomando-se para conjunto de vértices, o das arestas de G, enquanto uma aresta
de L(G) é definida quando a ela corresponde um par de arestas incidentes num
mesmo vértice de G. Um automorfismo de um grafo é uma permutação de seus
vértices que preserva suas arestas. O conjunto de todos os automorfismos de G
junto com a composição de permutações constitui um grupo denotado por Aut(L(G))
(Kreher & Stinson, 1998).
O teorema de Whitney (1932) pode ser utilizado para relacionar o grupo dos
automorfismos de G com o dos automorfismos de L(G), garantindo que, para G =
Kn, o grafo completo de n vértices, se n ¹ 2 e 4, Aut(G) e Aut(L(G)) são grupos
isomorfos. Desta forma, Aut(Kn) é formado pelas n! permutações dos vértices de
Kn. Assim, para n¹ 2, 4, temos os seguintes isomorfismos Aut(L(Kn)) " Kn
" Sn. De posse destes resultados, Marins (2001) percebeu então que
resolver o PQA consiste, tanto em se determinar uma permutação p ÎSn que
minimize o somatório em (2.17) como em determinar um automorfismo de L(Kn).
Esta formulação, tendo o conjunto dos automorfismos do grafo linha de Kn como
espaço solução do problema, pode ser expressa como segue:
Dado ser esta uma formulação recente, os primeiros trabalhos nesta linha estão
em fase de experimentação (Marins, 2001).
2.2 Problemas Relacionados ao PQA
O alcance teórico dos estudos do PQA atinge a uma série problemas que aqui
apresentamos, nos limitando a definição de cada um com suas respectivas
referências: PQA Bottleneck, Problema Biquadrático de Alocação, PQA 3-
dimensional, Problema Semiquadrático de Alocação e PQA Multiobjetivo. Estes
problemas, em sua maioria, foram relatados em Burkard (2002).
PQA Bottleneck: este problema é uma variação do PQA e consiste em calcular um
coeficiente de valor mínimo dentre os máximos produtos dos "fluxos por
distâncias" para cada permutação dada. Isto resulta na expressão:
A formulação acima também pode ser utilizada substituindo-se os elementos do
conjunto em (2.29) por coeficientes mais gerais cijkl, 1£i, j, k, l£n. Este
caso do PQA foi estudado em Steinberg (1961), Burkard & Fincke (1982),
Burkard & Zimmermann (1982) e Burkard (2002).
O Problema Biquadrático de Alocação (Biquadratic Assignment Problem): Proposto
por Burkard et al. (1994) foi também estudado por outros pesquisadores,
destacando-se as referências Burkard & Çela (1995), Mavridou et al. (1998)
e Burkard (2002). Tem como dados, matrizes de fluxos e distâncias F = [fijkl] e
D = [dmpst], cada uma delas de ordem n4. O que se deseja é determinar uma
permutação p ÎSn, cujo custo associado seja mínimo, dentre aquelas que fornecem
os valores do quádruplo somatório:
O PQA 3-dimensional (Three-index Assignment Problem): neste, diferentemente do
caso anterior, deseja-se determinar duas permutações p e j Î Sn, tais que
minimize a expressão:
Foi sugerido por Pierskalla (1967, 1968). Alguns anos depois, Hansen &
Kaufman (1973) apresentaram um algoritmo primal-dual para o problema e Burkard
& Fröhlich (1980) propuseram um algoritmo do tipo branch-and-bound para
resolvê-lo. Emelichev et al. (1984) fornecem uma análise detalhada sobre
problemas de transporte com múltiplos índices, baseado nesta formulação. O PQA
3-dimensional é um dos problemas mais estudados, relacionados ao quadrático de
alocação, como se observa pela extensa lista de referências disponíveis: Vlach
(1967), Frieze (1974, 1983), Frieze & Yadegar (1981), Burkard et al. (1986,
1996a, 1996b), Euler (1987), Balas & Saltzman (1989), Balas & Saltzman
(1991), Bandelt et al. (1991), Crama & Spieksma (1992), Balas & Qi
(1993), Burkard & Rudolf (1993), Qi et al. (1994), Magos & Miliotis
(1994), Poore (1994a, 1994b, 1995, 1997), Fortin & Rudolf (1995), Burkard
& Çela (1996), Magos (1996), Aiex (2000) e Burkard (2002).
O Problema Semiquadrático de Alocação (Quadratic Semiassignment Problem ou
Semi-quadratic Assignment Problem): foi estudado em Carraresi & Malucelli
(1994) e pode ser expresso matematicamente assim:
Algumas aplicações daí derivadas estão em Simeone (1986a, 1986b) e Bullnheimer
(1998) e referências para casos polinomiais e para heurísticas são Freeman et
al. (1966), Magirou & Milis (1989) e Malucelli & Pretolani (1993).
O PQA Multiobjetivo (Multiobjective QAP mQAP): Recentemente em Knowles &
Corne (2002a, 2002b) apresentaram uma outra variação do PQA que considera
múltiplas matrizes de fluxos. Este problema foi introduzido como um caso de
benchmark problem a ser solucionado por metaheurísticas multiobjetivas ou
algoritmos evolucionários mutiobjetivos. Segundo os autores esta forma parece
ser mais apropriada para alguns tipos de problemas de layout, como o de
alocação de instalações em hospitais, onde é necessário minimizar
simultaneamente os produtos dos fluxos pelas distâncias entre médicos e
pacientes e entre enfermeiros e equipamentos médicos. Sua expressão matemática
é:
Nesta última restrição <formula/> denota o k-ésimo
fluxo entre a facilidade i e a facilidade j.
3. Limites Inferiores
O estudo de limites inferiores é importante no desenvolvimento de algoritmos de
resolução de problemas de programação matemática e de otimização combinatória.
Em geral, os métodos exatos trabalham com enumeração implícita, procurando-se
garantir o ótimo e ao mesmo tempo evitando-se a enumeração completa das
soluções viáveis dos problemas. O desempenho de tais métodos depende
diretamente da qualidade e da eficiência computacional dos limites inferiores
envolvidos. Desta forma, os limites inferiores tornam-se instrumentos
fundamentais para as técnicas branch-and-bound e também para testar a qualidade
das soluções produzidas por algoritmos heurísticos. Medimos a qualidade de um
limite inferior pela distância entre o mesmo e a solução ótima do problema.
Assim, bons limites devem estar próximos dos valores ótimos. Os limites
inferiores para os métodos exatos, além de apresentarem boa qualidade, precisam
ser eficientes computacionalmente, enquanto na avaliação de métodos heurísticos
eles devem ser escolhidos muito mais em função de sua qualidade do que do tempo
computacional gasto para calculá-los. Em problemas NP-árduos, procura-se sempre
por bons limites inferiores. No caso do PQA, um dos mais difíceis, esta é uma
tarefa desafiadora.
Dentre os limites mais conhecidos para o PQA, destaca-se o de Gilmore e Lawler,
por ser um dos mais simples e de baixo custo computacional. Sua inconveniência
está em que a distância entre ele e o custo da a solução ótima do problema
cresce muito rapidamente com o aumento do tamanho do problema, tornando-o assim
um limite de baixa qualidade para exemplares grandes. Atualmente, os limites
inferiores baseados em autovalores e programação semidefinida são os melhores
encontrados, porém são bastante caros computacionalmente. No entanto,
Anstreicher & Brixius (2001) desenvolveram um novo limite inferior para o
PQA, utilizando programação semidefinida e programação quadrática convexa, que
apresenta uma relação muito boa entre custo e qualidade.
O limite de Gilmore e Lawler (GLB) (Lawler, 1963; e Gilmore, 1962): é dado pela
solução do seguinte Problema de Alocação Linear (PAL):
Para resolver o problema de minimização de (3.1) a (3.4) é preciso determinar
os coeficientes lij, resolvendo o PAL abaixo:
Métodos que melhoram a qualidade do GLB, bem como o seu uso em algoritmos para
resolver o PQA, podem ser encontrados em Roucairol (1979, 1987), Edwards
(1980), Frieze & Yadegar (1983), Finke et al. (1987), Maniezzo (1997),
Burkard (1991), Brüngger et al. (1997, 1998), e Spiliopoulos &
Sofianopoulou (1998).
Limites Baseados em Relaxações PLIM: A solução ótima de um problema formulado
por PLIM é um limite inferior para o ótimo do PQA correspondente e cada solução
do dual de programação linear é, também, um limite inferior para o ótimo do
PQA. Em vista disso, diversos autores utilizam esta ferramenta, destacando-se
Frieze & Yadegar (1983), Assad & Xu (1985), Adams & Johnson (1994),
Drezner (1995), Ramachandran & Pekny (1998) e Karisch et al. (1999).
Limites Baseados em Reformulações do GLB: As idéias utilizadas para calcular o
GLB foram adaptadas por outros autores, dando origem aos limites inferiores
dados por Frieze & Yadegar (1983), Assad & Xu (1985), Carraresi &
Malucelli (1992, 1994) e Adams & Johnson (1994) e a um limite baseado em na
formulação dual de Hahn & Grant (1998) e Hahn et al. (1998). Tais limites
definem uma seqüência finita de problemas equivalentes ou reformulações do
problema original, em geral relaxações lineares, e calculam o limite de Gilmore
e Lawler para cada reformulação. A seqüência de problemas P0 = P, P1, ... ,Pk ,
produz outra, de soluções, que correspondem às relaxações lineares, fornecendo
então uma seqüência de limites inferiores não decrescentes para o PQA. Os
limites produzidos por Assad & Xu (1985) e por Carraresi & Malucelli
(1992, 1994) são comparáveis aos obtidos por Frieze & Yadegar (1983) em
termos de qualidade, com a vantagem de demandar menor tempo computacional. Não
há, no entanto, uma prova teórica de sua convergência. Ainda nesta linha, temos
os limites baseados em formulações duais: tais limites combinam as idéias do
GLB com um esquema de redução iterativo, utilizando o dual de uma relaxação de
programação linear do problema original (Hahn & Grant, 1998; Hahn et al.,
1998). Os resultados computacionais de Hahn & Grant (1998) mostram que
estes limites são competitivos em termo de qualidade quando comparados a alguns
dos melhores limites existentes, sendo superiores em termos de tempo
computacional.
Limites Baseados em Métodos de Pontos Interiores: Resende et al. (1995) usam
uma relaxação linear dada por PLIM conjugada com métodos de pontos interiores e
com um algoritmo aproximado, conhecido por dual projetivo de Karmarkar &
Ramakrishnan (1991). Com o uso desta técnica, eles obtiveram limites melhores
que os de Adams & Johnson (1994), em termos de qualidade, sendo superados
somente pelos limites baseados em decomposição triangular que só podem ser
calculados para PQA's com estruturas especiais, (PQA grids). No entanto, estes
limites requerem alto esforço computacional, não sendo recomendado para
algoritmos do tipo branch-and-bound. Neste caso, recomenda-se o limite inferior
dual de Hahn & Grant (1998), pois trata-se do único limite conhecido capaz
de com menor esforço computacional competir com o anterior em termos de
qualidade.
Limites por Redução de Variância: Propostos inicialmente por Li et al. (1994a),
são baseados em esquemas de redução ao ótimo do PQA, definidos a partir da
variância das matrizes F e D. Estes pesquisadores usam estes limites em um
algoritmo branch-and-bound. Experimentalmente, eles apresentam baixo custo
computacional e, em geral, são melhores que o de Gilmore e Lawler, sendo mais
eficientes quando as matrizes de fluxos e distância possuem variância alta.
Limites Baseados na Formulação por Grafos: Como já vimos, matrizes n´n, F e D,
que armazenam os dados para um exemplar do PQA, podem ser vistas como matrizes
de adjacência de dois grafos valorados e completos KF e KD. Sabemos que cada
permutação p ÎSn define um isomorfismo entre KF e KD. Se considerarmos Z(F,
D,p) como o custo deste isomorfismo, resolver o PQA significa encontrar um
isomorfismo de custo mínimo entre KF e KD. Um limite inferior que usa este
conceito foi proposto originalmente por Lawler (1963) e por Gavett & Plyter
(1966), sendo posteriormente adaptado por Christofides & Gerrard (1981). A
idéia básica consiste em decompor os grafos KF e KD em k subgrafos isomorfos,
KF(1), KF(2), ... , KF(k) e KD(1), KD(2), ..., KD(k). Deste modo, os subgrafos
KF(i) e KD(i), devem ter o mesmo conjunto de vértices de KF e KD e toda aresta
em cada uma das cliques deve estar presente em pelo menos um dos subgrafos
correspondentes. Portanto, o número de ocorrências de uma aresta de KF e KD nos
subgrafos KF(i) e KD(i) é uma constante d. Um isomorfismo entre KF e KD,
associa cada subgrafo KF(i) a exatamente um subgrafo KD(j), 1£i, j£k. O valor
ótimo de um custo correspondente ao PAL, definido a partir dos coeficientes de
custos do PQA, multiplicado por 1/d, determina um limite inferior para o valor
do custo ótimo do problema quadrático.
Limites Espectrais: Há dois grupos deles, um apresenta limites derivados da
formulação traço e o outro reúne aqueles relacionados à formulação PSD. Ambos
são determinados em função dos autovalores das matrizes relacionadas aos dados
do problema. Em geral, os limites espectrais são os melhores conhecidos para o
PQA, mas o seu cálculo envolve determinação de raízes de polinômios
(autovalores) que, como sabemos, é de grande dificuldade computacional. Limites
espectrais podem ser encontrados em: Finke et al. (1984, 1987), Rendl (1985),
Hadley et al. (1990, 1992a, 1992b), Rendl & Wolkowicz (1992), Karisch et
al. (1994), Zhao et al. (1998), Anstreicher (2001) e Anstreicher & Brixius
(2001).
4. Métodos de Resolução
Uma estratégia para alcançar uma solução exata de problemas muito complexos é
dividi-lo em subproblemas menores na tentativa de resolvê-los de forma exata.
No entanto, na maioria dos casos, tais problemas somente são resolvidos de
forma heurística, a partir da combinação de diferentes métodos. No contexto do
PQA apresentaremos as diferentes técnicas utilizadas para resolvê-lo,
destacando-se as referências mais importantes.
4.1 Algoritmos Exatos
Os diferentes métodos utilizados para encontrar uma solução ótima global para o
PQA compreendem branch-and-bound, planos de corte ou combinações destes, como
branch-and- cut, e programação dinâmica. Os algoritmos do tipo branch-and-bound
são os mais conhecidos e utilizados e são definidos a partir de uma regra de
alocação e de uma regra de corte que, em geral, é ditada por um limite inferior
do problema. Em Gilmore (1962), Land (1963) e Lawler (1963) encontramos os
primeiros esquemas enumerativos que usam limites inferiores para eliminar
soluções não desejadas. Diversas referências estão disponíveis sobre algoritmos
branch-and-bound para o PQA. Dentre as mais antigas, destacamos Gavett &
Plyter (1966), Nugent et al. (1969), Graves & Whinston (1970), Pierce &
Crowston (1971), Burkard & Stratman (1978), Bazaraa & Elshafei (1979),
Mirchandani & Obata (1979), Roucairol (1979), Burkard & Derigs (1980),
Edwards (1980), Bazaraa & Kirca (1983), Kaku & Thompson (1986) e
Pardalos & Crouse (1989) e dentre as mais recentes temos Burkard (1991),
Laursen (1993), Mans et al. (1995), Bozer & Suk-Chul (1996), Pardalos et
al. (1997), Brüngger et al. (1998), Ball et al. (1998), Spiliopoulos &
Sofianopoulou (1998) e Brixius & Anstreicher (2001). Nos últimos anos estão
sendo muito utilizados procedimentos que combinam técnicas de branch-and-bound
com implementação paralela. É através destas implementações que se tem obtido
os melhores resultados para o PQA, cujo sucesso na resolução de instâncias
maiores também está diretamente relacionado ao avanço tecnológico alcançado em
relação ao hardware. Os resultados publicados nesta categoria estão em
Roucairol (1987), Pardalos & Crouse (1989), Mautor & Roucairol (1994a),
Brüngger et al. (1997), Clausen & Perregaard (1997) e Maniezzo (1997).
A programação dinâmica é uma técnica utilizada em casos especiais do PQA onde a
matriz de fluxos é a matriz de adjacência de uma árvore. Estes casos foram
estudados por Christofides & Benavent (1989) que, utilizando a abordagem
PLIM, resolvem o problema relaxado com um algoritmo de programação dinâmica.
Isto só foi possível, porque tais instâncias têm complexidade polinomial. Esta
técnica também foi utilizada por Urban (1998).
Métodos de planos de corte aplicados ao PQA foram introduzidos por Bazaraa
& Sherali (1980). Tais métodos apesar de não apresentarem resultados
satisfatórios contribuíram na formulação de algumas heurísticas baseadas em
planos de corte que fazem uso de PLIM e da decomposição de Benders. A técnica
empregada ainda não é amplamente utilizada, mas têm fornecido soluções de boa
qualidade no caso do PQA, cuja convergência lenta, só permite resolver pequenas
instâncias (Kaufman & Broeckx, 1978; Balas & Mazolla, 1980; Bazaraa
& Sherali, 1980, 1982; e Burkard & Bonniger, 1983). A técnica branch-
and-cut, cujo termo foi proposto originalmente por Padberg & Rinaldi
(1991), surge como uma estratégia alternativa às anteriores e explora o
politopo definido pelas soluções viáveis do problema considerado. A principal
vantagem de algoritmos branch-and-cut sobre os de planos de corte é o uso de
cortes que são válidos para o politopo formado por todas as soluções viáveis,
definindo facetas. Tais cortes associados às facetas são mais significativos
que os produzidos pelo método de planos de corte, pois a convergência para uma
solução ótima é acelerada. O pouco conhecimento do politopo caracterizado pelas
soluções do PQA é o motivo pelo qual os planos de corte poliédricos ainda quase
não são aplicados neste caso. Apesar disso, alguns pesquisadores tem
conseguido, nos anos mais recentes, encontrar propriedades básicas desse
politopo, o que poderá contribuir para futuros desenvolvimentos de algoritmos.
Consulte Jünger & Kaibel (1996a, 1996b, 2001) e Padberg & Rijal (1996).
4.2 Algoritmos Heurísticos
Algoritmos heurísticos são aqueles que não apresentam garantia de determinação
da solução ótima para o problema estudado. Os métodos aproximativos podem se
enquadrar nesta categoria, acrescentando-se que, para estes casos, são
conhecidas propriedades com garantia do pior caso. Além disso, conforme Osman
& Laporte (1996), é comum, na literatura de Otimização Combinatória, os
algoritmos aproximativos serem tratados como algoritmos heurísticos. É neste
contexto que nos enquadramos estamos considerando técnicas heurísticas apenas
como procedimentos dedicados ao problema considerado na busca de soluções de
boa qualidade. As técnicas mais abrangentes e atuais que podem ser adaptadas a
diversos problemas são as metaheurísticas e serão objetos do próximo tópico. As
heurísticas para o PQA abrangem os seguintes tipos: métodos construtivos,
métodos de enumeração limitada e métodos de melhoria. Ao final deste item,
destacamos os algoritmos aproximativos com propriedades matemáticas para
garantir o pior caso mas, que dado a dificuldade do PQA, são aplicados apenas a
instâncias muito particulares.
Os métodos construtivos surgiram com Gilmore (1962) e sugerem, em cada caso, a
construção de uma permutação, de modo que a cada passo um objeto é atribuído a
um dado local. Considere os conjuntos A e L, o primeiro, de objetos alocados e
o segundo, de localizações ocupadas, ambos inicialmente vazios. Em tais métodos
a construção de uma permutação p é feita de forma heurística, escolhendo-se a
cada passo, a próxima alocação (i,j), tal que iÏA, jÏL, e fazendo-se p(i) = j.
Para um problema de ordem n o processo é repetido até completar uma permutação
na ordem do problema. Tais métodos foram utilizados em Armour & Buffa
(1963), Buffa et al. (1964), Sarker et al. (1995, 1998), Tansel & Bilen
(1998), Burkard (1991), Arkin et al. (2001), Gutin & Yeo (2002) e Yu &
Sarker (2003).
Os métodos de enumeração somente podem garantir que a solução encontrada é
ótima se chegarem ao final do processo enumerativo. No entanto, é muito comum
que uma boa solução, ou até mesmo uma solução ótima, seja encontrada no início
da enumeração. Observa-se que, quanto melhores são as informações utilizadas
para guiar a enumeração, maiores serão as chances de se encontrar
prematuramente soluções de boa qualidade. No entanto, garantir o ótimo para a
solução encontrada, em geral, é muito demorado. Para limitar esta enumeração,
são definidas condições de parada, tais como: um número máximo de iterações
realizadas pelo algoritmo; finalizar o algoritmo se após um número pré-
determinado de passos não ocorrer nenhuma melhoria da função custo; tempo
máximo de execução, etc. Torna-se bastante claro que qualquer um destes
critérios de parada pode ocasionar a eliminação da solução ótima, o que nos
leva a tomar certos cuidados ao utilizar métodos de enumeração limitada
(Burkard & Bonniger, 1983; e West, 1983).
Os métodos de melhoria compreendem os algoritmos de busca local. A maioria das
heurísticas aplicada ao PQA faz parte desta categoria. Um método de melhoria
inicia-se com uma solução viável e tenta melhorá-la, procurando outras soluções
em sua vizinhança. O processo é repetido até que nenhuma melhoria possa ser
encontrada. Os elementos básicos de tais métodos são: a vizinhança e o critério
de seleção que define a ordem em que os elementos vizinhos são analisados
(Mirchandani & Obata, 1979; Bruijs, 1984; Burkard & Çela, 1995; Li
& Smith, 1995; Anderson, 1996; e Talbi et al., 1998a). Métodos nesta
categoria são comumente utilizados pelas metaheurísticas.
Antes de finalizar este item, vale considerar que até agora, os algoritmos
aproximativos com garantia de performance por uma constante só foram obtidos
para casos muito especiais do PQA, quando, por exemplo, a matriz de distâncias
atende a desigualdade triangular (Queyranne, 1986) ou quando o problema é
tratado como um caso de clique maximal com limite máximo definido previamente
(Arkin et al., 2001).
4.3 Metaheurísticas
Até o final dos anos 80, os métodos heurísticos propostos para resolver
problemas de otimização combinatória eram, em sua maioria, específicos e
dedicados a um dado problema. A partir daí, esse paradigma muda e surge um
grande interesse em técnicas que sejam mais gerais e por isso, aplicáveis a
diversos problemas. Técnicas assim são conhecidas por metaheurísticas. Dentre
elas destacam-se: simulated annealing, busca tabu, algoritmos genéticos,
scatter search, grasp (greedy randomized adaptive search procedures), colônia
de formigas, busca em vizinhança variável, conhecida também por VNS (variable
neighbourhood search), e outras técnicas. Com o surgimento das metaheurísticas,
o Problema Quadrático de Alocação ganhou um novo impulso, dado que toda
metaheurística ao ser implementada usa o PQA como elemento de prova de sua
eficiência, uma vez que este é um dos mais difíceis problemas de otimização
combinatória. Em Maniezzo & Colorni (1995) e Taillard et al. (2001) são
analisados e comparados resultados de algumas metaheurísticas aplicadas ao PQA,
tais como busca tabu, genético, scatter search, colônia de formigas e algumas
propostas híbridas.
Simulated Annealing é um algoritmo de busca local que explora a analogia entre
os problemas de otimização combinatória e os da mecânica estatística
(Kirkpatrick et al., 1983). Tal analogia é feita associando-se as soluções
viáveis dos problemas de otimização combinatória a estados dos sistemas físicos
sendo que seus custos são associados à energia desses estados. Consideremos
dois estados sucessivos de energia Ei e Ei+1 , correspondendo a duas soluções
vizinhas e tomemos DE = Ei+1 Ei . As seguintes situações podem ocorrer: se DE
< 0, há redução de energia e o processo continua, ou seja, há redução na função
custo do problema e a nova alocação deve ser aceita; se DE = 0, há situação de
estabilidade e portanto, não há alteração de energia, isto é, a função custo do
problema permanece inalterada; se DE > 0, fica caracterizado um aumento de
energia, útil no processo físico para permitir uma futura acomodação das
partículas, ou seja, a função custo do problema sofre aumento. Ao invés desta
alocação ser eliminada, ela poderá eventualmente ser aproveitada. Para isso,
uma função de probabilidade deverá ser acionada para evitar a convergência da
função para mínimos locais indesejáveis. Uma das primeiras aplicações do
simulated annealing ao PQA foi proposta por Burkard & Rendl (1983).
Posteriormente, novos componentes de equilíbrio foram apresentados por Wilhelm
& Ward (1987). Connolly (1990) introduziu um conceito de "temperatura
ótima" que fornece resultados promissores. Mais tarde, Abreu et al. (1999)
aplicaram a técnica ao PQA, procurando reduzir o número de inversões associado
à solução do problema, ao invés de custo. Outros trabalhos que abordam ou
adotam o simulated annealing para resolver o PQA são Bos (1993), Burkard &
Çela (1995), Peng et al. (1996), Mavridou & Pardalos (1997), Chiang &
Chiang (1998), Tian et al. (1999), Tsuchiya et al. (2001) e Siu & Chang
(2002).
Busca Tabu é um algoritmo de busca local introduzido por Glover (1989a, 1989b)
para problemas de programação inteira, com o objetivo de encontrar soluções de
boa qualidade. Caracteriza-se pela existência de uma lista atualizada das
melhores soluções encontradas no decorrer do algoritmo, onde cada solução
possui um valor de prioridade ou critério de aspiração. Seus ingredientes
básicos são: uma lista tabu, para armazenar um histórico da evolução do
processo de busca; um mecanismo que permite aceitar ou rejeitar uma nova
alocação na vizinhança, baseado nas informações armazenadas na lista tabu e
suas respectivas prioridades; e um mecanismo que permite alternar entre
estratégias de diversificação e intensificação na vizinhança. Várias adaptações
deste algoritmo para o PQA podem ser encontradas em Skorin-Kapov (1990, 1994),
Taillard (1991), Bland & Dawson (1991), Rogger et al. (1992), Chakrapani
& Skorin-Kapov (1993) e Misevicius (2003a). O desempenho de tais
algoritmos, apesar da inconveniência de dependerem muito do tamanho da lista
tabu e da forma como esta lista é manipulada, os mostra como estratégias
bastante eficientes para o PQA, segundo análises feitas em Taillard (1991) e
Battiti & Tecchiolli (1994a). Em Taillard (1995), podemos encontrar uma
comparação do uso de busca tabu e algoritmo genético, ambos aplicados ao
problema em questão.
Algoritmos Genéticos são técnicas que se apóiam nos mecanismos de seleção e
adaptação natural das espécies. Tais algoritmos mantêm uma população formada
por um subconjunto de indivíduos, que no caso do PQA correspondem às
permutações viáveis, com valores de aptidão associados aos custos de tais
permutações. Através dos chamados operadores genéticos e de critérios de
seleção, cada algoritmo substitui uma população de indivíduos por outra, com
valores de aptidão, em média, melhores. A idéia básica consiste em acreditar
que os melhores indivíduos sobrevivem e geram descendentes com suas
características hereditárias, de maneira semelhante à teoria biológica das
espécies. De forma análoga, os algoritmos genéticos partem de um conjunto de
soluções iniciais geradas aleatoriamente, avaliam seus custos, selecionam um
subconjunto das melhores soluções e realizam operações genéticas sobre elas,
gerando um novo conjunto de soluções ou uma nova população (Davis, 1987 e
Goldberg, 1989). Algumas propostas de algoritmos genéticos para o PQA estão em
Brown et al. (1989), Bui & Moon (1994), Tate & Smith (1995), Mavridou
& Pardalos (1997), Tavakkoli-Moghaddain & Shayan (1998) e Gong et al.
(1999). A utilização destes algoritmos ao PQA apresenta dificuldades na
obtenção de soluções ótimas, até mesmo para pequenas instâncias. Porém,
propostas híbridas utilizando algoritmos genéticos mostraram-se mais
promissoras, como veremos adiante.
Scatter Search foi introduzida por Glover (1977) em um estudo heurístico de
problemas de programação linear inteira. É um método evolutivo que considera
combinações lineares de vetores-solução para produzir novos vetores-solução
através de gerações sucessivas. Esta metaheurística é composta por uma fase
inicial e outra evolutiva. Na primeira, se constitui um conjunto de soluções,
das quais as melhores são escolhidas para fazerem parte de um conjunto
referência. Na fase evolutiva, novas soluções são geradas utilizando
combinações de subconjuntos referência que são selecionados estrategicamente. A
partir daí, um conjunto das melhores soluções geradas é incluído no conjunto
referência. Os procedimentos da fase evolutiva são repetidos até que o processo
satisfaça a um critério de parada qualquer. Uma aplicação ao PQA pode ser
encontrada em Cung et al. (1977).
GRASP (Greedy Randomized Adaptive Search Procedures) é uma técnica aleatória e
iterativa onde, a cada iteração, uma solução aproximada para o problema é
obtida. A melhor solução resultante de todas as iterações é a solução final. Em
cada iteração, a primeira solução é construída através de uma função gulosa
aleatória e as soluções posteriores são obtidas aplicando-se, sobre a solução
anterior, um algoritmo de busca local que forneça uma nova solução melhor que a
anterior. Ou seja, cada iteração é composta por duas fases, uma de construção e
outra de busca local. Ao final de todas as iterações, a solução resultante é a
melhor solução gerada. Nada garante que soluções geradas por uma construção
grasp não recaiam em ótimos locais. Assim, é importante aplicar a fase de busca
local na tentativa de melhorar tais soluções. Com o uso de estruturas de dados
personalizadas e uma implementação cuidadosa, uma fase construtiva eficiente
pode produzir boas soluções iniciais, possibilitando uma busca local eficiente.
Esta técnica foi aplicada ao PQA por diversos pesquisadores e pode ser
encontrada nos seguintes artigos: Li et al. (1994b), Feo & Resende (1995),
Resende et al. (1996), Fleurent & Glover (1999), Ahuja et al. (2000),
Pitsoulis et al. (2001) e Rangel et al. (2000). Também foi aplicada a variações
do PQA: Mavridou et al. (1998) a aplicaram ao BiPQA e Aiex et al. (2000) ao PQA
3-dimensional. Os resultados mostram que o grasp de Ahuja et al. (2000) é o
algoritmo que apresenta melhores resultados.
Colônia de Formigas trata-se de uma classe de algoritmos distribuídos que tem
como principal característica, a definição de propriedades na interação de
vários agentes simples. Tem como princípio a forma como as formigas são capazes
de encontrar um caminho do formigueiro até uma fonte de alimento e vice-versa.
Cada agente simples é chamado de formiga e o conjunto de formigas, cooperando
numa atividade comum para resolver um problema, constitui o sistema AS. A
principal característica do método é que a interação desses agentes gera um
efeito sinérgico, pois a qualidade da solução obtida aumenta quando tais
agentes trabalham juntos, interagindo entre si, para a resolução de um mesmo
problema. Resultados numéricos para o PQA são apresentados em Maniezzo &
Colorni (1995, 1999), Colorni et al. (1996), Dorigo et al. (1996), Maniezzo
(1997) e Gambardella et al. (1999) mostram que colônias de formigas são
heurísticas competitivas, principalmente para instâncias que possuam poucas
soluções boas próximas umas das outras. Outras referências sobre este assunto
estão em Stützle & Dorigo (1999), Stützle & Holger (2000) e Talbi et
al. (2001).
Busca em Vizinhança Variável, conhecida por VNS (Variable Neighbourhood
Search), foi introduzida por Mladenović (1995) e Mladenovi
& Hansen (1997). É baseada na mudança sistemática das
vizinhanças utilizadas na busca e vem sendo aplicada na resolução de grandes
exemplares para problemas combinatórios. Em Taillard & Gambardella (1999)
são propostas três estratégias para o PQA, sendo uma delas uma busca em
vizinhança variável, segundo o paradigma básico, e as outras duas, métodos
híbridos baseados em combinações de métodos descritos anteriormente.
Além disso, existem diversas propostas de algoritmos híbridos aplicados ao PQA.
No artigo Bölte & Thonemann (1996) os autores combinam simulated annealing
com genético, Battiti & Tecchiolli (1994b), Bland & Dawson (1994) e
Chiang & Chiang (1998) usam busca tabu com simulated annealing para o
problema de layout, enquanto Hasegawa et al. (2002) e Talbi et al. (1998b)
utilizam busca tabu junto com redes neurais. Propostas híbridas que combinam
algoritmos genéticos com busca tabu (Fleurent & Ferland, 1994) ou com
algoritmo guloso (Ahuja et al., 2000) mostraram-se mais promissoras que o uso
de genético. Algumas categorias de algoritmos genéticos híbridos são conhecidas
como memetic algorithms ou evolutionary algorithms. Nesta linha podem ser
encontrados os seguintes trabalhos: Brown et al. (1989), Brown & Huntley
(1991), Carrizo et al. (1992), Huntley & Brown (1996), Merz &
Freisleben (1997), Nissen (1997), Ostrowski & Ruoppila (1997) e Misevicius
(2003b). Há, ainda, uma técnica introduzida por Goldbarg & Goldbarg (2002)
que usa uma variação dos algoritmos genéticos, chamada de heurísticas
transgenéticas. Aplicadas ao PQA, elas apresentaram resultados no máximo
compatíveis com os demais, sem acrescentar ganhos em tempo de computação.
Mais recentemente, as redes neurais vêm sendo aplicadas ao PQA por Liang
(1996), Obuchi et al. (1996), Tsuchiya et al. (1996), Ishii & Sato (1998,
2001), Rossin et al. (1999) e Hasegawa et al. (2002). Finalmente, em 2003, um
trabalho que utiliza a definição de pontos extremos em um algoritmo de busca
local foi desenvolvido por Fedjki & Duffuaa (2004) para resolver o
problema.
5. Conclusões
Após apresentarmos o PQA por diversas abordagens, seria interessante
analisarmos, face às referências aqui inseridas, como as diferentes formulações
puderam contribuir para o avanço no estudo do problema, tanto na determinação
de limites inferiores, como na construção de métodos de resolução. Também, é
possível interpretar como o problema quadrático de alocação vem se
desenvolvendo ao longo destes 50 anos. Por exemplo, é possível responder a
seguinte questão: Por que motivos, em um dado período, as pesquisas em torno
deste tema foram mais intensas, despertando maior interesse da comunidade
científica?
A bibliografia apresentada neste trabalho com 278 publicações listadas
determina o universo para esta análise. Nas tabelas que se seguem, as
referências são agrupadas por tipos de abordagem dada ao problema, determinadas
pelas formulações classificadas na seção 2; tipos de limites inferiores
adotados segundo a classificação da seção 3; técnicas ou procedimentos de
resolução dados na seção 4; pela distribuição das referências em relação a
aplicações do PQA versus desenvolvimento teórico (formulações, limites
inferiores e estudos referentes à dificuldade computacional) versus
procedimentos de resolução e, finalmente, pela distribuição das referências ao
longo do tempo.
A Tabela_1 apresenta o número de publicações relacionadas às distintas
formulações do PQA, aqui classificadas por Programação Linear Inteira (PLI),
Programação Linear Inteira Mista (PLIM), Permutação (PM), Traço (TR),
Programação Semidefinida (PSD) e Grafos (GR). Observamos que a abordagem do PQA
que identifica solução com permutação é a que mais vem sendo utilizada, seguida
pelas formulações dadas por programação linear inteira e linear inteira mista.
As formulações menos adotadas na literatura, talvez por se tratarem das mais
recentes, são aquelas que derivam da programação semidefinida e aquelas
exclusivamente adotadas por grafos.
A Tabela_2 apresenta a quantidade de publicações relacionadas aos limites
inferiores, seguindo a classificação que adotamos neste artigo, ou seja,
limites de Gilmore e Lawler (GLB), limites baseados em relaxações PLIM (LPLIM),
limites baseados em reformulações (LBR), limites baseados em Métodos de Pontos
Interiores (LMPI), limites por redução de variância (LRV), limites baseados na
formulação por grafos (LGR) e, finalmente, limites derivados da formulação
traço (LTR), também chamados por limites espectrais.
Observando a Tabela_2, concluímos que a maioria dos trabalhos utiliza os
limites inferiores derivados do de Gilmore e Lawler (GLB), seguido dos limites
espectrais. Observamos que a quantidade de trabalhos que abordam os limites
espectrais é considerável, sendo os mais recentes e os melhores em qualidade.
No entanto, os mais rápidos para calcular e que também são eficientes
correspondem aos derivados do GLB. Isto justifica a distribuição retratada por
esta tabela.
A Tabela_3 registra a distribuição de referências pelos métodos de resolução
aqui classificados por: Métodos Exatos (EXATO), Métodos Heurísticos (HEUR) e
Metaheurísticas (META).
Se confrontarmos os métodos exatos contra os heurísticos, incluindo as
metaheurísticas, estes últimos são utilizados em 93 artigos, contra 43 que
utilizam algoritmos exatos.
A Tabela_4 registra a distribuição de referências pelos métodos de resolução,
tipo metaheurística, aqui classificados. Assim temos: Simulated Annealing
(MSA), Busca Tabu (MBT), Algoritmos Genéticos (MAG), Scatter Search (MSS),
GRASP (GRASP), Colônia de Formigas (MCF), Busca em Vizinhança Variável (VNS),
Algoritmos Híbridos (MAH) e Redes Neurais e outros (RNO).
Ao analisarmos a Tabela_4 vemos que os procedimentos híbridos resultantes de
composições de metaheurísticas distintas são os mais utilizados. No entanto, ao
analisarmos a tabela comparando somente as metaheurísticas puras, os
procedimentos baseados em simulated annealing e grasp são os mais aplicados ao
PQA. Ultimamente as redes neurais vêm sendo utilizadas na resolução deste
problema e aqui estão representadas na coluna RNO.
Cada uma das duas tabelas restantes apresenta a distribuição das publicações
aqui referidas de acordo com as seguintes características: a Tabela_5 mostra
como as referências se distribuíram em relação a artigos dedicados a aplicações
do PQA, (Apl), a trabalhos teóricos envolvendo formulações, estudos de
complexidade e técnicas de limites inferiores (Teor) e ainda aqueles dedicados
a procedimentos de resolução do problema (Alg). A Tabela_6 distribui o número
de artigos por período de 3 anos, a partir de 1957, quando o problema foi
proposto.
É possível observar que o nível de interesse pelo problema vem crescendo até o
final da década de 70. Nesta ocasião, este se mantém ou até mesmo diminui uma
vez que a teoria até então muito desenvolvida não conseguia contribuir com a
melhoria na qualidade de soluções encontradas pelos procedimentos existentes,
mesmo para pequenas instâncias (em torno de 20 facilidades e locais). Ao final
dos anos 80, com o surgimento das metaheurísticas, este problema ganhou
notoriedade, pois uma metaheurística só poderia ser considerada competitiva se
aplicada ao PQA conseguisse apresentar melhores resultados que aqueles
conhecidos. Com o avanço tecnológico (computação paralela) combinado com estas
técnicas mais gerais (metaheurísticas) tornou-se possível determinar soluções
ótimas para instâncias maiores. Em verdade, um pouco maiores, no caso deste
problema (como vimos hoje é possível resolver casos de instâncias de ordem 30).
Novamente, observando a Tabela_6, vemos que, a partir de 2000, o interesse da
comunidade científica pelo PQA parece diminuir. Podemos imaginar que este
desinteresse mais recente decorra de que nenhum fato oriundo das recentes
especulações teóricas ou técnicas (avanço computacional) foi capaz de produzir
um avanço significativo na possibilidade da resolução exata de exemplares
maiores do problema. Conforme dissemos na Introdução, somente no ano 2000,
provou-se que as soluções ótimas para a instância Nug30 e outras de tamanho
equivalente foram alcançadas, mesmo assim, com considerável esforço
computacional.