Home   |   Structure   |   Research   |   Resources   |   Members   |   Training   |   Activities   |   Contact

EN | PT

BrBRCEEn0101-74382004000100005

BrBRCEEn0101-74382004000100005

variedadeBr
ano2004
fonteScielo

O script do Java parece estar desligado, ou então houve um erro de comunicação. Ligue o script do Java para mais opções de representação.

Uma revisão comentada das abordagens do problema quadrático de alocação

1. Introdução Consideremos o problema de se designar objetos a locais de modo que cada objeto seja atribuído a um único local e reciprocamente, quando são conhecidas as distâncias entre os pares de locais, os fluxos de algum tipo de demanda entre os pares de objetos e, nos casos mais gerais, os custos fixos de cada atribuição "objeto versus local". O Problema Quadrático de Alocação (PQA), Quadratic Assignment Problem (QAP) na literatura internacional, consiste em encontrar uma alocação de custo mínimo dos objetos aos locais, sendo os custos obtidos pela soma dos produtos distância-fluxo.

Proposto originalmente por Koopmans & Beckmann (1957) como um modelo matemático relacionado a atividades econômicas, o PQA aparece em inúmeras aplicações práticas: Steinberg (1961) o utilizou para minimizar a quantidade de ligações entre componentes de placas de circuitos eletrônicos; Francis & White (1974), no desenvolvimento de um framework de decisões de alocação de uma nova facilidade (postos policiais, supermercados, escolas) que atenda a um dado conjunto de clientes; Geoffrion & Graves (1976), em problemas de escalonamento de horário; Pollatschek et al. (1976), na definição de design de teclados e painéis de controle; Krarup & Pruzan (1978), em arqueologia; Forsberg et al. (1994), em análise de reações químicas; Hubert (1987), em análise estatística; Bokhari (1987), em computação paralela e distribuída; Bos (1993), em um problema relacionado a parques florestais. No entanto, é como problema de layout que o PQA vem sendo mais extensivamente aplicado: Elshafei (1977) o utilizou em planejamentos de hospitais, além de Dickey & Hopkins (1972) que o utilizaram na modelagem de localização de construções em campus universitário. Outras aplicações podem ser encontradas em McCormick (1970), Hubert & Schulz. (1976), Heffley (1977), Los (1978), Krackhardt (1988), Khare et al. (1988a, 1988b), Bland & Dawson (1991), Lacksonen & Enscore (1993), Medova (1994), Gouveia & Voß (1995), Bozer & Suk-Chul (1996), Mason & Rönnqvist (1997), Ostrowski & Ruoppila (1997), Ball et al.

(1998), Haghani & Chen (1998), Kochhar et al. (1998), Martin (1998), Sarker et al. (1998), Spiliopoulos & Sofianopoulou (1998), Tansel & Bilen (1998), Tavakkoli-Moghaddain & Shayab (1998), Urban (1998), Gong et al.

(1999), Rossin et al. (1999), Hahn & Krarup (2001), Pitsoulis et al.

(2001), Siu & Chang (2002), Youssef et al. (2003) e Yu & Sarker (2003).

Desde a sua primeira formulação, o PQA tem atraído a atenção de pesquisadores em todo o mundo, não apenas pela sua importância prática e teórica, mas principalmente pela sua complexidade. Trata-se de um dos mais difíceis problemas de otimização combinatória: instâncias de ordem n > 30 não podem, em geral, ser resolvidas exatamente em tempo computacional aceitável. Sahni & Gonzales (1976) mostraram que o PQA é NP-árduo e que, a menos que P = NP, não será possível encontrar para ele uma solução aproximada por um fator constante da solução ótima. Tais resultados são válidos mesmo quando fluxos e distâncias aparecem como coeficientes de matrizes simétricas.

Diversos problemas NP-árduos de otimização combinatória, como os problemas do caixeiro viajante, do empacotamento, da clique maximal e do isomorfismo de grafos, podem ser modelados como PQA's. A investigação de problemas de Otimização Combinatória através de instâncias disponibilizadas na Internet é uma tendência atual permitindo que se utilizem algoritmos exatos onde isso for possível ou obter ótimos locais melhores que a melhor solução conhecida para exemplares cuja otimalidade ainda não foi comprovada (Burkard et al., 1996a; e Çela, 1998). No caso do PQA, podemos citar, como exemplo, instâncias com soluções ótimas recentemente provadas: Tai25a, em 2003, por Peter Hahn; Ste36a, em 2001, por Brixius e Anstreicher; Bur26a, em 2001, por Peter Hahn; Kra30a, Kra30b, Kra32 e Tho30, em 2000, por Anstreicher, Brixius, Goux e Linderoth; Nug30 (uma das instâncias mais conhecidas e desafiadoras), em 2000, por Anstreicher, Brixius, Goux e Linderoth; Ste36b e Ste36c, em 1999, por Nystrõm.

Em 2003, Misevicius melhorou a melhor solução conhecida para Tai80a, utilizando uma busca tabu modificada (Burkard et al., 1991, 1997; QAPLIB). Estes resultados motivaram o artigo de Anstreicher (2003) que registra os recentes avanços na solução de instâncias do PQA, destacando-se os novos algoritmos e as novas estruturas computacionais utilizadas para isto. Cabe informar que além dos exemplares disponíveis para testes em Burkard et al. (1991, 1997) e QAPLIB, hoje em dia existem geradores de instâncias com ótimos conhecidos que são utilizados para testar os algoritmos (Çela, 1998).

Outra tendência atual das pesquisas em Otimização Combinatória é estudar versões polinomiais de problemas ou procurar instrumentos para análise da dificuldade dos exemplares. No caso do PQA, Çela (1998) apresenta diversos exemplares polinomiais, além de Herroelen & Vanglis (1985), Mautor & Roucairol (1994b), Angel & Zissimopoulos (1998, 2000, 2001, 2002) e Abreu et al. (2002) que discutem a dificuldade de outros exemplares em função das variâncias dos coeficientes das matrizes de fluxo e distância que os definem.

Os seguintes surveys são referências indispensáveis para quem deseja conhecer bem este problema: Burkard (1984, 1991, 2002), Pardalos et. al. (1994) e Burkard et al. (1998), assim como, os livros: Pardalos & Wolkowicz (1994), Padberg & Rijal (1996), Dell'Amico et al. (1997) e Çela (1998).

Na tentativa de identificar novas propriedades estruturais para as instâncias do PQA, muitas formulações aparecem com base em diferentes enfoques. Propomos reunir aqui tais formulações, destacando as principais características de cada uma, para classificá-las segundo as técnicas usadas, desde a Programação Inteira e a Programação Semidefinida Positiva, passando pela Matemática Discreta e Combinatória através das teorias de Grupos e de Grafos, até a Álgebra Linear, via Teoria Espectral. Considerando as dificuldades do PQA, essas formulações, quase sempre equivalentes (à exceção das que caracterizam situações mais gerais) fornecem recursos matemáticos alternativos para o desenvolvimento de novas técnicas de resolução do problema. Ao final do artigo, relatamos as contribuições obtidas a partir de tais formulações, quer na elaboração de algoritmos exatos ou heurísticos, quer no cálculo de limites inferiores ou na caracterização de classes de exemplares do problema.

2. Formulações do PQA e de Problemas Relacionados O objetivo deste item é apresentar as principais formulações do PQA, destacando-se o tipo de abordagem adotado em cada uma delas. Formulações para problemas relacionados ao PQA serão acrescentadas ao final, apenas com a finalidade de indicar as contribuições colaterais obtidas, sem preocupação em discutir as técnicas matemáticas utilizadas.

2.1 Principais Formulações do PQA Formulações por Programação Inteira (PLI): Inicialmente apresentaremos o PQA como um caso de programação booleana para depois apresentá-lo como um problema de programação linear, onde as restrições binárias são relaxadas. A formulação booleana foi proposta inicialmente por Koopmans & Beckmann (1957), sendo depois utilizada em diversos trabalhos, tais como Steinberg (1961), Lawer (1963), Gavett & Plyter (1966), Elshafei (1977), Bazaraa & Kirca (1983), Christofides & Benavent (1989), Bos (1993), Mans et al. (1995), Jünger & Kaibel (1996a, 1996b, 2001) e mais recentemente por Liang (1996), Torki et al. (1996), Tsuchiya et al. (1996, 2001), Maniezzo (1997), Ball et al.

(1998), Ishii & Sato (1998), Kochhar et al. (1998), Martin (1998), Spiliopoulos & Sofianopoulou (1998), Siu & Chang (2002), Fedjki & Duffuaa (2004) e Yu & Sarker (2003).

Consideremos fij o fluxo entre os objetos i e j e dkp a distância entre as localizações k e p. Deseja-se então calcular:

Se considerarmos a função do custo de atribuição de atividades a locais, uma instância PQA de ordem n, em sua forma mais geral, é dada por três matrizes F = [fij], D = [dkp] e B = [bik], onde as matrizes F e D definem os fluxos entre os objetos e as distâncias entre as localizações, respectivamente, e bik é o custo para alocar o objeto i à posição k. Considerando o custo fixo de alocação, o problema pode então ser definido por:

A maioria dos autores dispensa a parcela linear de (2.5), dado que ela pode ser facilmente resolvida.

Uma versão ainda mais geral do PQA, proposta por Lawler (1963), envolve coeficientes de custos cijkp que não correspondem necessariamente a produtos de fluxos fij por distâncias dkp. Assim, a formulação de Lawler é dada:

Esta formulação foi utilizada, também, em Bazaraa & Elshafei (1979), Drezner (1995), Sarket et al. (1995, 1998), Brüngger et al. (1997, 1998), Chiang & Chiang (1998), Hahn & Grant (1998), Hahn et al. (1998), Gong et al. (1999) e Rossin et al. (1999).

Formulações por Programação Inteira Mista (PLIM): O PQA, como um modelo de Programação Linear Inteira Mista, PLIM, é encontrado na literatura, via diversas propostas. Em todas elas, o termo quadrático da função objetivo do problema é substituído por termos lineares. Por exemplo, Lawler (1963) compensou este termo por imposição de restrições dadas a n4 variáveis, tais como .

Outras formulações utilizam relaxações do problema original. Enquadram-se nesta categoria os trabalhos de Love & Wong (1976a, 1976b), Kaufman & Broeckx (1978), Balas & Mazolla (1980), Bazaraa & Sherali (1980), Christofides et al. (1980), Burkard & Bonniger (1983), Frieze & Yadegar (1983), Assad & Xu (1985), Adams & Sherali (1986), Christofides & Benavent (1989) e ainda os artigos de Adams & Johnson (1994), Drezner (1995), Gouveia & Voß (1995), Padberg & Rijal (1996), Ramachandran & Pekny (1998), Karisch et al. (1999) e de Ramakrishnan et al. (2002). Em geral, as linearizações do PQA, baseadas em modelos de PLIM, apresentam um grande número de variáveis e restrições, o que as torna, quase sempre, inconvenientes. No entanto, elas permitem explorar propriedades que resultam da linearidade da função objetivo, o que, ao lado da relaxação de algumas restrições, possibilita a determinação de limites inferiores para a solução ótima. Nesta abordagem se destacam os trabalhos de Kaufman & Broeckx (1978), Bazaraa & Sherali (1980), Frieze & Yadegar (1983), Adams & Sherali (1986), Adams & Johnson (1994) e Padberg & Rijal, (1996). Çela (1998) destaca três linearizações do PQA: a de Kaufman & Broeckx (1978), por conter o menor número de restrições; a de Frieze & Yadegar (1983) por obter os melhores limites inferiores via relaxação lagrangeana e a de Padberg & Rijal (1996), porque descreve o politopo das soluções do PQA. A vantagem trazida pela formulação de Frieze & Yadegar (1983) que descreve o PQA de forma linear, utilizando-se n4 variáveis reais, n2 variáveis booleanas e n4 + 4n3 + n2 + 2n restrições, nos leva a inseri-la aqui. Os autores mostram que sua formulação dada em (2.7) a (2.16) é equivalente às equações (2.1) a (2.4).

Formulação por permutações: Em sua forma mais simples, o custo de alocar um par de objetos a um par de localizações é proporcional ao fluxo e à distância entre eles. A formulação do PQA que destaca essa proporcionalidade e utiliza o conceito de permutação pode ser encontrada em Hillier & Michael (1966), Graves & Whinston (1970), Pierce & Crowston (1971) e, posteriormente, em Cung et al. (1977), Burkard & Stratman (1978), Roucairol (1979, 1987), Burkard (1984), Frenk et al. (1985), Abreu & Boaventura-Netto (1989), Brown et al. (1989), Bland & Dawson (1991, 1994), Battiti & Tecchiolli (1994a, 1994b), Bui & Moon (1994), Chakrapani & Skorin-Kapov (1994), Fleurent & Ferland (1994), Li et al. (1994b), Mautor & Roucairol (1994a, 1994b), Li & Smith (1995), Taillard (1995), Bozer & Suk-Chul (1996), Colorni et al. (1996), Huntley & Brown (1996), Peng et al. (1996), Mavridou & Pardalos (1997), Merz & Freisleben (1997), Nissen (1997), Pardalos et al. (1997), Angel & Zissimopoulos (1998), Deineko & Woeginger (1998), Talbi et al. (1998a, 1998b, 2001), Tansel & Bilen (1998), Abreu et al. (1999), Fleurent & Glover (1999), Gambardella et al. (1999), Maniezzo & Colorni (1999) e Tian et al. (1999). A partir de 2000, temos ainda as seguintes publicações Ahuja et al. (2000), Angel & Zissimopoulos (2000, 2001 e 2002), Stützle & Holger (2000), Arkin et al. (2001), Pitsoulis et al. (2001) e ainda em Abreu et al. (2002), Gutin & Yeo (2002), Hasegawa et al. (2002), Boaventura Netto (2003) e Rangel & Abreu (2003).

Considere Sn o conjunto de todas as permutações a n elementos e sejam fij, o fluxo entre os objetos i e j e dp(i)p(j), a distância entre as localizações p (i) e p (j), dada pela permutação p ÎSn. Se cada permutação p representar uma alocação de objetos a locais, a expressão matemática para o PQA toma a forma:

Esta formulação e a apresentada em (2.1) a (2.4) são equivalentes, dado que as restrições (2.2) e (2.3) definem matrizes de permutações X = [xij] que caracterizam permutações em Sn, como visto em (2.17). se tem, para todo 1 < i, j< n,

Formulação Traço: Esta formulação explora, com recursos da álgebra linear, as propriedades da função traço de uma matriz (soma dos elementos da diagonal principal da matriz) para determinar limites inferiores do custo ótimo do problema. Trata-se de uma abordagem por teoria espectral de matrizes, o que vem permitindo a aplicação da programação semidefinida ao PQA. Considerando-se P como o conjunto de todas as matrizes de permutações, a formulação traço, proposta por Edwards (1977), se apresenta como:

Posteriormente, esta abordagem foi utilizada em diversos trabalhos Edwards (1980), Finke et al. (1987), Hadley et al. (1990, 1992a, 1992b, 1992c), Hadley (1994), Karisch et al. (1994), Karisch & Rendl (1995), Zhao et al. (1998), Anstreicher et al. (1999), Wolkowicz (2000a, 2000b), Brixius & Anstreicher (2001) e Anstreicher & Brixius (2001).

Relaxação por Programação Semidefinida (PSD): Estas formulações definem relaxações do PQA e podem ser obtidas utilizando-se o dual do dual Lagrangeano de formulações equivalentes ao problema, como se em Karisch et al. (1994), Zhao et al. (1998), Wolkowicz (2000a, 2000b). A formulação por PSD é dada a seguir e considera o vetor e em que todos os coeficientes são iguais a 1, a matriz de permutação X e a matriz de custo fixo B.

Outra relaxação para o PQA utilizando SDP, encontrada em Zhao et al. (1998), pode ser assim expressa:

Formulação por Grafos: Dados dois grafos completos, um com arestas valoradas pelos fluxos e o outro pelas distâncias, o PQA pode ser pensado como a atribuição dos vértices de um grafo aos do outro, de modo a que as arestas estejam corretamente superpostas, caracterizando uma solução cujo custo é dado pela soma dos produtos dos valores associados às arestas. Em geral, esta formulação é algebricamente dada pela expressão (2.17), onde a permutação p representa a sobreposição dos vértices de um grafo completo sobre o outro. Veja a Figura_2.1.

O estudo algébrico e combinatório adotado por Abreu & Boaventura Netto (1989), Abreu et al. (1999) levou Marins (2001) a definir outra, envolvendo automorfismos de grafos de linha, tópico explorado em teoria algébrica de grafos. O grafo de linha de um grafo G, denotado por L(G), é determinado tomando-se para conjunto de vértices, o das arestas de G, enquanto uma aresta de L(G) é definida quando a ela corresponde um par de arestas incidentes num mesmo vértice de G. Um automorfismo de um grafo é uma permutação de seus vértices que preserva suas arestas. O conjunto de todos os automorfismos de G junto com a composição de permutações constitui um grupo denotado por Aut(L(G)) (Kreher & Stinson, 1998).

O teorema de Whitney (1932) pode ser utilizado para relacionar o grupo dos automorfismos de G com o dos automorfismos de L(G), garantindo que, para G = Kn, o grafo completo de n vértices, se n ¹ 2 e 4, Aut(G) e Aut(L(G)) são grupos isomorfos. Desta forma, Aut(Kn) é formado pelas n! permutações dos vértices de Kn. Assim, para 2, 4, temos os seguintes isomorfismos Aut(L(Kn)) " Kn " Sn. De posse destes resultados, Marins (2001) percebeu então que resolver o PQA consiste, tanto em se determinar uma permutação p ÎSn que minimize o somatório em (2.17) como em determinar um automorfismo de L(Kn).

Esta formulação, tendo o conjunto dos automorfismos do grafo linha de Kn como espaço solução do problema, pode ser expressa como segue:

Dado ser esta uma formulação recente, os primeiros trabalhos nesta linha estão em fase de experimentação (Marins, 2001).

2.2 Problemas Relacionados ao PQA O alcance teórico dos estudos do PQA atinge a uma série problemas que aqui apresentamos, nos limitando a definição de cada um com suas respectivas referências: PQA Bottleneck, Problema Biquadrático de Alocação, PQA 3- dimensional, Problema Semiquadrático de Alocação e PQA Multiobjetivo. Estes problemas, em sua maioria, foram relatados em Burkard (2002).

PQA Bottleneck: este problema é uma variação do PQA e consiste em calcular um coeficiente de valor mínimo dentre os máximos produtos dos "fluxos por distâncias" para cada permutação dada. Isto resulta na expressão:

A formulação acima também pode ser utilizada substituindo-se os elementos do conjunto em (2.29) por coeficientes mais gerais cijkl, 1£i, j, k, l£n. Este caso do PQA foi estudado em Steinberg (1961), Burkard & Fincke (1982), Burkard & Zimmermann (1982) e Burkard (2002).

O Problema Biquadrático de Alocação (Biquadratic Assignment Problem): Proposto por Burkard et al. (1994) foi também estudado por outros pesquisadores, destacando-se as referências Burkard & Çela (1995), Mavridou et al. (1998) e Burkard (2002). Tem como dados, matrizes de fluxos e distâncias F = [fijkl] e D = [dmpst], cada uma delas de ordem n4. O que se deseja é determinar uma permutação p ÎSn, cujo custo associado seja mínimo, dentre aquelas que fornecem os valores do quádruplo somatório:

O PQA 3-dimensional (Three-index Assignment Problem): neste, diferentemente do caso anterior, deseja-se determinar duas permutações p e j Î Sn, tais que minimize a expressão:

Foi sugerido por Pierskalla (1967, 1968). Alguns anos depois, Hansen & Kaufman (1973) apresentaram um algoritmo primal-dual para o problema e Burkard & Fröhlich (1980) propuseram um algoritmo do tipo branch-and-bound para resolvê-lo. Emelichev et al. (1984) fornecem uma análise detalhada sobre problemas de transporte com múltiplos índices, baseado nesta formulação. O PQA 3-dimensional é um dos problemas mais estudados, relacionados ao quadrático de alocação, como se observa pela extensa lista de referências disponíveis: Vlach (1967), Frieze (1974, 1983), Frieze & Yadegar (1981), Burkard et al. (1986, 1996a, 1996b), Euler (1987), Balas & Saltzman (1989), Balas & Saltzman (1991), Bandelt et al. (1991), Crama & Spieksma (1992), Balas & Qi (1993), Burkard & Rudolf (1993), Qi et al. (1994), Magos & Miliotis (1994), Poore (1994a, 1994b, 1995, 1997), Fortin & Rudolf (1995), Burkard & Çela (1996), Magos (1996), Aiex (2000) e Burkard (2002).

O Problema Semiquadrático de Alocação (Quadratic Semiassignment Problem ou Semi-quadratic Assignment Problem): foi estudado em Carraresi & Malucelli (1994) e pode ser expresso matematicamente assim:

Algumas aplicações daí derivadas estão em Simeone (1986a, 1986b) e Bullnheimer (1998) e referências para casos polinomiais e para heurísticas são Freeman et al. (1966), Magirou & Milis (1989) e Malucelli & Pretolani (1993).

O PQA Multiobjetivo (Multiobjective QAP mQAP): Recentemente em Knowles & Corne (2002a, 2002b) apresentaram uma outra variação do PQA que considera múltiplas matrizes de fluxos. Este problema foi introduzido como um caso de benchmark problem a ser solucionado por metaheurísticas multiobjetivas ou algoritmos evolucionários mutiobjetivos. Segundo os autores esta forma parece ser mais apropriada para alguns tipos de problemas de layout, como o de alocação de instalações em hospitais, onde é necessário minimizar simultaneamente os produtos dos fluxos pelas distâncias entre médicos e pacientes e entre enfermeiros e equipamentos médicos. Sua expressão matemática é:

Nesta última restrição <formula/> denota o k-ésimo fluxo entre a facilidade i e a facilidade j.

3. Limites Inferiores O estudo de limites inferiores é importante no desenvolvimento de algoritmos de resolução de problemas de programação matemática e de otimização combinatória.

Em geral, os métodos exatos trabalham com enumeração implícita, procurando-se garantir o ótimo e ao mesmo tempo evitando-se a enumeração completa das soluções viáveis dos problemas. O desempenho de tais métodos depende diretamente da qualidade e da eficiência computacional dos limites inferiores envolvidos. Desta forma, os limites inferiores tornam-se instrumentos fundamentais para as técnicas branch-and-bound e também para testar a qualidade das soluções produzidas por algoritmos heurísticos. Medimos a qualidade de um limite inferior pela distância entre o mesmo e a solução ótima do problema.

Assim, bons limites devem estar próximos dos valores ótimos. Os limites inferiores para os métodos exatos, além de apresentarem boa qualidade, precisam ser eficientes computacionalmente, enquanto na avaliação de métodos heurísticos eles devem ser escolhidos muito mais em função de sua qualidade do que do tempo computacional gasto para calculá-los. Em problemas NP-árduos, procura-se sempre por bons limites inferiores. No caso do PQA, um dos mais difíceis, esta é uma tarefa desafiadora.

Dentre os limites mais conhecidos para o PQA, destaca-se o de Gilmore e Lawler, por ser um dos mais simples e de baixo custo computacional. Sua inconveniência está em que a distância entre ele e o custo da a solução ótima do problema cresce muito rapidamente com o aumento do tamanho do problema, tornando-o assim um limite de baixa qualidade para exemplares grandes. Atualmente, os limites inferiores baseados em autovalores e programação semidefinida são os melhores encontrados, porém são bastante caros computacionalmente. No entanto, Anstreicher & Brixius (2001) desenvolveram um novo limite inferior para o PQA, utilizando programação semidefinida e programação quadrática convexa, que apresenta uma relação muito boa entre custo e qualidade.

O limite de Gilmore e Lawler (GLB) (Lawler, 1963; e Gilmore, 1962): é dado pela solução do seguinte Problema de Alocação Linear (PAL):

Para resolver o problema de minimização de (3.1) a (3.4) é preciso determinar os coeficientes lij, resolvendo o PAL abaixo:

Métodos que melhoram a qualidade do GLB, bem como o seu uso em algoritmos para resolver o PQA, podem ser encontrados em Roucairol (1979, 1987), Edwards (1980), Frieze & Yadegar (1983), Finke et al. (1987), Maniezzo (1997), Burkard (1991), Brüngger et al. (1997, 1998), e Spiliopoulos & Sofianopoulou (1998).

Limites Baseados em Relaxações PLIM: A solução ótima de um problema formulado por PLIM é um limite inferior para o ótimo do PQA correspondente e cada solução do dual de programação linear é, também, um limite inferior para o ótimo do PQA. Em vista disso, diversos autores utilizam esta ferramenta, destacando-se Frieze & Yadegar (1983), Assad & Xu (1985), Adams & Johnson (1994), Drezner (1995), Ramachandran & Pekny (1998) e Karisch et al. (1999).

Limites Baseados em Reformulações do GLB: As idéias utilizadas para calcular o GLB foram adaptadas por outros autores, dando origem aos limites inferiores dados por Frieze & Yadegar (1983), Assad & Xu (1985), Carraresi & Malucelli (1992, 1994) e Adams & Johnson (1994) e a um limite baseado em na formulação dual de Hahn & Grant (1998) e Hahn et al. (1998). Tais limites definem uma seqüência finita de problemas equivalentes ou reformulações do problema original, em geral relaxações lineares, e calculam o limite de Gilmore e Lawler para cada reformulação. A seqüência de problemas P0 = P, P1, ... ,Pk , produz outra, de soluções, que correspondem às relaxações lineares, fornecendo então uma seqüência de limites inferiores não decrescentes para o PQA. Os limites produzidos por Assad & Xu (1985) e por Carraresi & Malucelli (1992, 1994) são comparáveis aos obtidos por Frieze & Yadegar (1983) em termos de qualidade, com a vantagem de demandar menor tempo computacional. Não , no entanto, uma prova teórica de sua convergência. Ainda nesta linha, temos os limites baseados em formulações duais: tais limites combinam as idéias do GLB com um esquema de redução iterativo, utilizando o dual de uma relaxação de programação linear do problema original (Hahn & Grant, 1998; Hahn et al., 1998). Os resultados computacionais de Hahn & Grant (1998) mostram que estes limites são competitivos em termo de qualidade quando comparados a alguns dos melhores limites existentes, sendo superiores em termos de tempo computacional.

Limites Baseados em Métodos de Pontos Interiores: Resende et al. (1995) usam uma relaxação linear dada por PLIM conjugada com métodos de pontos interiores e com um algoritmo aproximado, conhecido por dual projetivo de Karmarkar & Ramakrishnan (1991). Com o uso desta técnica, eles obtiveram limites melhores que os de Adams & Johnson (1994), em termos de qualidade, sendo superados somente pelos limites baseados em decomposição triangular que podem ser calculados para PQA's com estruturas especiais, (PQA grids). No entanto, estes limites requerem alto esforço computacional, não sendo recomendado para algoritmos do tipo branch-and-bound. Neste caso, recomenda-se o limite inferior dual de Hahn & Grant (1998), pois trata-se do único limite conhecido capaz de com menor esforço computacional competir com o anterior em termos de qualidade.

Limites por Redução de Variância: Propostos inicialmente por Li et al. (1994a), são baseados em esquemas de redução ao ótimo do PQA, definidos a partir da variância das matrizes F e D. Estes pesquisadores usam estes limites em um algoritmo branch-and-bound. Experimentalmente, eles apresentam baixo custo computacional e, em geral, são melhores que o de Gilmore e Lawler, sendo mais eficientes quando as matrizes de fluxos e distância possuem variância alta.

Limites Baseados na Formulação por Grafos: Como vimos, matrizes n´n, F e D, que armazenam os dados para um exemplar do PQA, podem ser vistas como matrizes de adjacência de dois grafos valorados e completos KF e KD. Sabemos que cada permutação p ÎSn define um isomorfismo entre KF e KD. Se considerarmos Z(F, D,p) como o custo deste isomorfismo, resolver o PQA significa encontrar um isomorfismo de custo mínimo entre KF e KD. Um limite inferior que usa este conceito foi proposto originalmente por Lawler (1963) e por Gavett & Plyter (1966), sendo posteriormente adaptado por Christofides & Gerrard (1981). A idéia básica consiste em decompor os grafos KF e KD em k subgrafos isomorfos, KF(1), KF(2), ... , KF(k) e KD(1), KD(2), ..., KD(k). Deste modo, os subgrafos KF(i) e KD(i), devem ter o mesmo conjunto de vértices de KF e KD e toda aresta em cada uma das cliques deve estar presente em pelo menos um dos subgrafos correspondentes. Portanto, o número de ocorrências de uma aresta de KF e KD nos subgrafos KF(i) e KD(i) é uma constante d. Um isomorfismo entre KF e KD, associa cada subgrafo KF(i) a exatamente um subgrafo KD(j), 1£i, j£k. O valor ótimo de um custo correspondente ao PAL, definido a partir dos coeficientes de custos do PQA, multiplicado por 1/d, determina um limite inferior para o valor do custo ótimo do problema quadrático.

Limites Espectrais: dois grupos deles, um apresenta limites derivados da formulação traço e o outro reúne aqueles relacionados à formulação PSD. Ambos são determinados em função dos autovalores das matrizes relacionadas aos dados do problema. Em geral, os limites espectrais são os melhores conhecidos para o PQA, mas o seu cálculo envolve determinação de raízes de polinômios (autovalores) que, como sabemos, é de grande dificuldade computacional. Limites espectrais podem ser encontrados em: Finke et al. (1984, 1987), Rendl (1985), Hadley et al. (1990, 1992a, 1992b), Rendl & Wolkowicz (1992), Karisch et al. (1994), Zhao et al. (1998), Anstreicher (2001) e Anstreicher & Brixius (2001).

4. Métodos de Resolução Uma estratégia para alcançar uma solução exata de problemas muito complexos é dividi-lo em subproblemas menores na tentativa de resolvê-los de forma exata.

No entanto, na maioria dos casos, tais problemas somente são resolvidos de forma heurística, a partir da combinação de diferentes métodos. No contexto do PQA apresentaremos as diferentes técnicas utilizadas para resolvê-lo, destacando-se as referências mais importantes.

4.1 Algoritmos Exatos Os diferentes métodos utilizados para encontrar uma solução ótima global para o PQA compreendem branch-and-bound, planos de corte ou combinações destes, como branch-and- cut, e programação dinâmica. Os algoritmos do tipo branch-and-bound são os mais conhecidos e utilizados e são definidos a partir de uma regra de alocação e de uma regra de corte que, em geral, é ditada por um limite inferior do problema. Em Gilmore (1962), Land (1963) e Lawler (1963) encontramos os primeiros esquemas enumerativos que usam limites inferiores para eliminar soluções não desejadas. Diversas referências estão disponíveis sobre algoritmos branch-and-bound para o PQA. Dentre as mais antigas, destacamos Gavett & Plyter (1966), Nugent et al. (1969), Graves & Whinston (1970), Pierce & Crowston (1971), Burkard & Stratman (1978), Bazaraa & Elshafei (1979), Mirchandani & Obata (1979), Roucairol (1979), Burkard & Derigs (1980), Edwards (1980), Bazaraa & Kirca (1983), Kaku & Thompson (1986) e Pardalos & Crouse (1989) e dentre as mais recentes temos Burkard (1991), Laursen (1993), Mans et al. (1995), Bozer & Suk-Chul (1996), Pardalos et al. (1997), Brüngger et al. (1998), Ball et al. (1998), Spiliopoulos & Sofianopoulou (1998) e Brixius & Anstreicher (2001). Nos últimos anos estão sendo muito utilizados procedimentos que combinam técnicas de branch-and-bound com implementação paralela. É através destas implementações que se tem obtido os melhores resultados para o PQA, cujo sucesso na resolução de instâncias maiores também está diretamente relacionado ao avanço tecnológico alcançado em relação ao hardware. Os resultados publicados nesta categoria estão em Roucairol (1987), Pardalos & Crouse (1989), Mautor & Roucairol (1994a), Brüngger et al. (1997), Clausen & Perregaard (1997) e Maniezzo (1997).

A programação dinâmica é uma técnica utilizada em casos especiais do PQA onde a matriz de fluxos é a matriz de adjacência de uma árvore. Estes casos foram estudados por Christofides & Benavent (1989) que, utilizando a abordagem PLIM, resolvem o problema relaxado com um algoritmo de programação dinâmica.

Isto foi possível, porque tais instâncias têm complexidade polinomial. Esta técnica também foi utilizada por Urban (1998).

Métodos de planos de corte aplicados ao PQA foram introduzidos por Bazaraa & Sherali (1980). Tais métodos apesar de não apresentarem resultados satisfatórios contribuíram na formulação de algumas heurísticas baseadas em planos de corte que fazem uso de PLIM e da decomposição de Benders. A técnica empregada ainda não é amplamente utilizada, mas têm fornecido soluções de boa qualidade no caso do PQA, cuja convergência lenta, permite resolver pequenas instâncias (Kaufman & Broeckx, 1978; Balas & Mazolla, 1980; Bazaraa & Sherali, 1980, 1982; e Burkard & Bonniger, 1983). A técnica branch- and-cut, cujo termo foi proposto originalmente por Padberg & Rinaldi (1991), surge como uma estratégia alternativa às anteriores e explora o politopo definido pelas soluções viáveis do problema considerado. A principal vantagem de algoritmos branch-and-cut sobre os de planos de corte é o uso de cortes que são válidos para o politopo formado por todas as soluções viáveis, definindo facetas. Tais cortes associados às facetas são mais significativos que os produzidos pelo método de planos de corte, pois a convergência para uma solução ótima é acelerada. O pouco conhecimento do politopo caracterizado pelas soluções do PQA é o motivo pelo qual os planos de corte poliédricos ainda quase não são aplicados neste caso. Apesar disso, alguns pesquisadores tem conseguido, nos anos mais recentes, encontrar propriedades básicas desse politopo, o que poderá contribuir para futuros desenvolvimentos de algoritmos.

Consulte Jünger & Kaibel (1996a, 1996b, 2001) e Padberg & Rijal (1996).

4.2 Algoritmos Heurísticos Algoritmos heurísticos são aqueles que não apresentam garantia de determinação da solução ótima para o problema estudado. Os métodos aproximativos podem se enquadrar nesta categoria, acrescentando-se que, para estes casos, são conhecidas propriedades com garantia do pior caso. Além disso, conforme Osman & Laporte (1996), é comum, na literatura de Otimização Combinatória, os algoritmos aproximativos serem tratados como algoritmos heurísticos. É neste contexto que nos enquadramos estamos considerando técnicas heurísticas apenas como procedimentos dedicados ao problema considerado na busca de soluções de boa qualidade. As técnicas mais abrangentes e atuais que podem ser adaptadas a diversos problemas são as metaheurísticas e serão objetos do próximo tópico. As heurísticas para o PQA abrangem os seguintes tipos: métodos construtivos, métodos de enumeração limitada e métodos de melhoria. Ao final deste item, destacamos os algoritmos aproximativos com propriedades matemáticas para garantir o pior caso mas, que dado a dificuldade do PQA, são aplicados apenas a instâncias muito particulares.

Os métodos construtivos surgiram com Gilmore (1962) e sugerem, em cada caso, a construção de uma permutação, de modo que a cada passo um objeto é atribuído a um dado local. Considere os conjuntos A e L, o primeiro, de objetos alocados e o segundo, de localizações ocupadas, ambos inicialmente vazios. Em tais métodos a construção de uma permutação p é feita de forma heurística, escolhendo-se a cada passo, a próxima alocação (i,j), tal que iÏA, jÏL, e fazendo-se p(i) = j.

Para um problema de ordem n o processo é repetido até completar uma permutação na ordem do problema. Tais métodos foram utilizados em Armour & Buffa (1963), Buffa et al. (1964), Sarker et al. (1995, 1998), Tansel & Bilen (1998), Burkard (1991), Arkin et al. (2001), Gutin & Yeo (2002) e Yu & Sarker (2003).

Os métodos de enumeração somente podem garantir que a solução encontrada é ótima se chegarem ao final do processo enumerativo. No entanto, é muito comum que uma boa solução, ou até mesmo uma solução ótima, seja encontrada no início da enumeração. Observa-se que, quanto melhores são as informações utilizadas para guiar a enumeração, maiores serão as chances de se encontrar prematuramente soluções de boa qualidade. No entanto, garantir o ótimo para a solução encontrada, em geral, é muito demorado. Para limitar esta enumeração, são definidas condições de parada, tais como: um número máximo de iterações realizadas pelo algoritmo; finalizar o algoritmo se após um número pré- determinado de passos não ocorrer nenhuma melhoria da função custo; tempo máximo de execução, etc. Torna-se bastante claro que qualquer um destes critérios de parada pode ocasionar a eliminação da solução ótima, o que nos leva a tomar certos cuidados ao utilizar métodos de enumeração limitada (Burkard & Bonniger, 1983; e West, 1983).

Os métodos de melhoria compreendem os algoritmos de busca local. A maioria das heurísticas aplicada ao PQA faz parte desta categoria. Um método de melhoria inicia-se com uma solução viável e tenta melhorá-la, procurando outras soluções em sua vizinhança. O processo é repetido até que nenhuma melhoria possa ser encontrada. Os elementos básicos de tais métodos são: a vizinhança e o critério de seleção que define a ordem em que os elementos vizinhos são analisados (Mirchandani & Obata, 1979; Bruijs, 1984; Burkard & Çela, 1995; Li & Smith, 1995; Anderson, 1996; e Talbi et al., 1998a). Métodos nesta categoria são comumente utilizados pelas metaheurísticas.

Antes de finalizar este item, vale considerar que até agora, os algoritmos aproximativos com garantia de performance por uma constante foram obtidos para casos muito especiais do PQA, quando, por exemplo, a matriz de distâncias atende a desigualdade triangular (Queyranne, 1986) ou quando o problema é tratado como um caso de clique maximal com limite máximo definido previamente (Arkin et al., 2001).

4.3 Metaheurísticas Até o final dos anos 80, os métodos heurísticos propostos para resolver problemas de otimização combinatória eram, em sua maioria, específicos e dedicados a um dado problema. A partir daí, esse paradigma muda e surge um grande interesse em técnicas que sejam mais gerais e por isso, aplicáveis a diversos problemas. Técnicas assim são conhecidas por metaheurísticas. Dentre elas destacam-se: simulated annealing, busca tabu, algoritmos genéticos, scatter search, grasp (greedy randomized adaptive search procedures), colônia de formigas, busca em vizinhança variável, conhecida também por VNS (variable neighbourhood search), e outras técnicas. Com o surgimento das metaheurísticas, o Problema Quadrático de Alocação ganhou um novo impulso, dado que toda metaheurística ao ser implementada usa o PQA como elemento de prova de sua eficiência, uma vez que este é um dos mais difíceis problemas de otimização combinatória. Em Maniezzo & Colorni (1995) e Taillard et al. (2001) são analisados e comparados resultados de algumas metaheurísticas aplicadas ao PQA, tais como busca tabu, genético, scatter search, colônia de formigas e algumas propostas híbridas.

Simulated Annealing é um algoritmo de busca local que explora a analogia entre os problemas de otimização combinatória e os da mecânica estatística (Kirkpatrick et al., 1983). Tal analogia é feita associando-se as soluções viáveis dos problemas de otimização combinatória a estados dos sistemas físicos sendo que seus custos são associados à energia desses estados. Consideremos dois estados sucessivos de energia Ei e Ei+1 , correspondendo a duas soluções vizinhas e tomemos DE = Ei+1 Ei . As seguintes situações podem ocorrer: se DE < 0, redução de energia e o processo continua, ou seja, redução na função custo do problema e a nova alocação deve ser aceita; se DE = 0, situação de estabilidade e portanto, não alteração de energia, isto é, a função custo do problema permanece inalterada; se DE > 0, fica caracterizado um aumento de energia, útil no processo físico para permitir uma futura acomodação das partículas, ou seja, a função custo do problema sofre aumento. Ao invés desta alocação ser eliminada, ela poderá eventualmente ser aproveitada. Para isso, uma função de probabilidade deverá ser acionada para evitar a convergência da função para mínimos locais indesejáveis. Uma das primeiras aplicações do simulated annealing ao PQA foi proposta por Burkard & Rendl (1983).

Posteriormente, novos componentes de equilíbrio foram apresentados por Wilhelm & Ward (1987). Connolly (1990) introduziu um conceito de "temperatura ótima" que fornece resultados promissores. Mais tarde, Abreu et al. (1999) aplicaram a técnica ao PQA, procurando reduzir o número de inversões associado à solução do problema, ao invés de custo. Outros trabalhos que abordam ou adotam o simulated annealing para resolver o PQA são Bos (1993), Burkard & Çela (1995), Peng et al. (1996), Mavridou & Pardalos (1997), Chiang & Chiang (1998), Tian et al. (1999), Tsuchiya et al. (2001) e Siu & Chang (2002).

Busca Tabu é um algoritmo de busca local introduzido por Glover (1989a, 1989b) para problemas de programação inteira, com o objetivo de encontrar soluções de boa qualidade. Caracteriza-se pela existência de uma lista atualizada das melhores soluções encontradas no decorrer do algoritmo, onde cada solução possui um valor de prioridade ou critério de aspiração. Seus ingredientes básicos são: uma lista tabu, para armazenar um histórico da evolução do processo de busca; um mecanismo que permite aceitar ou rejeitar uma nova alocação na vizinhança, baseado nas informações armazenadas na lista tabu e suas respectivas prioridades; e um mecanismo que permite alternar entre estratégias de diversificação e intensificação na vizinhança. Várias adaptações deste algoritmo para o PQA podem ser encontradas em Skorin-Kapov (1990, 1994), Taillard (1991), Bland & Dawson (1991), Rogger et al. (1992), Chakrapani & Skorin-Kapov (1993) e Misevicius (2003a). O desempenho de tais algoritmos, apesar da inconveniência de dependerem muito do tamanho da lista tabu e da forma como esta lista é manipulada, os mostra como estratégias bastante eficientes para o PQA, segundo análises feitas em Taillard (1991) e Battiti & Tecchiolli (1994a). Em Taillard (1995), podemos encontrar uma comparação do uso de busca tabu e algoritmo genético, ambos aplicados ao problema em questão.

Algoritmos Genéticos são técnicas que se apóiam nos mecanismos de seleção e adaptação natural das espécies. Tais algoritmos mantêm uma população formada por um subconjunto de indivíduos, que no caso do PQA correspondem às permutações viáveis, com valores de aptidão associados aos custos de tais permutações. Através dos chamados operadores genéticos e de critérios de seleção, cada algoritmo substitui uma população de indivíduos por outra, com valores de aptidão, em média, melhores. A idéia básica consiste em acreditar que os melhores indivíduos sobrevivem e geram descendentes com suas características hereditárias, de maneira semelhante à teoria biológica das espécies. De forma análoga, os algoritmos genéticos partem de um conjunto de soluções iniciais geradas aleatoriamente, avaliam seus custos, selecionam um subconjunto das melhores soluções e realizam operações genéticas sobre elas, gerando um novo conjunto de soluções ou uma nova população (Davis, 1987 e Goldberg, 1989). Algumas propostas de algoritmos genéticos para o PQA estão em Brown et al. (1989), Bui & Moon (1994), Tate & Smith (1995), Mavridou & Pardalos (1997), Tavakkoli-Moghaddain & Shayan (1998) e Gong et al.

(1999). A utilização destes algoritmos ao PQA apresenta dificuldades na obtenção de soluções ótimas, até mesmo para pequenas instâncias. Porém, propostas híbridas utilizando algoritmos genéticos mostraram-se mais promissoras, como veremos adiante.

Scatter Search foi introduzida por Glover (1977) em um estudo heurístico de problemas de programação linear inteira. É um método evolutivo que considera combinações lineares de vetores-solução para produzir novos vetores-solução através de gerações sucessivas. Esta metaheurística é composta por uma fase inicial e outra evolutiva. Na primeira, se constitui um conjunto de soluções, das quais as melhores são escolhidas para fazerem parte de um conjunto referência. Na fase evolutiva, novas soluções são geradas utilizando combinações de subconjuntos referência que são selecionados estrategicamente. A partir daí, um conjunto das melhores soluções geradas é incluído no conjunto referência. Os procedimentos da fase evolutiva são repetidos até que o processo satisfaça a um critério de parada qualquer. Uma aplicação ao PQA pode ser encontrada em Cung et al. (1977).

GRASP (Greedy Randomized Adaptive Search Procedures) é uma técnica aleatória e iterativa onde, a cada iteração, uma solução aproximada para o problema é obtida. A melhor solução resultante de todas as iterações é a solução final. Em cada iteração, a primeira solução é construída através de uma função gulosa aleatória e as soluções posteriores são obtidas aplicando-se, sobre a solução anterior, um algoritmo de busca local que forneça uma nova solução melhor que a anterior. Ou seja, cada iteração é composta por duas fases, uma de construção e outra de busca local. Ao final de todas as iterações, a solução resultante é a melhor solução gerada. Nada garante que soluções geradas por uma construção grasp não recaiam em ótimos locais. Assim, é importante aplicar a fase de busca local na tentativa de melhorar tais soluções. Com o uso de estruturas de dados personalizadas e uma implementação cuidadosa, uma fase construtiva eficiente pode produzir boas soluções iniciais, possibilitando uma busca local eficiente.

Esta técnica foi aplicada ao PQA por diversos pesquisadores e pode ser encontrada nos seguintes artigos: Li et al. (1994b), Feo & Resende (1995), Resende et al. (1996), Fleurent & Glover (1999), Ahuja et al. (2000), Pitsoulis et al. (2001) e Rangel et al. (2000). Também foi aplicada a variações do PQA: Mavridou et al. (1998) a aplicaram ao BiPQA e Aiex et al. (2000) ao PQA 3-dimensional. Os resultados mostram que o grasp de Ahuja et al. (2000) é o algoritmo que apresenta melhores resultados.

Colônia de Formigas trata-se de uma classe de algoritmos distribuídos que tem como principal característica, a definição de propriedades na interação de vários agentes simples. Tem como princípio a forma como as formigas são capazes de encontrar um caminho do formigueiro até uma fonte de alimento e vice-versa.

Cada agente simples é chamado de formiga e o conjunto de formigas, cooperando numa atividade comum para resolver um problema, constitui o sistema AS. A principal característica do método é que a interação desses agentes gera um efeito sinérgico, pois a qualidade da solução obtida aumenta quando tais agentes trabalham juntos, interagindo entre si, para a resolução de um mesmo problema. Resultados numéricos para o PQA são apresentados em Maniezzo & Colorni (1995, 1999), Colorni et al. (1996), Dorigo et al. (1996), Maniezzo (1997) e Gambardella et al. (1999) mostram que colônias de formigas são heurísticas competitivas, principalmente para instâncias que possuam poucas soluções boas próximas umas das outras. Outras referências sobre este assunto estão em Stützle & Dorigo (1999), Stützle & Holger (2000) e Talbi et al. (2001).

Busca em Vizinhança Variável, conhecida por VNS (Variable Neighbourhood Search), foi introduzida por Mladenović (1995) e Mladenovi & Hansen (1997). É baseada na mudança sistemática das vizinhanças utilizadas na busca e vem sendo aplicada na resolução de grandes exemplares para problemas combinatórios. Em Taillard & Gambardella (1999) são propostas três estratégias para o PQA, sendo uma delas uma busca em vizinhança variável, segundo o paradigma básico, e as outras duas, métodos híbridos baseados em combinações de métodos descritos anteriormente.

Além disso, existem diversas propostas de algoritmos híbridos aplicados ao PQA.

No artigo Bölte & Thonemann (1996) os autores combinam simulated annealing com genético, Battiti & Tecchiolli (1994b), Bland & Dawson (1994) e Chiang & Chiang (1998) usam busca tabu com simulated annealing para o problema de layout, enquanto Hasegawa et al. (2002) e Talbi et al. (1998b) utilizam busca tabu junto com redes neurais. Propostas híbridas que combinam algoritmos genéticos com busca tabu (Fleurent & Ferland, 1994) ou com algoritmo guloso (Ahuja et al., 2000) mostraram-se mais promissoras que o uso de genético. Algumas categorias de algoritmos genéticos híbridos são conhecidas como memetic algorithms ou evolutionary algorithms. Nesta linha podem ser encontrados os seguintes trabalhos: Brown et al. (1989), Brown & Huntley (1991), Carrizo et al. (1992), Huntley & Brown (1996), Merz & Freisleben (1997), Nissen (1997), Ostrowski & Ruoppila (1997) e Misevicius (2003b). , ainda, uma técnica introduzida por Goldbarg & Goldbarg (2002) que usa uma variação dos algoritmos genéticos, chamada de heurísticas transgenéticas. Aplicadas ao PQA, elas apresentaram resultados no máximo compatíveis com os demais, sem acrescentar ganhos em tempo de computação.

Mais recentemente, as redes neurais vêm sendo aplicadas ao PQA por Liang (1996), Obuchi et al. (1996), Tsuchiya et al. (1996), Ishii & Sato (1998, 2001), Rossin et al. (1999) e Hasegawa et al. (2002). Finalmente, em 2003, um trabalho que utiliza a definição de pontos extremos em um algoritmo de busca local foi desenvolvido por Fedjki & Duffuaa (2004) para resolver o problema.

5. Conclusões Após apresentarmos o PQA por diversas abordagens, seria interessante analisarmos, face às referências aqui inseridas, como as diferentes formulações puderam contribuir para o avanço no estudo do problema, tanto na determinação de limites inferiores, como na construção de métodos de resolução. Também, é possível interpretar como o problema quadrático de alocação vem se desenvolvendo ao longo destes 50 anos. Por exemplo, é possível responder a seguinte questão: Por que motivos, em um dado período, as pesquisas em torno deste tema foram mais intensas, despertando maior interesse da comunidade científica? A bibliografia apresentada neste trabalho com 278 publicações listadas determina o universo para esta análise. Nas tabelas que se seguem, as referências são agrupadas por tipos de abordagem dada ao problema, determinadas pelas formulações classificadas na seção 2; tipos de limites inferiores adotados segundo a classificação da seção 3; técnicas ou procedimentos de resolução dados na seção 4; pela distribuição das referências em relação a aplicações do PQA versus desenvolvimento teórico (formulações, limites inferiores e estudos referentes à dificuldade computacional) versus procedimentos de resolução e, finalmente, pela distribuição das referências ao longo do tempo.

A Tabela_1 apresenta o número de publicações relacionadas às distintas formulações do PQA, aqui classificadas por Programação Linear Inteira (PLI), Programação Linear Inteira Mista (PLIM), Permutação (PM), Traço (TR), Programação Semidefinida (PSD) e Grafos (GR). Observamos que a abordagem do PQA que identifica solução com permutação é a que mais vem sendo utilizada, seguida pelas formulações dadas por programação linear inteira e linear inteira mista.

As formulações menos adotadas na literatura, talvez por se tratarem das mais recentes, são aquelas que derivam da programação semidefinida e aquelas exclusivamente adotadas por grafos.

A Tabela_2 apresenta a quantidade de publicações relacionadas aos limites inferiores, seguindo a classificação que adotamos neste artigo, ou seja, limites de Gilmore e Lawler (GLB), limites baseados em relaxações PLIM (LPLIM), limites baseados em reformulações (LBR), limites baseados em Métodos de Pontos Interiores (LMPI), limites por redução de variância (LRV), limites baseados na formulação por grafos (LGR) e, finalmente, limites derivados da formulação traço (LTR), também chamados por limites espectrais.

Observando a Tabela_2, concluímos que a maioria dos trabalhos utiliza os limites inferiores derivados do de Gilmore e Lawler (GLB), seguido dos limites espectrais. Observamos que a quantidade de trabalhos que abordam os limites espectrais é considerável, sendo os mais recentes e os melhores em qualidade.

No entanto, os mais rápidos para calcular e que também são eficientes correspondem aos derivados do GLB. Isto justifica a distribuição retratada por esta tabela.

A Tabela_3 registra a distribuição de referências pelos métodos de resolução aqui classificados por: Métodos Exatos (EXATO), Métodos Heurísticos (HEUR) e Metaheurísticas (META).

Se confrontarmos os métodos exatos contra os heurísticos, incluindo as metaheurísticas, estes últimos são utilizados em 93 artigos, contra 43 que utilizam algoritmos exatos.

A Tabela_4 registra a distribuição de referências pelos métodos de resolução, tipo metaheurística, aqui classificados. Assim temos: Simulated Annealing (MSA), Busca Tabu (MBT), Algoritmos Genéticos (MAG), Scatter Search (MSS), GRASP (GRASP), Colônia de Formigas (MCF), Busca em Vizinhança Variável (VNS), Algoritmos Híbridos (MAH) e Redes Neurais e outros (RNO).

Ao analisarmos a Tabela_4 vemos que os procedimentos híbridos resultantes de composições de metaheurísticas distintas são os mais utilizados. No entanto, ao analisarmos a tabela comparando somente as metaheurísticas puras, os procedimentos baseados em simulated annealing e grasp são os mais aplicados ao PQA. Ultimamente as redes neurais vêm sendo utilizadas na resolução deste problema e aqui estão representadas na coluna RNO.

Cada uma das duas tabelas restantes apresenta a distribuição das publicações aqui referidas de acordo com as seguintes características: a Tabela_5 mostra como as referências se distribuíram em relação a artigos dedicados a aplicações do PQA, (Apl), a trabalhos teóricos envolvendo formulações, estudos de complexidade e técnicas de limites inferiores (Teor) e ainda aqueles dedicados a procedimentos de resolução do problema (Alg). A Tabela_6 distribui o número de artigos por período de 3 anos, a partir de 1957, quando o problema foi proposto.

É possível observar que o nível de interesse pelo problema vem crescendo até o final da década de 70. Nesta ocasião, este se mantém ou até mesmo diminui uma vez que a teoria até então muito desenvolvida não conseguia contribuir com a melhoria na qualidade de soluções encontradas pelos procedimentos existentes, mesmo para pequenas instâncias (em torno de 20 facilidades e locais). Ao final dos anos 80, com o surgimento das metaheurísticas, este problema ganhou notoriedade, pois uma metaheurística poderia ser considerada competitiva se aplicada ao PQA conseguisse apresentar melhores resultados que aqueles conhecidos. Com o avanço tecnológico (computação paralela) combinado com estas técnicas mais gerais (metaheurísticas) tornou-se possível determinar soluções ótimas para instâncias maiores. Em verdade, um pouco maiores, no caso deste problema (como vimos hoje é possível resolver casos de instâncias de ordem 30).

Novamente, observando a Tabela_6, vemos que, a partir de 2000, o interesse da comunidade científica pelo PQA parece diminuir. Podemos imaginar que este desinteresse mais recente decorra de que nenhum fato oriundo das recentes especulações teóricas ou técnicas (avanço computacional) foi capaz de produzir um avanço significativo na possibilidade da resolução exata de exemplares maiores do problema. Conforme dissemos na Introdução, somente no ano 2000, provou-se que as soluções ótimas para a instância Nug30 e outras de tamanho equivalente foram alcançadas, mesmo assim, com considerável esforço computacional.


transferir texto