Home   |   Structure   |   Research   |   Resources   |   Members   |   Training   |   Activities   |   Contact

EN | PT

BrBRCEEn0101-74382003000100014

BrBRCEEn0101-74382003000100014

National varietyBr
Country of publicationBR
SchoolEx-Tech-Multi Sciences
Great areaEngineering
ISSN0101-7438
Year2003
Issue0001
Article number00014

Javascript seems to be turned off, or there was a communication error. Turn on Javascript for more display options.

Otimização de métodos de controle de qualidade de fármacos usando algoritmo genético e busca tabu

1. Introdução Recentemente a aplicação da técnica de transformada de Fourier na espectroscopia por infravermelho (FT'IR) [Birth & Hecht (1987); Osborne, Fearn & Hindle (1993)] e de técnicas quimiométricas de regressão multivariada [Sjöström, Wold, Lindberg, Persson, & Martens (1983); Geladi (2002)], possibilitaram a análise de misturas complexas, como fármacos, sem a necessidade de qualquer separação prévia de seus componentes.

Este avanço da espectroscopia no infravermelho médio, como técnica para análise quantitativa, deve-se à combinação da transformada de Fourier, da nova geometria dos espectrofotômetros com a utilização do interferômetro de Michelson [Kalasinsky (1990), Durig & Sullivan (1990), Eikrem (1990), Coates (1998)] e principalmente da utilização dos algoritmos de calibração multivariada que permitiram a modelagem de muitos sinais do espectro simultaneamente.

Entretanto, o elevado número de variáveis, geradas na espectroscopia no infravermelho, tem resultado em modelos com excelente desempenho na calibração, porém com pouca habilidade de previsão de amostras externas a modelagem. Uma alternativa para melhorar o condicionamento dos modelos está em selecionar um conjunto de variáveis que intensifiquem o comportamento sinérgico na modelagem, de forma a resultar numa habilidade equivalente na calibração e na previsão. A grande dificuldade existente é realizar essa seleção, pois, o número de variáveis existentes é extremamente elevado, bem como as combinações resultantes. Com este propósito, métodos de otimização têm sido propostos, sendo o Algoritmo Genético (AG) o mais usado [Leardi (2001); Costa Filho & Poppi (1999)]. Entre outras razões, a flexibilidade do AG em permitir o seu uso na otimização de diferentes problemas combinatoriais e em suas formulações matemáticas, tem sido apontado como característica importante do AG (Holland, 1975).

Neste trabalho, foi implementado o AG e a Busca Tabu (BT) (Glover, 1989a; 1989b) em processos de otimização de modelos de regressão multivariada via dados de espectroscopia por reflexão difusa no infravermelho com transformada de Fourier (DRIFTS). Esta abordagem traz pela primeira vez o uso da BT para a seleção de comprimentos de onda de espectros no infravermelho visando a calibração multivariada.

No processo foi aplicado à regressão por mínimos quadrados parciais (PLS) na determinação de princípios ativos de ação anti-hipertensiva presentes em fármacos; visando a análise quantitativa da hidroclorotiazida, pertencente à classe dos diuréticos tiazídicos.

2. Fármacos Anti-hipertensivos Alguns fármacos têm a propriedade de reduzir a pressão atuando na resistência periférica e/ou no débito cardíaco, conhecido como anti-hipertensivos. Entre os anti-hipertensivos mais empregados encontramos os da classe das Tiazidas, também chamadas derivados da benzotiazina ou benzotiazidas, que são quimicamentes dióxidos de benzotiadiazina-7-sulfonamida (Harvey & Champe, 1998).

O princípio ativo 6-cloro-3,4-diidro-2H-1,2,4-benzotiodiazina-7-sulfonamida- 1,1-dióxido, conhecido como hidroclorotiazida, apresenta fórmula estrutural conforme Figura_1.

A hidroclorotiazida apresenta-se como um cristalino branco ou quase branco, inodoro e com peso molecular de 297,7 g/mol. É muito pouco solúvel em água, pouco solúvel em álcool, solúvel em acetona e em soluções diluídas de hidróxidos alcalinos, apresentando faixa de fusão de 266-270oC, com decomposição.

Os comprimidos de hidroclorotiazida devem conter, no mínimo, 93% e, no máximo, 107% da quantidade de hidroclorotiazida declarada. São realizados testes de desintegração, dureza, friabilidade e uniformidade de conteúdo para a caracterização dos mesmos. A quantificação do princípio ativo é realizada através da técnica de espectrofotometria no ultravioleta e por cromatografia líquida de alta eficiência (Farmacopéia Brasileira, 1988).

3. Reflexão Difusa A técnica de reflexão difusa está bem fundamentada na literatura [Wilson (1990); Van de Voort (1992); Hart, Norris & Golumbic (1962); Abdullah & Sherman (1997); Birth & Hecht (1987); Culler (1993); Osborne, Fearn & Hindle (1993)], sendo amplamente associada aos equipamentos que operam no infravermelho próximo, com os quais geralmente é designada de espectroscopia de reflexão no infravermelho próximo (NIRS ou NIRR); ou associada àqueles que operam na região do infravermelho médio, sendo conhecida por espectroscopia por reflexão difusa no infravermelho médio com transformada de Fourier (DRIFTS).

A reflexão difusa ocorre em superfícies não totalmente planas, podendo o substrato ser contínuo ou fragmentado (na forma de ). Neste processo de reflexão o feixe incidente penetra a superfície da amostra interagindo com a matriz, retornando à superfície da mesma, após absorção parcial e múltiplos espalhamentos, conforme ilustrado pela Figura_2.

Na reflexão difusa, a radiação incidente entra em contato diversas vezes com as partículas da amostra sendo conseqüentemente atenuada. Com isto a radiação que sofre a reflexão difusa fornece informações qualitativas e quantitativas, sobre a natureza química da amostra.

As informações qualitativas dizem respeito a capacidade de que cada funcionalidade da molécula orgânica tem de absorver energia, em determinada região do infravermelho, para promoção de vibração entre dois centros (átomos) que compõem determinada ligação.

a quantificação destas informações químicas seguem a função de Kubelka Munk (expressão 1) que relaciona os espectros de reflectância difusa com a concentração de cada molécula presente na amostra, transformando o espectro de reflectância em formato que assemelha-se a um espectro de absorbância. Por esta razão, a análise de Kubelka Munk é conhecida como a Lei de Beer da espectroscopia de reflectância.

onde R¥é a reflectância difusa.

De acordo com a teoria, ƒ(R¥) está relacionado com o coeficiente de absorção e o coeficiente de dispersão da superfície S de uma amostra espessa, conforme expressão 2.

O efeito do tamanho da partícula causa deslocamento da linha de base, efeito que torna-se muito pronunciado em comprimentos de onda de grande absorção pela amostra. Por exemplo, em duas amostras com mesma composição, porém diferente granulometria, maior reflexão das partículas menores (mais finas), e os efeitos da reflexão especular são minimizados em uma superfície composta de menor tamanho.

A correta quantificação de analitos em amostras em é dependente do efetivo poder de penetração, sendo grande o suficiente para providenciar um espectro representativo da amostra por inteiro. A equação de Kubelka Munk é mais simples e a forma geralmente mais usada para definir uma afinidade linear entre intensidade da banda e concentração da amostra na espectroscopia por reflectância difusa.

Um maior detalhamento desta técnica, bem como de outras técnicas de reflexão empregadas em análises que potencialmente aplicam informações químicas obtidas via espectroscopia no infravermelho com transformada de Fourier, pode ser encontrado em recente revisão publicada por Ferrão (2001).

4. Regressão Multivariada A técnica de regressão por mínimos quadrados parciais (PLS) foi desenvolvida na década de 70 por Herman Wold (1978) e foi usada, inicialmente, na região do infravermelho próximo.

No modelo PLS, algumas suposições feitas em torno dos dados que serão analisados. As informações espectrais e as informações das concentrações são usadas ao mesmo tempo na fase de calibração (Sjostrom et al., 1983).

O alicerce do método dos mínimos quadrados parciais, reside na decomposição de uma matriz de dados X, em termos da soma das várias matrizes M, que apresentem dimensionalidade um, e que são acrescidas de uma matriz de resíduos (que corresponde a parte não modelada de X), conforme equação 3.

Onde a corresponde ao número de variáveis latentes (componentes principais ou fatores) selecionados para truncar a igualdade, e E corresponde a matriz de resíduos, relacionada ao número de variáveis latentes escolhido.

As matrizes M constituem os chamados componentes principais (ou variáveis latentes), e são formadas pelo produto de dois vetores, t (os escores) e p (os pesos) conforme as expressões 4 e 5.

A dimensionalidade do espaço original é igual ao número de colunas em X, ou seja, o número de variáveis originais, expresso por m. No novo modelo, a dimensionalidade é descrita pelo número de matrizes Mi necessárias para descrever X. Assim, se for possível descrever uma matriz X que tenha muitas variáveis, por um número pequeno dessas matrizes Mi haverá um decréscimo na dimensionalidade, sem perda significativa de informação.

Na modelagem por mínimos quadrados parciais, tanto a matriz das variáveis independentes X, como a das variáveis dependentes Y são representadas pelos escores e pelos pesos, conforme as expressões 5 e 6.

A relação entre as duas matrizes de dados X e Y pode ser obtida, correlacionando-se os escores de cada bloco, afim de obter uma relação linear descrita pela expressão 7, ou de forma equivalente por 8.

Na equação linear representada em 8, T é uma matriz de resposta (assim como um conjunto de espectros) para uma série de amostras de calibração; U é uma matriz contendo as propriedades (variáveis dependentes) de todas estas amostras; b é um vetor contendo os parâmetros do modelo, e e é um vetor que representa o ruído do espectro e os erros do modelo.

Entretanto, pode ocorrer que o modelo assim concebido não seja totalmente satisfatório. Isto porque cada matriz (X e Y) é decomposta separadamente, podendo resultar numa relação não muito adequada (não linear) entre os escores dos dois blocos.

Em virtude disto, deve-se buscar um modelo onde as matrizes de resíduos E e F sejam as menores possível e, ao mesmo tempo, conseguir uma relação linear entre T e U.

No método de regressão PLS, este ajuste é concretizado através de uma leve mudança nos valores dos escores, de forma a produzir a melhor correlação possível.

Existe um compromisso entre a capacidade em descrever as amostras nos espaços individuais (modelagem dos blocos X e Y), e o aumento na correlação T e U (Adams, 1995).

O método de regressão por mínimos quadrados parciais foi amplamente utilizado na última década, tendo se tornado um dos mais populares em função do seu desempenho (Pimentel & Neto, 1996).

Usualmente os modelos de calibração multivariados são avaliados a partir da correlação entre a técnica alternativa proposta (neste caso a DRIFTS) e o valor de referência (geralmente o método oficial) com base nos valores do coeficiente de correlação (R2) e dos erros padrões de calibração (SEC) e de validação (SEV), sendo estes últimos calculados conforme equação 9, onde yi e isão respectivamente os valores de referência e estimado para a i-ésima amostra e n o número de amostras.

Neste processo um outro parâmetro crítico é o número de variáveis latentes (VL's) empregados na modelagem. De uma forma geral quanto maior o número de VL's utilizadas, melhor é o coeficiente de regressão (R2) e conseqüentemente menor é o erro de calibração, visto que mais informações do conjunto de espectros dos padrões são modeladas. Entretanto, o SEV geralmente não acompanha este comportamento, tendendo atingir um mínimo e depois aumentar conforme são utilizadas mais VL's.

Não existe um método exato para determinar o número de VL's a ser empregado. A melhor forma, apresentada pelos pesquisadores da área, tem sido experimentar de forma crescente e verificar o comportamento da modelagem, principalmente os valores de SEV.

Um bom modelo é alcançado com o menor número de VL's que apresenta um SEV mínimo e os valores de SEC e R2 satisfatórios.

5. Técnicas Heurísticas de Otimização Dada a dificuldade de métodos matemáticos exatos em obter boas soluções, em tempo computacional aceitável, para problemas combinatórias que envolvem variáveis discretas, freqüentemente são propostos algoritmos heurísticos para obter soluções de qualidade.

Hibbert (1993) chama a atenção para as dificuldades encontradas na escolha de um método de otimização: * Tamanho da região experimental: sistemas com muitas variáveis precisam ser eficientes na busca e determinação dos melhores parâmetros, pois muitas vezes o tempo é um fator limitante para a realização de uma otimização; * Continuidade na superfície de respostas: o método utilizado deve possuir continuidade na superfície de resposta, isto é, os resultados não devem sofrer influências de informações que estão nos limites da região experimental (bordas da matriz); * Detecção de ótimos locais: o método utilizado tem de ser sensível à presença de ótimos locais, e precisos na detecção de ótimos globais; * Sensibilidade na detecção dos parâmetros: os métodos podem ser prejudicados se as funções forem demasiado sensíveis para um determinado parâmetro. O processo de otimização gastaria muito tempo para aquele parâmetro enquanto ignoraria o resto.

Nos problemas encontrados no dia-a-dia, combinações desses fatores, alguns dos quais desconhecidos, fazem da escolha do método de otimização uma tarefa bastante difícil. Neste sentido, os métodos heurísticos estão sendo cada vez mais aplicados.

5.1 Algoritmo Genético Algoritmo Genético (AG) é uma técnica de busca aleatória direcionada, desenvolvida por Holland (1975), capaz de obter a solução ótima global num espaço de busca complexo multi-dimensional. O AG é baseado na evolução das espécies, usando operadores inspirados no processo de evolução natural. Estes operadores, conhecidos como operadores genéticos de crossover e mutação, manipulam indivíduos de uma população, através de gerações, para melhorar (aperfeiçoar) a adaptação (fitness) gradativamente. Os indivíduos numa população, também denominados de cromossomos, são representados por cadeias (strings) de números binários. A função de avaliação (fitness) estabelece a relação entre o AG e o problema de otimização.

O AG revela-se útil na resolução de problemas complexos (Lorena & Furtado, 2001), que podem ser divididos em três classes, segundo Lucasius & Kateman (1993) na primeira classe de problemas em que os AG's são passíveis de aplicação, encontra-se a otimização de modelos que descrevam relações entre informações coletadas de um sistema (espectros de substâncias, por exemplo) a valores de propriedades (respostas do sistema) que se queira estudar. Um segundo tipo de aplicação para os AG's seria na resolução de problemas envolvendo relações, capacidade de planejamento e tomada de decisões. A seleção de subconjuntos de dados de um sistema ilustra a terceira classe de aplicações a que os AG's se destinam.

Como métodos de otimização, os AG's encontram-se em uma posição intermediária entre os métodos de otimização classificados como "fracos" e "fortes" ' são considerados moderados. Os métodos de otimização "fracos" fazem poucas suposições quanto às hipóteses do problema.

Eles podem ser amplamente empregados, porém levam um tempo relativamente grande para encontrar uma solução aceitável. De outro lado, métodos de otimização "fortes", se utilizam de várias suposições a respeito do problema, convergindo rapidamente para um resultado, sendo limitados a uma pequena região de problemas relativamente simples. Quando aplicados a um problema que excede os limites dessa região, estes métodos tendem a encontrar resultados errôneos ou entrar em colapso (Lucasius & Kateman, 1993).

Os métodos moderados podem ser competitivos sob circunstância onde tanto métodos fracos e fortes costumam falhar. No problema em questão, métodos fortes iriam aumentar o erro nas suposições que faria do modelo, até chegar ao colapso. De outro lado, como o espaço dimensional é um tanto grande, métodos fracos despenderiam muito tempo, sendo praticamente inviáveis. Normalmente, em circunstâncias do dia-a-dia, os métodos moderados são os mais atrativos para a solução de problemas de otimização.

No campo da instrumentação, os AG's têm aplicação em diversas áreas, tais como no treinamento de redes neurais para interpretação de espectros de fluorescência de raios-x, seleção de comprimentos de onda em análises multicomponentes, otimização de dados de calibração por seleção de comprimentos de onda, entre outros, sendo esta última aplicação o foco deste trabalho.

O princípio e funcionamento dos AG's é baseado no processo evolutivo de seres vivos, seguindo o princípio básico de que as gerações derivadas serão mais "evoluídas" do que os seus precursores. Gerações melhores continuariam existindo, enquanto que gerações mais "frágeis", tenderiam a sucumbir.

Nos AG's, as condições em que o experimento é conduzido são consideradas como sendo o material genético dos seres vivos, e a resposta experimental é considerada como medida de adaptação ao ambiente. O material genético é assumido como sendo um simples cromossomo, onde cada gene corresponde a uma variável do processo. A Figura_3a representa um desses cromossomos.

A avaliação da população é feita através de uma função que calcula a resposta de determinado cromossomo em relação ao modelo. Esta função é também chamada de fitness. Shaffer et al. (1996) demonstram em seu trabalho que a função fitness baseada no erro quadrático do conjunto de calibração, no erro quadrático do conjunto de validação e no número de fatores utilizados no PLS apresentam-se como uma das melhores.

A evolução da população é realizada através de operadores genéticos: crossover e mutação. No crossover, a partir de um determinado número de cruzamentos entre os cromossomos, selecionados aleatoriamente a partir das melhores respostas experimentais, estes combinam-se formando novos indivíduos (Figura_3c). Na mutação, os componentes de uma população podem sofrer perturbações em seus genes (Figura_3b).

Basicamente, pode-se descrever o funcionamento dos AG's nos passos mostrados na Figura_4:

5.1.1 Aplicação do AG na Seleção de Comprimentos de Onda de Infravermelho O funcionamento do AG, aplicado ao problema, obedece aos passos descritos na Figura_4: Passo 1: Gerar uma população inicial de soluções Inicialmente é criada aleatoriamente uma população de a cromossomos. Cada cromossomo é formado por uma cadeia (string) binária, onde 1 (um) representa um comprimento de onda selecionado e 0 (zero), caso contrário. O parâmetro b determina o percentual de comprimentos de onda selecionados no cromossomo (percentual de bits com valor 1 no cromossomo). A posição do bit na cadeia corresponde ao comprimento de onda. Assim, o primeiro bit representa o primeiro comprimento de onda, o segundo bit da cadeia representa o segundo comprimento de onda e assim por diante. O tamanho do cromossomo (parâmetro c) corresponde a todos os comprimentos de onda do espectro selecionado.

Passo 2: Avaliar a fitness dos indivíduos da população Através da técnica de regressão por mínimos quadrados parciais (PLS) a população é avaliada. A função objetivo é:

Passo 3a: Selecionar um conjunto de pais na população e realizar a mutação Em seguida, os indivíduos da população são ordenados de acordo com a fitness produzida no passo anterior; A população é dividida em dois grupos: Grupo A, formado pelos 50% dos indivíduos da população com melhores fitness e Grupo B, formado pelos 50% restantes; Os indivíduos do Grupo A são, por sua vez, divididos em dois grupos, denominados C e D. O Grupo C corresponde aos 50% dos indivíduos melhor avaliados e o grupo D os 50% restantes.

Todos os cromossomos do grupo D são selecionados e sofrem mutação. A mutação consiste em alterar l bits, conforme Figura_3b.

Passo 3b: Cruzar os pais de modo que se reproduzam Pares de indivíduos do grupo D e do grupo C são selecionados, aleatoriamente, para sofrer a operação de crossover.

A operação de crossover é realizada produzindo um corte (em posição aleatória) num cromossomo e combinando com outro cromossomo, conforme Figura_3c. A operação de crossover é realizada repetidamente até gerar indivíduos suficientes para substituir todos os indivíduos do grupo B (passo 3d); Passo 3c: Avaliar a fitness dos filhos gerados Os indivíduos são avaliados da mesma forma realizada no passo 2, ou seja, através da equação 10.

Passo 3d: Substituir os filhos julgados inadequados Os indivíduos gerados no passo 3b substituem os indivíduos do grupo B.

Passo 3e: Até que o critério de parada seja atendido O procedimento retorna ao passo 3a. Quando um número máximo de iterações, d, é atingido o programa pára.

5.2 Busca Tabu O método heurístico Busca Tabu (BT), vem sendo aplicado com êxito a um grande número de problemas combinatoriais. A BT foi proposta por Glover (1989a, 1989b).

De modo geral, a BT foi projetada para encontrar boas aproximações para a solução ótima global de qualquer problema de otimização, tendo três princípios básicos: 1) uso de uma estrutura de dados para armazenar o histórico do processo de busca. Esta estrutura é usada para classificar algumas soluções (ou movimentos) como "tabu". Uma solução (ou movimento) "tabu" não pode ser selecionada no procedimento de busca; 2) uso de um mecanismo de controle para fazer um balanceamento entre a aceitação, ou não, de uma nova solução com base nas informações registradas no histórico de busca. O mecanismo que leva de uma solução à outra é denominado "movimento". Uma solução (ou movimento) classificada tabu, somente pode ser selecionada na busca, quando satisfazer o denominado "critério de aspiração". 3) incorporação de procedimentos que alternam as estratégias de diversificação e intensificação na busca.

As estratégias de diversificação e intensificação são cruciais para uma boa convergência da BT. A diversificação tem o objetivo de direcionar a busca para novas regiões, de forma a atingir o maior espaço de soluções possíveis, evitando que o processo estabilize num ótimo local. no processo de intensificação um reforço a busca na vizinhança de uma solução historicamente considerada boa.

Basicamente, a BT parte de uma solução inicial (produzida aleatoriamente ou baseado em algum conhecimento a respeito do problema) e através de "movimentos" (perturbações aleatórias nesta solução) são obtidas soluções "vizinhas". A avaliação e comparação dos "vizinhos" são feitas e determina-se a melhor solução dentre estas.

Caso a melhor solução não seja "tabu", esta solução é selecionada para reiniciar o processo, sendo que os processos de intensificação e diversificação podem controlar as perturbações. Durante todo o processo, o histórico da convergência é armazenado numa estrutura de dados. Assim, uma solução é considerada tabu, normalmente, quando foi visitada. Esta estratégia de restrição tem por objetivo que o processo não entre em ciclos, visitando regiões visitadas.

A Figura_5 mostra o Algoritmo de Busca Tabu.

5.2.1 Aplicação da BT na Seleção de Comprimentos de Onda de Infravermelho O funcionamento da BT, aplicada ao problema, obedece aos passos descritos na Figura_5: Passo 1: Gerar uma solução inicial Uma solução inicial é gerada aleatoriamente. A representação usada é uma cadeia (string) binária, onde 1 (um) representa um comprimento de onda selecionado e 0 (zero), caso contrário. O parâmetro e determina o percentual de comprimentos de onda selecionados na cadeia (percentual de bits com valor 1 na cadeia). A posição do bit na cadeia corresponde ao comprimento de onda. Assim, o primeiro bit representa o primeiro comprimento de onda, o segundo bit da cadeia representa o segundo comprimento de onda e assim por diante, de forma análoga a um cromossomo, quando do uso do AG. O tamanho da cadeia (parâmetro m) corresponde a todos os comprimentos de onda do espectro selecionado.

Passo 2a: Gerar a vizinhança Este processo tem por objetivo encontrar g soluções vizinhas a partir da solução corrente. Estas soluções são construídas fazendo-se movimentos, que são perturbações aleatórias de uma solução e que levam a outras soluções.

As perturbações aleatórias são controladas pelo parâmetro f. Para fpequenos, uma pequena quantidade de bits são alterados, conforme Figura_6. Neste caso, o algoritmo apresenta um processo de intensificação na busca. Para f grandes, o número de bits alterados é grande e conseqüentemente o algoritmo apresenta um comportamento de diversificação da busca.

Passo 2b: Avaliar a vizinhança Cada solução vizinha é avaliada através da técnica de regressão por mínimos quadrados parciais (PLS), conforme equação 10.

Passo 2c: Determinar a melhor solução da vizinhança As soluções vizinhas são ordenadas de acordo com o valor da função objetivo obtido no passo 2b. A melhor solução, não classificada como tabu é selecionada.

Caso a solução seja tabu, é verificado se a mesma satisfaz o critério de aspiração. Em caso afirmativo, a solução é selecionada e caso contrário, busca- se a próxima, melhor solução, do conjunto de soluções vizinhas.

Para que uma solução satisfaça o critério de aspiração, é necessário que o valor da sua função objetivo seja o menor obtido até aquela aquele momento.

Passo 2d: Atualizar a lista tabu A solução selecionada no passo 2c, permanece h iterações proibida de ser selecionada, ou seja, permanece classificada como pertencente ao conjunto de soluções tabu.

Passo 2e: Intensificar e Diversificar Estes módulos têm o objetivo de controlar o escopo da busca. Podemos entender como diversificação o aumento da perturbação (f grande) realizada para gerar a vizinhança e como intensificação a diminuição deste índice (f pequeno). Quanto maior a perturbação, maior a aleatoriedade do processo, quanto menor a perturbação menor a aleatoriedade. Assim, a intensificação ajuda na busca em uma região local, enquanto a diversificação permite a saída da busca para outra região. Desta forma, tenta-se evitar mínimos locais e a aproximação do mínimo global.

Passo 2f: Até que o critério de parada seja atendido O procedimento retorna ao passo 2a. Quando um número máximo, j , de iterações é atingido o programa pára.

6. Modelagem Quimiométrica Foram definidas através de um planejamento experimental 22 amostras contendo o princípio ativo hidroclorotiazida em amido, das quais 17 foram usadas para calibração (34 espectros) e 5 para validação (10 espectros). O principio ativo foi manipulado de forma a obter um conjunto de amostras com diferentes concentrações, através de pesagem e diluição em amido, correspondendo as amostras padrões (com valores de referência pré-determinados). Esta variação foi de 20% acima e abaixo das concentrações comumente comercializadas, sendo a variação de 0,5% para cada amostra. O conjunto de espectros dos padrões e das amostras de validação (Figura_7) foram obtidos utilizando-se um acessório de reflectância difusa acoplado a um espectrômetro Nicolet Magna 550 na região do infravermelho médio.

Os modelos de regressão e os algoritmos AG e BT foram implementados em ambiente MATLAB, empregando os dados brutos em forma de Log(1/R). Os programas foram executados em computador, com processador Pentium III, 800 Mhz, 256 RAM e sistema operacional Windows Me. A calibração foi realizada com o método de regressão por mínimos quadrados parciais (PLS) utilizando a correção do sinal multiplicativo (MSC) ao conjunto de espectros.

As faixas de comprimento de onda compreendendo 959-1799 e 2800-3849 cm-1 foram utilizadas no processo de otimização.

Na implementação do AG, foram usados os seguintes parâmetros: a= 50; b = 5%; c = 1889; l = 5%; d = 500; Nos testes realizados com a Busca Tabu os parâmetros a seguir foram usados: e= 5% m = 1889; g = 50; O parâmetro f inicia realizando perturbações em 50% dos bits da solução. A cada 100 iterações o valor de f diminui em 50%.

h= 20; j = 500;

7. Resultados Em ambos os métodos a função a ser otimizada utiliza dois parâmetros dependentes do modelo. O primeiro conhecido por SEC representa o erro de estimativa para as amostras empregadas na calibração; e o segundo, SEV, para as amostras de validação. Nas Tabelas_1 e 2 são apresentados os resultados referentes a cada geração, empregando-se um número de variáveis latentes variando de 1 a 15, SEC, SEV, R2, o número de variáveis selecionadas (comprimentos de onda) e o tempo.

Na Figura_8 podemos observar o comportamento de cada um destes parâmetros quando se faz variar o número de variáveis latentes (VL) empregadas na modelagem PLS. Independente do método de otimização utilizado, os valores de SEC e SEV diminuem com o aumento do número de variáveis latentes chegando a um valor mínimo para VL=10 a partir do qual o SEC e SEV oscilam entre valores compreendidos entre 0-0,5%. Por outro lado, os valores dos coeficientes de correlação convergem a 1 (R2 @1) quando são empregados valores crescente de VL para o PLS.

Coeficientes de correlação da ordem de 0,99 são alcançados com VL=5, indicando que apesar de os valores de SEC e SEV ainda continuarem diminuindo com o emprego de mais variáveis latentes, para a calibração, não se verifica melhora.

As curvas de calibração apresentadas nas Figuras_9 e 10 ilustram bem o comportamneto dos algoritmos de otimização empregados. Pode-se verificar um grande decréscimo dos valores de SEC e principalmente de SEV quando deixamos de utilizar todos os comprimentos de onda do espectro para a modelagem PLS (Figura 9), para serem utilizadas as combinações originadas pela aplicação dos algoritmos BT e AG (Figura_10). Pode-se obseervar que a tendência de modelar melhor o conjunto de amostras de calibração versus as de validação são minimizadas, principalmente para a algoritmo BT.

8. Conclusões Para todos os modelos otimizados empregando 4, 5 ou 6 variáveis latentes foi observada uma significativa melhora na habilidade de previsão destes, quando são selecionadas os comprimentos de onda dos espectros através dos métodos BT e AG. Este comportamento pode ser explicado, uma vez que esta redução de variáveis (seleção) deve estar sendo acompanhada pela redução do antagonismo entre as diferentes freqüências dos espectros modelados, principalmente porque são eliminadas as freqüências relacionadas com os ruídos experimentais inerentes a técnica espectroscópica empregada.

Nesta abordagem, observa-se que quando são utilizadas muitas variáveis latentes os modelos de regressão tendem a apresentar valores de SEC muito menores do que dos valores de SEV, configurando um problema conhecido por overfitting.

Também é observada que a melhoria da capacidade de previsão dos modelos é acompanhada pelo acréscimo no coeficiente de correlação das amostras de calibração (R2), o que indica maior robustez nos modelos onde os métodos de otimização são empregados.

Um atrativo ao emprego da otimização utilizando técnicas meta-heurísticas reside no fato destas serem facilmente implementadas e apresentarem baixo tempo computacional, quando usadas em problemas cuja melhor solução global é difícil de ser obtida em função do elevado número de combinações possíveis.

De uma forma geral, a meta-heurística busca tabu se mostrou mais adequada na otimização do conjunto de dados em questão, seja pelos menores erros observados (SEC e SEV), ou pelo menor tempo computacional necessário para garantir soluções adequadas.

Estes resultados demonstram as potencialidades dos métodos DRIFTS/PLS/TS e DRIFTS/PLS/AG aqui propostos, como excelentes alternativas para o monitoramento do processo produtivo de empresas e farmácias que produzam ou manipulem estes princípios ativos em larga escala, apresentando baixo tempo de análise, não destruição da amostra e a não geração de resíduos.


Download text