Home   |   Structure   |   Research   |   Resources   |   Members   |   Training   |   Activities   |   Contact

EN | PT

EuPTCVAg0870-63522007000100010

EuPTCVAg0870-63522007000100010

variedadeEu
Country of publicationPT
colégioLife Sciences
Great areaAgricultural Sciences
ISSN0870-6352
ano2007
Issue0001
Article number00010

O script do Java parece estar desligado, ou então houve um erro de comunicação. Ligue o script do Java para mais opções de representação.

Matrix Algebra Useful for Statistics Shayle R. Searle, 2006 Matrix Algebra Useful for Statistics.

Wiley Series in Probability and Statistics, ISBN-13 978-0-470-00961-1. Preço: 90.14€

O livro em questão visa habilitar o utilizador de modelos lineares para tratamento de dados, com os conhecimentos de álgebra matricial necessários para o efeito. Neste contexto alguns dos tópicos fundamentais abordados são a álgebra de matrizes rectangulares associada à temática das inversas generalizadas, as várias formas de factorização e formas canónicas, as técnicas de partição ou a resolução de equações lineares.

O livro compreende dezasseis capítulos, complementados com exercícios, sendo os cinco primeiros dedicados à álgebra matricial mais elementar, a saber definição de matrizes, vectores e escalares (Cap. 1), operações básicas de matrizes (Cap.

2) englobando a transposição, partição, traço, produto matricial, vectorial e escalar-vectorial, potenciação e leis algébricas associativa, comutativa e distributiva das várias operações. Neste Capítulo relevam importância as questões associadas ao traço de soma e produto de matrizes e os cálculo das transpostas de matrizes particionadas. O Cap.3 diz respeito a propriedades de matrizes especiais como sejam as matrizes simétricas, vectores com todos os elementos unitários ditos vectores soma, matrizes centragem, idempotentes, ortogonais, ortonormais, formas quadráticas e bilineares. Neste capítulo são relevantes: i) as propriedades das matrizes simétricas AA', resultantes do produto entre uma matriz de qualquer ordem n e a sua transposta, no tocante ao traço e à pré-multiplicação com outras matrizes de ordem adequada, ii) os conceitos de matrizes definidas(negativa, positiva e positiva semidefinida), a relação entre formas quadradas e somas de quadrados bem como a unicidade na associação entre as matrizes simétricas e as respectivas formas quadráticas.

O Cap. 4 é relativo às propriedades dos determinantes de matrizes quadradas, vulgarmente conhecidas, incluindo o respectivo cálculo por operações elementares ou os determinantes de matrizes especiais como os produtos de matrizes, alguns tipos de matrizes particionadas, matrizes ortogonais ou idempotentes. São também objecto deste capítulo o cálculo de determinantes por expansão diagonal e expansão de Laplace, sendo abordados os conceitos de menor de qualquer ordem e principais e dos traços das matrizes enquanto somatórios dos menores principais de várias ordens decorrentes da expansão diagonal. O Cap. 5 respeita às matrizes inversas, relativas a matrizes quadradas e não singulares, sendo apresentados resultados conhecidos sobre as respectivas propriedades relativas aos respectivos determinantes, transposição e produtos.

São considerados os conceitos de inversas esquerda e direita e as inversas de matrizes especiais como as idempotentes, ortogonais ou de segunda ordem.

Naturalmente que é feita referência ao conhecido método de cálculo das inversas por aplicação de operações elementares em equações lineares. O Cap. 6 serve para abordar o conceito fundamental de característica de matrizes, dependência e independência linear dos vectores, número máximo de vectores linearmente independentes de ordem n e igualdade do número das linhas e colunas das matrizes linearmente independentes. O conceito de característica de matriz é explorado considerando as matrizes com característica plena, (full rank), plena de linhas ou colunas (full row e full column rank) e a existência (ou não) das respectivas inversas. Neste capítulo é apresentado o importante conceito de factorização de característica plena(full rank factorization) duma matriz quadrada ou rectangular em quatro submatrizes, entre as quais figura uma de ordem igual à característica da matriz. É abordado o conceito de matrizes de permutação, necessárias à troca de linhas e colunas, sem alteração da característica da matriz, essencial às operações de factorização. O Cap. 7 está associado à sequência de processos tendentes à redução á forma canónica, consistindo no cálculo da característica das matrizes por recurso aos vários operadores matriciais elementares em linhas e colunas permitindo a obtenção de uma matriz equivalente constituída por quatro submatrizes, em que uma é a identidade de ordem igual à característica da matriz e as outras três submatrizes são nulas. A aplicação dessa sequência a matrizes simétricas conduz à denominada forma canónica sob congruência, distinta pelo facto de as matrizes elementares de operação em linhas serem transpostas das correspondentes para as operações em colunas. Dessas operações resultará uma matriz equivalente em que a submatriz não singular é diagonal distinta da matriz identidade. Relevantes neste capítulo são os oito Lemas sobre características do produtos de matrizes, os quais têm importantes aplicações em álgebra de matrizes rectangulares e modelos lineares. O Cap. 7 termina com a associação entre as matrizes não definidas negativas (n.d.n.) e respectivas formas canónicas sob congruência, além da não negatividade dos elementos diagonais e do determinante. Tal associação é resultante do carácter simétrico dessas matrizes n.d.n.. O Cap. 8 aborda a temática fundamental das matrizes inversas generalizadas, nas versões Moore-Penrose, reflexiva e fraca, as quais permitem uma vasta gama de aplicações a análises estatísticas envolvendo matrizes de qualquer ordem quadradas ou rectangulares de característica não plena (not full rank) ou plena (caso invertível). São apresentados os algoritmos de cálculo permitindo a obtenção de tais matrizes, baseados em processos de factorização a matrizes diagonais equivalentes e em propriedades das características matriciais, como ainda uma chave de cálculo relacionando as inversas generalizadas entre si.

Importante neste capítulo é o estudo das propriedades de inversas generalizadas das matrizes XX', de importantes aplicações em modelos lineares. O Cap. 9 é dedicado ao estudo da resolução de equações lineares com a definição do conceito de consistência, verificação da possibilidade da existência de uma ou mais soluções em equações consistentes. No caso de existência de muitas soluções, é preconizado neste Capítulo o recurso a matrizes inversas generalizadas (m.i.g.) mediante o recurso a algoritmos de cálculo de soluções derivadas de uma ou mais m.i.g. ou de combinações lineares de soluções. É também indicado neste caso como calcular o número de soluções vectoriais linearmente independentes. A discussão da problemática das equações lineares por via das m.i.g., é continuada com a abordagem das propriedades de invariância das combinações de soluções lineares, propriedades que conferem a aplicabilidade desta metodologia aos procedimentos de estimação em modelos lineares.

São também mencionados problemas concretos relacionados com derivação de soluções ortogonais para equações do tipo Ax = 0, ou de pesquisa de soluções aproximadas para equações inconsistentes, como sejam as possibilitadas pelo método dos mínimos quadrados, com obtenção de novas equações. O Cap.10 é dedicado a partição de matrizes em submatrizes, complementando informação prestada no Cap. 2. Neste Capítulo são discutidas as principais propriedades das somas e produtos directos, que como se sabe são as operações matriciais definidas em termos de matrizes particionadas. É referida a partição de matrizes ortogonais em submatrizes rectangulares convertíveis em conjuntos de equações consistentes. É ainda definida a matriz denominada como complemento de Schur e abordado o cálculo de matrizes inversas e de inversas generalizadas de matrizes particionadas por recurso a essa matriz.

O Cap. 11 aborda a importante problemática dos valores (ou valores latentes) e vectores próprios. Essa abordagem é iniciada com as respectivas definições com uma importante ilustração em como os valores próprios traduzem o conceito de estacionaridade temporal do respectivo vector próprio. Segue-se o estabelecimento de algumas propriedades de valores próprios relacionados com os valores próprios de potências de matriz, produto matriz-escalar, polinómios e soma e produtos de valores próprios e suas relações com as operações dos traços das matrizes. As secções seguintes do Capítulo têm a ver com o cálculo dos valores próprios, que o mesmo é dizer com a pesquisa de raízes do polinómio característico, e vectores próprios mediante recurso a um algoritmo associado à pesquisa de uma inversa generalizada da matriz relativa à equação característica. Para o cálculo dos vectores próprios que distinguir se as raízes do polinómio característico são simples ou múltiplas. Segue-se no Cap.

11 a temática relativa à redução de matrizes à forma canónica similar, denominadas em tal caso como regulares ou a diagonizáveis, bem como o teorema explicitando as condições em que essa redução se pode processar. A terminar o Cap. 11 é referido que as matrizes simétricas são sempre diagonizáveis, com vectores próprios ortogonais, sendo a respectiva redução designada como de forma canónica com similaridade ortogonal. É apresentado o resultado que estabelece a igualdade entre a característica duma matriz regular e a respectiva característica, como ainda apresentados processos de obtenção dos valores próprios sem necessidade de resolver directamente a equação característica. Segue-se o Cap. 11A, que funciona como apêndice ao Cap. 11, onde são feitas as demonstrações do teorema da diagonabilidade bem como de resultados relativos às matrizes simétricas, nomeadamente a sua decomposição espectral bem como do carácter positivo dos valores próprios das matrizes não negativas definidas, que como se referiu se consideram simétricas. Seguem-se neste capítulo resultados relativos à diagonalização simultânea de duas matrizes simétricas e à decomposição de valor singular. Esta última, refere-se como se sabe a um processo de factorização de qualquer matriz A, quadrada ou rectangular, baseada na diagonalização das matrizes AA' e A'A necessariamente simétricas. O Cap. 11A indica ainda o Teorema Cayley Hamilton que, em termos práticos, permite obter as várias potências de uma matriz, conhecido que seja o seu polinómio característico sem necessidade de obter as respectivas raízes. No Cap. 12 é feito um resumo de tópicos diversos analisados em capítulos anteriores. É feita uma análise das propriedades de matrizes ortogonais, idempotentes, matrizes definidas não negativas, combinações lineares da matriz identidade com a matriz contendo vectores soma, matrizes definidas não definidas e resumo de formas canónicas e outras decomposições. É feita também uma análise relativa às propriedades de vectores de operadores diferenciais, operadores vec e vech e matrizes complexas. Os três últimos capítulos abordam a título introdutório diversas aplicações estatísticas de cálculo matricial.

Assim no Cap. 13 são referidas as matrizes de variância-covariância, matrizes de correlação, médias e sua relação com as matrizes de centragem, somas corrigidas ao valor médio de diferenças de quadrados e produtos, distribuição multivariada normal, contrastes entre médias, equações dos mínimos quadrados e formas quadráticas e distribuições de qui-quadrado. O Cap. 14 faz uma análise introdutória da regressão simples e múltipla em termos matriciais, incluindo as tradicionais análises de variância associadas às somas dos quadrados e testes de hipóteses lineares. São considerados modelos em que a matriz das incógnitas X é de característica plena de colunas, sendo em tal situação possível a inversão da matriz XX' e a consequente estimação dos vectores dos coeficientes das incógnitas. No Cap. 15, final, é feita uma abordagem matricial aos modelos lineares gerais. Neste tipo de modelos a matriz XX' não é de característica plena, pelo que as equações normais para pesquisa dos coeficientes das incógnitas são resolvidas por recurso às inversas generalizadas. É também referida a possibilidade de obtenção de funções estimáveis, baseadas em propriedades de invariabilidade de produtos q'b0, entre vectores q' obedecendo a determinadas condições e os vectores dos coeficientes das incógnitas.

Com base nessas propriedades, é possível apresentar o conceito de estimadores lineares de menor variância (os conhecidos b.l.u.e.), verificar a invariabilidade das combinações lineares dos elementos homólogos das várias soluções b0 e a realização de testes de hipóteses e de intervalos de confiança a essas combinações lineares.

Abel Rodrigues Investigador Auxiliar Estação Florestal Nacional

Av. da República, Quinta do Marquês, 2780-159 Oeiras - Portugal

silva.lusitana@inrb.pt


transferir texto