Home   |   Structure   |   Research   |   Resources   |   Members   |   Training   |   Activities   |   Contact

EN | PT

EuPTCEEx0874-51612006000100001

EuPTCEEx0874-51612006000100001

National varietyEu
Country of publicationPT
SchoolEx-Tech-Multi Sciences
Great areaExact-Earth Sciences
ISSN0874-5161
Year2006
Issue0001
Article number00001

Javascript seems to be turned off, or there was a communication error. Turn on Javascript for more display options.

Reflexões sobre os rankings do Secundário

1 Introdução A publicação de rankings das escolas secundárias, iniciada em 2001, teve um impacto apreciável a vários níveis, suscitando uma série de comentários e especulações nos diversos meios de comunicação social e influindo realmente nas decisões (ou pelo menos aspirações) de muitas pessoas.

Para além da óbvia atracção que qualquer ranking exerce junto das entidades que nele ficam mais bem classificadas, constata-se que poucos ficam indiferentes à apresentação de uma ordenação clara, baseada em factos (as classificações dos exames) e aparentemente despida de subjectividades e ambiguidades. Ainda por cima, a história do processo inclui recusas de disponibilização dos dados brutos (classificações dos exames) por parte de sucessivos Ministérios da Educação, o que terá aumentado a adesão afectiva ao primeiro exercício concreto de utilização desses dados, e depois aos que se lhe seguiram.

A esse propósito, e antes de prosseguir, querem os autores deste artigo deixar claro que, na sua opinião, dados deste tipo devem estar disponíveis para o público, cabendo aos interessados dar-lhes boa utilização e denunciar conclusões erradas ou abusivas. O problema, aliás, situar-se-á mais na escassez de dados complementares aos das classificações dos exames, impedindo estudos mais completos do que a mera organização de rankings de resultados de exames.

Voltando ao que nos ocupa, verifica-se que os rankings, que tecnicamente são apenas ordenações das escolas pela média das classificações nos exames do 12º ano dos alunos que levam a exame, acabam por ser na prática considerados indicadores da qualidade ou da eficácia das escolas, com todas as consequências daí decorrentes, em que os rankings funcionam como auxiliares de decisão para alunos, pais, escolas e ministério. As limitações deste tipo de exercício para caracterizar e ajudar a melhorar entidades e processos tão complexos ficam patentes quando se tomam em consideração trabalhos académicos e estudos realizados ao longo de várias décadas sobre eficácia e qualidade nas escolas (Venâncio et al., 2003), mas os rankings existem e não podem ser ignorados.

O nosso propósito aqui é bastante diferente daquilo que temos visto nas discussões relacionadas com este tópico. Beneficiando da disponibilidade de cinco anos de dados, e da possibilidade de comparar os rankings respectivos, o nosso exercício de análise de dados procurou verificar a posteriori até que ponto a hipótese implícita na utilização entusiástica dos rankings é razoável. Ou seja, serão os rankings um indicador fiável da qualidade, ou da eficácia, das escolas? A análise desta questão trouxe outras, também abordadas neste artigo, a começar na identificação de uma inconsistência sistemática, inerente à utilização de indicadores de média pesada (mas agravada pelas grandes variações das médias das diferentes disciplinas) e terminando na comparação público-privado que tem sido um dos cavalos de batalha da corrente de opinião que se apoia nos rankings para exigir o cheque-ensino.

Pelo meio, analisa-se ainda a importância e evolução da diferença entre classificações internas e do exame e discute-se a eventual influência do número de provas nos resultados obtidos por uma escola.

Em todo o artigo procurou-se sobretudo analisar os dados e identificar situações claramente decorrentes dessa análise, deixando para outros especulações ou explicações mais profundas, que estão fora das competências principais dos autores, mas são certamente desejáveis.

Convém neste ponto explicar que se utilizou, como base de discussão, os rankings Público/Universidade Católica, sem preocupação de os comparar com aqueles publicados em outros jornais, apesar de tudo não tão diferentes, quando a perspectiva é aquela em que nos encontramos.

A estrutura do artigo a partir deste ponto é a seguinte: começamos por um pequeno enquadramento científico, histórico e metodológico (Secção 2), abordando em seguida a questão da inconsistência e da influência nesta das médias das disciplinas (Secção 3), antes de iniciar a discussão do valor dos rankings para auxílio à decisão (Secção 4). A análise dos restantes aspectos relevantes decorre na Secção 5, a que se seguem as conclusões e a lista de referências.

2 Enquadramento 2.1 Eficácia e qualidade A perspectiva que se poderia dizer industrialista da eficácia traduz-se na observação das relações entre recursos e resultados. Nesta perspectiva, uma escola eficaz é aquela que optimiza os recursos disponíveis, em termos dos resultados escolares (académicos e não académicos) alcançados. Em consequência, mesmo que se aceite que o sucesso é medido unicamente pelos resultados nos exames, qualquer análise (ou ranking) que não tome em conta os recursos utilizados, incluindo a situação inicial dos alunos, será sempre deficiente.

Numa outra perspectiva, o conceito de eficácia das escolas associa-se à capacidade de diminuir as desigualdades entre alunos e de oferecer mais oportunidades de aprendizagem de forma diferenciada e conforme as necessidades de cada um, quer se trate de alunos com dificuldades, quer se trate de alunos excepcionais. A escola eficaz promove o êxito educacional dos alunos e reduz as diferenças existentes entre eles, procurando conduzir o maior número ao mais alto nível das suas capacidades. Aqui, o próprio conceito de resultado é muito mais complexo do que as classificações nos exames.

Pammela Sammons (cf. Clímaco et al., 1992), define eficácia como o impacto da educação sobre a sociedade ou da acção educativa sobre uma geração ou grupo de alunos. Os efeitos da escola referem-se aos factores da escola que podem ser apontados como correlacionados ou associados ao sucesso dos alunos.

O conceito de qualidade da escola aparece frequentemente referido na literatura educacional, em textos oficiais ou no debate político, não sendo, contudo, descrito de forma explícita - raramente se apresentam os critérios de observação que fundamentam os juízos de valor. Acredita-se que o nível de qualidade reflecte a dimensão político-social da democracia e tem subjacente a igualdade de oportunidades, a necessidade de modernizar os equipamentos educativos, a distribuição de recursos, a orientação escolar, os programas de formação dos agentes educativos, a avaliação dos alunos, a orientação pedagógica e as relações da educação com os modelos de desenvolvimento económico e o mercado de emprego.

As escolas eficazes e as escolas de qualidade estão muito ligadas ao conceito de desenvolvimento dos alunos, que se mede pelos resultados cognitivos, académicos e não académicos, como as expectativas positivas, as atitudes face à escola e à aprendizagem, a sociabilidade e a capacidade de trabalhar em grupo, o espírito de iniciativa, a capacidade de tomar decisões e aquisição de valores relacionados com o espírito de cidadania, de liberdade e de respeito pela diferença.

A hipervalorização dos rankings conduz, inevitavelmente, à simplificação do conceito de sucesso (= resultados dos exames). Implícito, subjaz o efeito escola como único factor de sucesso. Mas nada é tão simples. Curiosamente, completam-se, em 2006, 40 anos do célebre relatório Coleman (Coleman et al, 1966), segundo o qual o grau de sucesso dos alunos resultaria fundamentalmente da sua origem social. Analisando de que forma as variáveis sociais, culturais e familiares interferiam no sucesso dos alunos, verificou-se que as variáveis directamente ligadas aos alunos (estatuto sócio-económico, raça, etc) explicavam de 65% a 85% do seu sucesso escolar. Estas conclusões minimizavam qualquer estratégia de intervenção ao nível da escola, apontando para reformas que pretendiam compensar os "handicaps sócio-culturais".

No entanto, havia indícios de que a estrutura da escola, a forma de liderança e o estilo das práticas docentes poderiam afectar o rendimento dos alunos. Analisando as características organizacionais e contextuais dessas escolas de bom desempenho, esperava-se identificar as condições favorecedoras da eficácia. O estudo mais conhecido, intitulado 15.000 Horas de Escola (Rutter et al., 1979) conduziu a resultados que foram, ao mesmo tempo, confirmados por um grande número de autores e violentamente questionados por outros. De facto, nesses estudos, o efeito da escola é estimado através de análises multivariadas complexas, que, quase sempre, resultam em correlações fracas e instáveis e a um grau de sofisticação metodológica que aumenta o risco de artificialidade.

E, desde 40 anos, investigações teórico-práticas associadas à eficácia e melhoria da eficácia da escola tentam encontrar resposta para algumas questões-chave para a qualidade da escola: Que factores fazem com que algumas escolas alcancem os seus objectivos melhor do que outras? Que fazer para que uma escola melhore? Que efeito escola terá relação directa com o sucesso do processo ensinoaprendizagem? Pode a escola potenciar o efeito escola no sentido da melhoria real da eficácia, tendo em atenção que cada aluno é reflexo de inúmeras interacções, ao longo do seu percurso escolar? Naturalmente, tudo isto está muito longe da mera ordenação das escolas por médias globais de resultados em exames, exercício que não se destina a procurar resposta a nenhuma destas perguntas.

2.2 História O acesso público aos resultados dos exames nacionais do 12º ano tornou-se possível em Agosto de 2001, com a publicação dos dados em bruto pelo Ministério da Educação (ME). Esta decisão surge após a tomada de posse do ministro Júlio Pedrosa e a deliberação da Comissão de Acesso aos Documentos Administrativos (CADA). Este parecer resultou de uma queixa apresentada pelo jornal Público, tendo a CADA deliberado em Julho de 2001 que o acesso aos documentos administrativos de carácter não nominativo constitui um direito fundamental de todos os cidadãos (CADA, 2001).

Em 2001, vários órgãos de comunicação social publicaram análises realizadas com base nestes dados. O jornal Público, em colaboração com a Universidade Católica Portuguesa (UCP), publicou um suplemento com a manchete A LISTA (este título viria a ser alvo de críticas por parte do provedor do jornal (Fidalgo, 2001)). Desde esta data que o jornal Público, em colaboração com a UCP, publica anualmente um ranking que tem por base os mesmos critérios que aquele publicado em 2001.

Em 2002, com um novo ministro à frente da pasta, o ME produz e publica, em colaboração com a Universidade Nova de Lisboa, um ranking que incorpora indicadores sócio-económicos. Esta análise suscita várias críticas e leva à publicação de um livro de apreciação crítica sobre o tema em 2004 (Correia e tal., 2004). O próprio ministro David Justino reconheceu, na época, que o ranking produzido pelo ME teve aspectos negativos que lhe retiraram a credibilidade (Chitas et al., 2002). Nos anos seguintes, o ME abandona a publicação desta análise, mantendo apenas a publicação dos dados em bruto.

2.3 Metodologia As bases de dados relativas aos anos entre 2001 e 2005, e disponíveis nas páginas web da Direcção-Geral de Inovação e Desenvolvimento Curricular do ME (DGIDC, 2006), foram descarregadas durante o mês de Agosto de 2006. As bases de dados são fornecidas em ficheiros individuais por ano, no formato específico do programa Microsoft Access. A análise dos dados foi realizada usando o Microsoft Access para a extracção dos dados e o programa SPSS para a análise estatística. Para algumas tarefas específicas, nomeadamente para identificar exemplos que satisfaçam determinados critérios, foi usada uma combinação de PHP e MySQL em ambiente UNIX.

Numa primeira fase, procurámos reproduzir os resultados obtidos pelo Público/UCP e, usando os critérios divulgados no jornal, produzimos os rankings para cada um dos 5 anos. Assim, seleccionámos apenas o conjunto dos exames realizados na primeira fase, as 7 disciplinas com mais provas (Biologia, Física, História, Português B, Psicologia, Química e Matemática) mais Português A (por ser obrigatória no agrupamento de Humanidades) e as escolas onde foi realizado pelo menos 1 exame numa destas 8 disciplinas. Com esta selecção, a seriação das escolas foi feita com base na média dos exames realizados no conjunto das 8 disciplinas.

A primeira constatação tem a ver com o facto dos rankings reconstruídos não apresentarem sempre ordenações iguais àquelas apresentadas pelo jornal. Uma análise mais detalhada permitiu verificar que o ranking apresentado pelo jornal não usa sempre o mesmo critério, havendo pequenas mudanças que têm impacto na ordenação final. Por exemplo, enquanto que em 2001 o ranking do Público/UCP incluiu todas as provas realizadas por alunos internos, em 2003 foram incluídas apenas as provas dos alunos internos realizadas para aprovação, sendo excluídas aquelas realizadas para melhoria.

Para além destas diferenças ao nível dos critérios usados, detectámos também diferenças ao nível dos dados brutos. Por exemplo, em várias escolas, o número de provas definido nas bases de dados de 2003 é diferente dos valores publicados pelo jornal. Tendo em conta estas diferenças, optámos por usar os dados disponíveis em Agosto de 2006 e ter por base o critério, na forma como foi originalmente enunciado em 2001 pelo Público/UCP todas as provas da primeira fase realizadas por alunos internos a uma das 8 disciplinas. Ao longo deste texto, todas as análises e comparações realizadas são feitas com base neste critério e nos rankings do Público/UCP reconstruídos por nós.

3 Inconsistências e diferenças de sucesso entre disciplinas 3.1 A questão do sucesso nas diferentes disciplinas Quando se constrói um indicador baseado em médias globais por escola, está a esquecer-se que os exames não estão aferidos, ou seja, nada garante que meçam de forma equivalente a desempenho dos alunos nas diferentes disciplinas. Mais ainda, nada garante que meçam sequer de forma equivalente o desempenho dos alunos na mesma disciplina, em diferentes anos lectivos. A primeira circunstância gera desvantagens injustificadas para escolas com mais exames realizados nas disciplinas que, incidentalmente, têm médias nacionais mais baixas (e, naturalmente, o efeito contrário em outras escolas), enquanto que a segunda faz com que comentários sobre a evolução entre anos sucessivos perca significado. Surpreendente é a ausência de reflexão sobre estas variações de média (inter e intra disciplinas), no sentido de melhorar o equilíbrio do grau de dificuldade dos exames e das suas indicações de correcção (por vezes incompreensivelmente draconianas) e de introduzir mecanismos correctores disponíveis muitas décadas.

A diferença entre as médias das disciplinas em 2005 (Figura 1) mostra esse desequilíbrio (que afecta negativamente as escolas com mais exames a Matemática), mas é mais reveladora a análise dos resultados ao longo dos anos, mostrados na Figura 2.

Na verdade, qualquer teoria que pretenda tomar os resultados dos exames pelo seu valor facial teria que conseguir explicar como é que em Física, a globalidade das escolas piorou tanto de 2002 para 2003, para logo a seguir voltar aos níveis anteriores (2004) e melhorar ainda mais em 2005, sabendo-se que caíram de novo em 2006 para níveis negativos pouco superiores aos de 2003. Claro que se poderia dizer que estas variações se devem exclusivamente aos alunos (note-se que esta hipótese invalidaria os rankings como instrumento de avaliação das escolas), mas ninguém acreditaria em diferenças tão grandes entre gerações tão próximas, nas mesmas escolas.

Para se entender que a diferença da distribuição de resultados entre disciplinas tem influência num ranking agregado como o que se discute, deve ter-se em conta que é muito desigual o número de disciplinas diferentes com que cada escola trabalha (Figura 3).

De qualquer modo, a influência deste aspecto no ranking Público/UCP, não sendo radical ao ponto de o invalidar, pode afectar de forma significativa e injusta a posição de algumas escolas, para além de contribuir artificialmente para a instabilidade do ranking em anos sucessivos, assunto a que voltaremos na Secção 4.

3.2 Inconsistências na comparação binária Um ponto importante é que não é apenas pelo efeito das médias de disciplinas diferentes que surgem inconsistências o facto do indicador global ser uma média pesada, por si, provoca situações anómalas quando se comparam escolas duas a duas, sendo possível a uma escola mostrar superioridade em todos os rankings parciais (por disciplina), ao mesmo tempo que fica menos bem colocada no ranking global.

A Tabela 1 (ranking Público/UCP de 2005, reconstruído) mostra duas dessas situações. No primeiro exemplo, o Instituto de S. Tiago realizou exames a seis disciplinas, obtendo a média 79,9 que a colocou na posição 584. Ora a Escola Pré-Universitária Autónoma obteve melhores resultados em todas as seis disciplinas, ficando no entanto em lugar inferior do ranking (590), por influência do maior número de provas realizadas a Matemática, Física e Química, disciplinas com médias nacionais baixas.

O segundo exemplo é mais característico das situações deste tipo (423 ao todo) no ranking Público/UCP de 2005. Trata-se de uma escola (Secundária Soares do Reis) que apresentou alunos apenas a algumas disciplinas e que no ranking fica à frente de uma outra escola (Colégio Dr. Luís Pereira da Costa) que em todas essas disciplinas apresenta melhor média, mas que é prejudicada pelos restantes exames realizados pelos seus alunos.

Este tipo de inconsistência é tão forte que não se compreende como nunca foi mencionada a propósito do ranking Público/UCP (ou de qualquer outro ranking português que conheçamos), sobretudo quando variações relevantes da média de cada disciplina em anos sucessivos também se tornaram evidentes. De qualquer modo, saliente-se que uma parte da inconsistência é inultrapassável, uma vez que resulta do cálculo da média pesada, ou seja, é sempre possível uma escola ter melhores médias do que outra em todas as disciplinas consideradas individualmente e ficar em posição inferior no ranking. Por isso, o indicador MCS que se propõe na secção seguinte mitiga este problema (247 casos, contra os citados 423), ao anular o efeito das médias nacionais, mas nunca poderia eliminar a inconsistência inerente a qualquer sistema baseado em médias pesadas.

3.3 Proposta de um indicador alternativo Uma parte do problema discutido nas secções anteriores decorre, como se disse, das diferenças, por vezes significativas, entre as distribuições das classificações das diferentes disciplinas consideradas no ranking Público/UCP. Na verdade, o indicador que suporta a construção do ranking não distingue disciplinas, limitando-se a calcular a média das classificações de todos os exames da escola (embora seja por vezes apresentado como a média ponderada das médias das classificações em cada disciplina, o que vai dar ao mesmo):

class(x ) n M (E ) pub(E ) = = n ∑n x∈E

d ∈D

e

d

d

d ∈D

d

onde E se refere à escola, x é uma prova, D é o conjunto das disciplinas, Md é a média na escola da disciplina d, nd é o número de provas à disciplina d e ne é o número total de provas na escola E.

O novo indicador que se propõe (e que baptizámos de MCS) corrige as classificações brutas, tomando em conta a média nacional da disciplina (MNd):

class( x )

M d (E )

1

MN (x ) ⎜⎜⎝ MN class(x )⎟⎟⎠ n MN mcs(E ) = = = n ∑n ∑n x∈E

d ∈D

d

d x∈E D

e

d ∈D

d ∈D

d

d

d ∈D

d

d

Como é fácil de ver, o valor deste indicador para uma escola que, em todas as disciplinas, obtivesse as médias nacionais, seria exactamente 1. Naturalmente, escolas melhores do que a média nacional na maior parte das provas terão um indicador maior do que 1, independentemente das disciplinas em causa. Passa também a ser possível comparar anos sucessivos, sem influência da variação de dificuldade dos exames respectivos.

Podemos agora regressar aos exemplos da Tabela 1, aplicando o indicador MCS e o ranking correspondente. A Tabela 2 permite verificar que o indicador MCS está mais de acordo, nos exemplos estudados, com a percepção holística da posição relativa entre as Escolas (para maior facilidade de análise, repetiram-se os dados anteriores).

De qualquer modo, convirá salientar, para terminar este tópico, que a vantagem que vemos no novo indicador e ranking MCS se resume a ter uma melhor representação cardinal e ordinal das escolas em relação aos resultados obtidos pelos alunos que propuseram a exame, que é o que está em discussão quando se fala de rankings como o do Público/UCP. As secções seguintes deste artigo são bastante elucidativas sobre a limitação destes indicadores, e dos rankings deles resultantes, para outros fins.

Quanto à inconsistência resultante do uso da média pesada (em qualquer dos rankings): é uma questão que deixamos em aberto, dada a natureza do nosso estudo, mas é certamente merecedora de posterior reflexão.

4 Utilidade do ranking para tomar decisões 4.1 Colocação da questão Apesar do indicador que lhes está na base se referir, como se disse, apenas ao desempenho médio nos exames, este tipo de rankings tem sido interpretado, e por vezes mesmo apresentado, como ranking das escolas, num sentido muito mais global do que seria adequado, tendo em conta a informação em que se baseia. uma percepção social de que as escolas mais bem classificadas serão as melhores, de que um aluno que nelas seja integrado terá melhores classificações nos exames que vier a fazer do que se for integrado numa escola com número de ordem mais baixo, de que se devia fazer qualquer coisa em relação às escolas menos bem classificadas. Significativamente, as escolas mais bem classificadas são convidadas a explicar o segredo do seu sucesso, ficando implícita uma relação forte entre a organização da escola e os resultados dos alunos que ela propõe a exame.

Ou seja, os rankings têm sido apresentados, ou pelo menos interpretados, como valiosos auxiliares de decisão: a) Para os pais escolherem a melhor escola para os filhos, na eventualidade de lhes ser permitida ou possível essa opção; b) Para o Ministério da Educação actuar junto das escolas piores ou menos boas, responsabilizando órgãos de gestão e professores (pelo menos) pelas suas baixas posições no ranking; c) Para as próprias escolas melhorarem a qualidade.

Repare-se que nesta visão se está implicitamente a considerar que o lugar da escola no ranking permite: a) Prever a futura eficácia da escola, no que respeita aos resultados dos alunos isto corresponde, em termos de previsão, a considerar um modelo de persistência (a melhor estimativa dos resultados futuros são os resultados actuais); b) Avaliar a qualidade actual da escola o que neste caso corresponde a identificar qualidade com resultados nos exames, esperando-se alguma estabilidade do indicador em anos sucessivos.

Na ausência de informação adicional, não é possível discutir seriamente até que ponto estas ideias são sustentáveis, embora o material que incluímos na Secção 2 e algum bomsenso nos levem a pensar que a origem social dos alunos, o seu nível anterior e outros factores poderão influenciar bastante os resultados, e que a análise da qualidade também teria mais que ver com o valor acrescentado e outros indicadores associados ao processo do que meramente com resultados de exames.

O nosso exercício é, portanto, de outro tipo, beneficiando da existência de um histórico de 5 anos de resultados publicamente acessíveis, a partir dos quais foram construídos os rankings correspondentes. Torna-se assim possível verificar até que ponto se confirmam as qualidades de persistência e estabilidade que se indicaram atrás como inerentes à utilização dos rankings como auxiliares de decisão.

A Figura 4 (Ranking Público/UCP) desde logo uma ideia algo contrária a essa confirmação, embora algumas escolas se mantenham no grupo durante os 5 anos, e a Figura 5 (Ranking MCS) vai no mesmo sentido.

4.2 Variação absoluta de lugar no período de análise Entretanto, a natureza temporal do exercício (rankings de anos sucessivos) e a preocupação em avaliar a capacidade preditiva levou à construção de uma medida da variabilidade ao longo dos anos, correspondendo simplesmente à soma das 4 variações absolutas de lugar que a escola experimentou nos 5 anos cujos resultados estão disponíveis. A aplicação desse indicador levou às conclusões patentes na Tabela 3, onde se salienta a média de quase 380 variações (ou seja quase 95 em cada transição de um ano para o seguinte) no ranking Público/UCP, com valores extremos de 1800 variações (450 por ano!). Na mesma tabela pode ver-se que os valores para o ranking MCS são mais moderados, como seria de esperar por se ter anulado o efeito da variação do grau de dificuldade dos exames, mas ainda elevados.

Repare-se, entretanto, que mesmo em zonas tipicamente mais estáveis dos rankings (as posições superiores) se verificam grandes variações médias, como mostra a Tabela 4 em relação às primeiras 100 escolas do ranking quinquenal. Mais uma vez, o ranking MCS apresenta variações menores.

4.3 Permanência no topo

Analisou-se também a estabilidade da permanência nos lugares cimeiros do ranking, com os resultados mostrados na Figura 7 ao fim de 4 anos, apenas cerca de 40% das escolas do Top 100 de 2001 se mantinham nessa lista.

Uma análise complementar é a que se mostra na Figura 8, onde em abcissa se pode escolher um top de qualquer dimensão, lendo depois em ordenada o número de escolas que pertenceram a esse top pelo menos um vez no período 2001-05. A figura do lado direito é uma ampliação da zona mais proeminente, deixando ver que quase 200 escolas pertenceram ao grupo das 100 primeiras.

4.4 Intervalo de Confiança para a Média Um aspecto que tem sido muito discutido é o do diferente número de exames que as escolas apresentam (entre a dezena e o milhar), seja pela possível influência nos resultados, seja em relação ao significado estatístico dos valores apresentados nos rankings.

Sendo a questão da influência nos resultados discutida mais adiante neste artigo (Secção 5), ficamos agora pela discussão do significado estatístico, assunto sempre tratado um pouco superficialmente na imprensa. Reportando-nos ao Público de 2005, a questão tem sido abordada da seguinte forma: quando uma escola tem menos de 10 ou 15 exames (de acordo com as disciplinas), considera-se que a média não tem significado estatístico e a escola não aparece no ranking parcial da disciplina respectiva. No entanto, esses resultados são incorporados nos cálculos para a média global, conduzindo ao ranking geral. Não é conhecido o detalhe do raciocínio que levou ao estabelecimento dos limites indicados de 10 e 15 exames.

Esta questão é bastante interessante, porque em rigor não estamos a trabalhar com amostras, mas com a totalidade da população que fez exame sob os auspícios daquela escola. A média calculada é a média, e não uma estimativa da média. No entanto, realmente um ponto de vista, implícito na interpretação que se quer fazer dos rankings como auxiliares de decisão, que justifica de certo modo esta perspectiva. Na verdade, as médias que se calculam num certo ano são implicitamente consideradas como sendo obtidas sobre amostras duma população de resultados que inclui os resultados futuros, ou seja, o modelo de previsão por persistência que mencionámos.

Admitindo essa interpretação um pouco peculiar, fará sentido analisar a confiança associada a cada uma das médias, tendo em conta a dimensão da amostra. A rejeição nos rankings parciais não tem qualquer impacto real, pelo que não seguimos esse caminho, mas é fácil determinar os intervalos de confiança em torno da média. Realce-se que se pode assumir a normalidade da média das classificações dos exames na maioria das escolas, seja pela aplicação do Teorema do Limite Central, seja pela normalidade da classificação do exame na escola. Nas pequenas excepções a esta situação (como é o caso da escola 1 da Figura 9), o intervalo de confiança para a média poderá ser inferior ao indicado.

A Figura 9 mostra os intervalos de confiança para as primeiras 20 escolas do ranking Público/UCP de 2005, sendo notória a grande amplitude de alguns dos intervalos, o que mais uma vez revela a fragilidade associada a este tipo de exercícios, se deles se pretender retirar indicações mais substanciais do que as que eles na verdade fornecem. Por exemplo, o valor inferior do intervalo da escola 18 é melhor que o valor inferior da escola 8. Noutra direcção, repare-se que os intervalos das escolas 1 e 19 não são disjuntos. Em conclusão, também nesta perspectiva a capacidade preditiva dos rankings fica um pouco posta em causa.

5 Análise de outros aspectos 5.1 Diferenças entre a classificação interna e a do exame Um ponto que tem levantado alguma polémica é a diferença entre as classificações nos exames (CE) e as classificações internas finais (CIF). A discussão é mais complexa do que parece à primeira vista, mas podemos começar por uma constatação, em face dos resultados mostrados na Figura 10: toda a zona à esquerda dos 10 valores contribui para o défice, uma vez que os alunos chegaram aqui com notas positivas.

A partir daí, não meio de saber se o sistema de ensino propicia, em média, classificações internas superiores às que os alunos deveriam ter, ou se são os exames nacionais que são demasiado difíceis ou são corrigidos de forma demasiado severa. Para além disso, a questão de saber se existem, ou não, escolas com desvios sistematicamente superiores aos médios, configurando situações que deveriam ser investigadas (no sentido policial do termo). No entanto, mesmo descontando esses eventuais casos anómalos, este aspecto deveria ser monitorizado, pois a variância dos desvios é bastante grande, provocando distorções injustas nas classificações de acesso ao ensino superior.

A Figura 11 mostra a experiência acumulada no período 2001-05, separada por disciplinas para evitar o mascaramento devido à diferença entre médias. Verifica-se que, durante este período, o défice médio a Matemática ultrapassa os 4 valores, enquanto que, no outro extremo, Português A e B têm um défice médio menos notório, inferior a 2 valores. A separação de escolas públicas e privadas permite ver também que o défice médio tem sido maior nestas últimas, sobretudo nas disciplinas de Física e Português A.

No entanto, se se atentar na Figura 12, vê-se que esta tendência se tem desvanecido, ou seja: a) Inicialmente os alunos das escolas privadas tiveram, em média, classificações internas superiores às dos seus colegas equivalentes (ou seja, com a mesma classificação no exame) do ensino público em todas as disciplinas (em 2001, mais de 1 valor em média a Física, quase 0,9 valores a Português A), ficando assim numa posição mais vantajosa para o acesso ao Ensino Superior; b) A evolução até 2005 foi no sentido da convergência entre os dois subsistemas, em parte porque os défices de cada um dos subsistemas em geral diminuíram (embora não em todas as disciplinas), mas sobretudo porque no subsistema privado houve um decréscimo mais acentuado da generalidade dos défices.

5.2 Influência do número de alunos levados a exame Na discussão sobre as limitações dos rankings é muitas vezes mencionada a eventual influência do número de alunos no desempenho global das escolas, normalmente com a ideia de que escolas com muitos alunos levados a exame ficariam prejudicadas. Analisada essa questão, a Figura 13 (conclusões semelhantes em 2001-04) mostra que não evidência desse tipo de influência: se por um lado os melhores resultados aparecem sobretudo em escolas com poucas provas, o mesmo se passa com os piores resultados. A principal conclusão é então a de uma maior dispersão de resultados nas escolas com poucas provas, assunto cujo aprofundamento está para além dos objectivos deste artigo.

5.3 Comparação dos subsistemas público e privado Embora constituindo um aspecto algo marginal do ranking, até porque ao aglomerar subsistemas se torna mais notória a ausência, seja de variáveis explicativas de índole social, seja do grau de retenção (alunos não propostos a exame), a comparação entre ensino público e privado tem sido muito salientada nos meios de comunicação, muitas vezes como suporte para as propostas do cheque-ensino, outras por mera satisfação ideológica, e sempre como veículo de publicidade para as escolas privadas mais bem classificadas, em relação às outras escolas privadas.

Trata-se de matéria que merece bastante reflexão, e onde muitas comparações se revelam injustas, mas, seguindo a perspectiva deste trabalho, vamos sobretudo analisar os dados disponíveis e tirar as conclusões que deles directamente emanam. Assim, podemos começar por verificar, na Figura 14, o seguinte: a) As médias por disciplina em cada subsistema têm sido sempre bastante semelhantes; b) Ao longo dos anos que levam os rankings, a média das classificações no ensino privado tem vindo a melhorar de forma sustentada, tendo por referência a média dos resultados da escolas públicas.

A evolução mencionada atrás é talvez a conclusão mais interessante, por ser independente de considerações sociais ou outras variáveis que distinguem, presumivelmente, os dois subsistemas. Na verdade, parece que as escolas privadas se têm adaptado melhor do que as públicas a um ambiente onde os rankings são bastante valorizados. Seria importante, neste ponto, saber se isso foi conseguido à custa de um aumento do grau de retenção ou se se trata efectivamente de um maior ajuste à obtenção de boas classificações nos exames. Haveria também que discutir, evidentemente, se é isso que realmente se pretende das escolas, mas sabe-se que a publicação de rankings induz esse comportamento.

Um ponto de análise menos vulgar é aquele que se apresenta na Figura 15, correspondendo ao seguinte exercício: começando com as escolas mais bem classificadas no ranking, foram-se acumulando, de forma separada para os subsistemas público e privado, o número de provas efectuadas, como se todas tivessem tido a média da escola.

Isto corresponde a uma das utilizações especulativas do ranking: a média representa a escola, portanto é como se todos os seus exames tivessem esse valor, ou, de outra forma, se os alunos pudessem escolher, inscrever-se-iam nas escolas de maior média, até às respectivas capacidades.

As curvas (a da direita é uma ampliação) são bem elucidativas da situação. As escolas privadas do topo do ranking (até à posição 14 do ranking global) e as escolas públicas (até à posição 18 do ranking global) acolheriam 1630 provas em cada subsistema, o que corresponde a cerca de 800 alunos. É este o ponto de cruzamento das duas curvas, e estamos a falar de escolas no mínimo 27% acima da média nacional.

A partir deste ponto, as escolas públicas disponíveis estão sistematicamente mais bem colocadas no ranking global. A prova 5000 no ensino público corresponde a uma escola que está na posição 31, enquanto que a prova 5000 no ensino privado corresponde a uma escola que está na posição 48. Se passarmos à prova 10000, as posições são 54 no ensino público e 189 no ensino privado.

Esta constatação, que tem a ver com a capacidade muito diferente dos dois subsistemas, não em número de escolas, mas também na dimensão média das escolas, mostra como é irrealista qualquer comparação dos dois subsistemas em termos da satisfação das necessidades de formação ao nível secundário, mesmo que não se inclua na discussão o grau de retenção, o enquadramento social das escolas ou os custos de formação por aluno.

6 Conclusões O trabalho de análise efectuado pelos autores, do qual este artigo relata as principais conclusões, permitiu assentar algumas ideias relativamente à construção e utilização de rankings baseados unicamente nas classificações dos alunos nos exames.

Como preâmbulo técnico, mostrou-se que uma inconsistência inerente à forma como os rankings são construídos (médias pesadas), que é agravada pela utilização dos valores brutos das classificações, devido à grande variação, inter e intra disciplinas, do grau de dificuldade dos exames. As situações anómalas podem atingir o extremo de uma escola, com média em todas as disciplinas em que se apresentou mais baixa do que uma outra, acabar por ficar à frente desta no ranking. Para mitigar esta situação, propôs-se o novo indicador MCS, que harmoniza os resultados recorrendo às médias nacionais por disciplina em cada ano. No entanto, a inconsistência permanece.

Em relação ao ponto chave da utilidade deste tipo de ranking para auxílio à tomada de decisões, constatou-se uma excessiva variabilidade da posição das escolas ao longo dos anos (quase 100 posições em média, por ano), que pode atingir extremos de variação de 450 posições por ano. Além disso, em muitos casos, o intervalo de confiança da média é bastante alargado, verificando-se importantes sobreposições, o que fragiliza a própria ordenação com base nas médias. Os rankings têm, assim, um fraco valor preditivo e não parecem constituir um indicador fiável da qualidade das escolas.

Em relação a outros aspectos, não evidência de que as escolas que propõem mais alunos a exame (em termos absolutos) tenham melhores ou piores resultados, e confirmou-se a existência de um défice classificativo (CIF-CE) médio importante, que ultrapassa os 4 valores em Matemática, é historicamente maior nas escolas privadas do que nas públicas mas mostra tendência a equilibrar-se entre os dois subsistemas.

Na comparação entre os subsistemas público e privado, com base unicamente nos dados disponíveis, a principal conclusão é a da grande diferença de capacidade, mesmo nas posições mais elevadas do ranking, que faz com que, preenchendo escolas pelo ranking, o aluno 1000 colocado no ensino público estaria com certeza numa escola com melhor posição no ranking do que o aluno 1000 colocado no ensino privado. É também de mencionar, de qualquer forma, uma tendência, em todas as disciplinas, para a média geral dos exames de alunos de escolas privadas subir em relação à das escolas públicas, sendo superior em todos os casos no ano de 2005.

A conclusão geral do exercício aponta para a necessidade de não sobrevalorizar os rankings baseados em exames, sem deixar de os considerar uma peça de informação útil, para as escolas se situarem e para se compararem coisas comparáveis (p.ex. as escolas privadas de Lisboa, excluindo as que estão ligadas a instituições de solidariedade social, as escolas públicas urbanas nas grandes cidades, etc). Por outro lado, sendo evidente o interesse do público por este tipo de ordenações, valerá a pena investir na identificação dos factores de caracterização da qualidade que poderão ser utilizados para complementar a informação dos exames, com o cuidado de privilegiar aspectos compreensíveis, objectivos e acessíveis. Depois, que garantir que eles estão mesmo acessíveis, e trabalhar!

Nota As opiniões dos autores são aqui expressas a título individual, não envolvendo as instituições educativas a que estão ligados, nenhuma das quais apresenta alunos a exames do 12º ano.


Download text