Reflexões sobre os rankings do Secundário
1 Introdução
A publicação de rankings das escolas secundárias, iniciada em 2001, teve um impacto
apreciável a vários níveis, suscitando uma série de comentários e especulações nos
diversos meios de comunicação social e influindo realmente nas decisões (ou pelo menos
aspirações) de muitas pessoas.
Para além da óbvia atracção que qualquer ranking exerce junto das entidades que nele
ficam mais bem classificadas, constata-se que poucos ficam indiferentes à apresentação
de uma ordenação clara, baseada em factos (as classificações dos exames) e
aparentemente despida de subjectividades e ambiguidades. Ainda por cima, a história do
processo inclui recusas de disponibilização dos dados brutos (classificações dos exames)
por parte de sucessivos Ministérios da Educação, o que terá aumentado a adesão afectiva
ao primeiro exercício concreto de utilização desses dados, e depois aos que se lhe
seguiram.
A esse propósito, e antes de prosseguir, querem os autores deste artigo deixar claro que,
na sua opinião, dados deste tipo devem estar disponíveis para o público, cabendo aos
interessados dar-lhes boa utilização e denunciar conclusões erradas ou abusivas. O
problema, aliás, situar-se-á mais na escassez de dados complementares aos das
classificações dos exames, impedindo estudos mais completos do que a mera organização
de rankings de resultados de exames.
Voltando ao que nos ocupa, verifica-se que os rankings, que tecnicamente são apenas
ordenações das escolas pela média das classificações nos exames do 12º ano dos alunos
que levam a exame, acabam por ser na prática considerados indicadores da qualidade ou
da eficácia das escolas, com todas as consequências daí decorrentes, em que os rankings
funcionam como auxiliares de decisão para alunos, pais, escolas e ministério. As
limitações deste tipo de exercício para caracterizar e ajudar a melhorar entidades e
processos tão complexos ficam patentes quando se tomam em consideração trabalhos
académicos e estudos realizados ao longo de várias décadas sobre eficácia e qualidade nas
escolas (Venâncio et al., 2003), mas os rankings existem e não podem ser ignorados.
O nosso propósito aqui é bastante diferente daquilo que temos visto nas discussões
relacionadas com este tópico. Beneficiando da disponibilidade de cinco anos de dados, e
da possibilidade de comparar os rankings respectivos, o nosso exercício de análise de
dados procurou verificar a posteriori até que ponto a hipótese implícita na utilização
entusiástica dos rankings é razoável. Ou seja, serão os rankings um indicador fiável da
qualidade, ou da eficácia, das escolas?
A análise desta questão trouxe outras, também abordadas neste artigo, a começar na
identificação de uma inconsistência sistemática, inerente à utilização de indicadores de
média pesada (mas agravada pelas grandes variações das médias das diferentes
disciplinas) e terminando na comparação público-privado que tem sido um dos cavalos de
batalha da corrente de opinião que se apoia nos rankings para exigir o cheque-ensino.
Pelo meio, analisa-se ainda a importância e evolução da diferença entre classificações
internas e do exame e discute-se a eventual influência do número de provas nos
resultados obtidos por uma escola.
Em todo o artigo procurou-se sobretudo analisar os dados e identificar situações
claramente decorrentes dessa análise, deixando para outros especulações ou explicações
mais profundas, que estão fora das competências principais dos autores, mas são
certamente desejáveis.
Convém neste ponto explicar que se utilizou, como base de discussão, os rankings
Público/Universidade Católica, sem preocupação de os comparar com aqueles publicados
em outros jornais, apesar de tudo não tão diferentes, quando a perspectiva é aquela em
que nos encontramos.
A estrutura do artigo a partir deste ponto é a seguinte: começamos por um pequeno
enquadramento científico, histórico e metodológico (Secção 2), abordando em seguida a
questão da inconsistência e da influência nesta das médias das disciplinas (Secção 3),
antes de iniciar a discussão do valor dos rankings para auxílio à decisão (Secção 4). A
análise dos restantes aspectos relevantes decorre na Secção 5, a que se seguem as
conclusões e a lista de referências.
2 Enquadramento
2.1 Eficácia e qualidade
A perspectiva que se poderia dizer “industrialista” da eficácia traduz-se na observação das
relações entre recursos e resultados. Nesta perspectiva, uma escola eficaz é aquela que
optimiza os recursos disponíveis, em termos dos resultados escolares (académicos e não
académicos) alcançados. Em consequência, mesmo que se aceite que o sucesso é medido
unicamente pelos resultados nos exames, qualquer análise (ou ranking) que não tome em
conta os recursos utilizados, incluindo a situação inicial dos alunos, será sempre
deficiente.
Numa outra perspectiva, o conceito de eficácia das escolas associa-se à capacidade de
diminuir as desigualdades entre alunos e de oferecer mais oportunidades de
aprendizagem de forma diferenciada e conforme as necessidades de cada um, quer se
trate de alunos com dificuldades, quer se trate de alunos excepcionais. A escola eficaz
promove o êxito educacional dos alunos e reduz as diferenças existentes entre eles,
procurando conduzir o maior número ao mais alto nível das suas capacidades. Aqui, o
próprio conceito de resultado é muito mais complexo do que as classificações nos exames.
Pammela Sammons (cf. Clímaco et al., 1992), define “eficácia” como “o impacto da
educação sobre a sociedade ou da acção educativa sobre uma geração ou grupo de
alunos”. Os “efeitos da escola” referem-se aos factores da escola que podem ser apontados
como correlacionados ou associados ao sucesso dos alunos.
O conceito de “qualidade da escola” aparece frequentemente referido na literatura
educacional, em textos oficiais ou no debate político, não sendo, contudo, descrito de
forma explícita - raramente se apresentam os critérios de observação que fundamentam
os juízos de valor. Acredita-se que o nível de qualidade reflecte a dimensão político-social
da democracia e tem subjacente a igualdade de oportunidades, a necessidade de
modernizar os equipamentos educativos, a distribuição de recursos, a orientação escolar,
os programas de formação dos agentes educativos, a avaliação dos alunos, a orientação
pedagógica e as relações da educação com os modelos de desenvolvimento económico e o
mercado de emprego.
As escolas eficazes e as escolas de qualidade estão muito ligadas ao conceito de
desenvolvimento dos alunos, que se mede pelos resultados cognitivos, académicos e não
académicos, como as expectativas positivas, as atitudes face à escola e à aprendizagem, a
sociabilidade e a capacidade de trabalhar em grupo, o espírito de iniciativa, a capacidade
de tomar decisões e aquisição de valores relacionados com o espírito de cidadania, de
liberdade e de respeito pela diferença.
A hipervalorização dos rankings conduz, inevitavelmente, à simplificação do conceito de
sucesso (= resultados dos exames). Implícito, subjaz o “efeito escola” como único factor de
sucesso. Mas nada é tão simples. Curiosamente, completam-se, em 2006, 40 anos do
célebre relatório Coleman (Coleman et al, 1966), segundo o qual o grau de sucesso dos
alunos resultaria fundamentalmente da sua origem social. Analisando de que forma as
variáveis sociais, culturais e familiares interferiam no sucesso dos alunos, verificou-se
que as variáveis directamente ligadas aos alunos (estatuto sócio-económico, raça, etc)
explicavam de 65% a 85% do seu sucesso escolar. Estas conclusões minimizavam
qualquer estratégia de intervenção ao nível da escola, apontando para reformas que
pretendiam compensar os "handicaps sócio-culturais".
No entanto, havia indícios de que a estrutura da escola, a forma de liderança e o estilo
das práticas docentes poderiam afectar o rendimento dos alunos. Analisando as
características organizacionais e contextuais dessas escolas de bom desempenho,
esperava-se identificar as condições favorecedoras da eficácia. O estudo mais conhecido,
intitulado 15.000 Horas de Escola (Rutter et al., 1979) conduziu a resultados que foram,
ao mesmo tempo, confirmados por um grande número de autores e violentamente
questionados por outros. De facto, nesses estudos, o efeito da escola é estimado através
de análises multivariadas complexas, que, quase sempre, resultam em correlações fracas
e instáveis e a um grau de sofisticação metodológica que aumenta o risco de
artificialidade.
E, desde há 40 anos, investigações teórico-práticas associadas à eficácia e melhoria da
eficácia da escola tentam encontrar resposta para algumas questões-chave para a
qualidade da escola:
• Que factores fazem com que algumas escolas alcancem os seus objectivos melhor
do que outras?
• Que fazer para que uma escola melhore?
• Que “efeito escola” terá relação directa com o sucesso do processo ensinoaprendizagem?
• Pode a escola potenciar o “efeito escola” no sentido da melhoria real da eficácia,
tendo em atenção que cada aluno é reflexo de inúmeras interacções, ao longo do
seu percurso escolar?
Naturalmente, tudo isto está muito longe da mera ordenação das escolas por médias
globais de resultados em exames, exercício que não se destina a procurar resposta a
nenhuma destas perguntas.
2.2 História
O acesso público aos resultados dos exames nacionais do 12º ano tornou-se possível
em Agosto de 2001, com a publicação dos dados em bruto pelo Ministério da Educação
(ME). Esta decisão surge após a tomada de posse do ministro Júlio Pedrosa e a
deliberação da Comissão de Acesso aos Documentos Administrativos (CADA). Este
parecer resultou de uma queixa apresentada pelo jornal Público, tendo a CADA deliberado
em Julho de 2001 que “o acesso aos documentos administrativos de carácter não
nominativo constitui um direito fundamental de todos os cidadãos” (CADA, 2001).
Em 2001, vários órgãos de comunicação social publicaram análises realizadas com
base nestes dados. O jornal Público, em colaboração com a Universidade Católica
Portuguesa (UCP), publicou um suplemento com a manchete “A LISTA” (este título viria a
ser alvo de críticas por parte do provedor do jornal (Fidalgo, 2001)). Desde esta data que o
jornal Público, em colaboração com a UCP, publica anualmente um ranking que tem por
base os mesmos critérios que aquele publicado em 2001.
Em 2002, com um novo ministro à frente da pasta, o ME produz e publica, em
colaboração com a Universidade Nova de Lisboa, um ranking que incorpora indicadores
sócio-económicos. Esta análise suscita várias críticas e leva à publicação de um livro de
apreciação crítica sobre o tema em 2004 (Correia e tal., 2004). O próprio ministro David
Justino reconheceu, na época, que o ranking produzido pelo ME teve aspectos negativos
que lhe retiraram a credibilidade (Chitas et al., 2002). Nos anos seguintes, o ME
abandona a publicação desta análise, mantendo apenas a publicação dos dados em
bruto.
2.3 Metodologia
As bases de dados relativas aos anos entre 2001 e 2005, e disponíveis nas páginas
web da Direcção-Geral de Inovação e Desenvolvimento Curricular do ME (DGIDC, 2006),
foram descarregadas durante o mês de Agosto de 2006. As bases de dados são fornecidas
em ficheiros individuais por ano, no formato específico do programa Microsoft Access. A
análise dos dados foi realizada usando o Microsoft Access para a extracção dos dados e o
programa SPSS para a análise estatística. Para algumas tarefas específicas,
nomeadamente para identificar exemplos que satisfaçam determinados critérios, foi usada
uma combinação de PHP e MySQL em ambiente UNIX.
Numa primeira fase, procurámos reproduzir os resultados obtidos pelo Público/UCP
e, usando os critérios divulgados no jornal, produzimos os rankings para cada um dos 5
anos. Assim, seleccionámos apenas o conjunto dos exames realizados na primeira fase, as
7 disciplinas com mais provas (Biologia, Física, História, Português B, Psicologia, Química
e Matemática) mais Português A (por ser obrigatória no agrupamento de Humanidades) e
as escolas onde foi realizado pelo menos 1 exame numa destas 8 disciplinas. Com esta
selecção, a seriação das escolas foi feita com base na média dos exames realizados no
conjunto das 8 disciplinas.
A primeira constatação tem a ver com o facto dos rankings reconstruídos não
apresentarem sempre ordenações iguais àquelas apresentadas pelo jornal. Uma análise
mais detalhada permitiu verificar que o ranking apresentado pelo jornal não usa sempre o
mesmo critério, havendo pequenas mudanças que têm impacto na ordenação final. Por
exemplo, enquanto que em 2001 o ranking do Público/UCP incluiu todas as provas
realizadas por alunos internos, em 2003 foram incluídas apenas as provas dos alunos
internos realizadas para aprovação, sendo excluídas aquelas realizadas para melhoria.
Para além destas diferenças ao nível dos critérios usados, detectámos também diferenças
ao nível dos dados brutos. Por exemplo, em várias escolas, o número de provas definido
nas bases de dados de 2003 é diferente dos valores publicados pelo jornal. Tendo em
conta estas diferenças, optámos por usar os dados disponíveis em Agosto de 2006 e ter
por base o critério, na forma como foi originalmente enunciado em 2001 pelo
Público/UCP – todas as provas da primeira fase realizadas por alunos internos a uma das
8 disciplinas. Ao longo deste texto, todas as análises e comparações realizadas são feitas
com base neste critério e nos rankings do Público/UCP reconstruídos por nós.
3 Inconsistências e diferenças de sucesso entre disciplinas
3.1 A questão do sucesso nas diferentes disciplinas
Quando se constrói um indicador baseado em médias globais por escola, está a
esquecer-se que os exames não estão aferidos, ou seja, nada garante que meçam de forma
equivalente a desempenho dos alunos nas diferentes disciplinas. Mais ainda, nada
garante que meçam sequer de forma equivalente o desempenho dos alunos na mesma
disciplina, em diferentes anos lectivos. A primeira circunstância gera desvantagens
injustificadas para escolas com mais exames realizados nas disciplinas que,
incidentalmente, têm médias nacionais mais baixas (e, naturalmente, o efeito contrário
em outras escolas), enquanto que a segunda faz com que comentários sobre a evolução
entre anos sucessivos perca significado. Surpreendente é a ausência de reflexão sobre
estas variações de média (inter e intra disciplinas), no sentido de melhorar o equilíbrio do
grau de dificuldade dos exames e das suas indicações de correcção (por vezes
incompreensivelmente draconianas) e de introduzir mecanismos correctores disponíveis
há muitas décadas.
A diferença entre as médias das disciplinas em 2005 (Figura 1) mostra esse
desequilíbrio (que afecta negativamente as escolas com mais exames a Matemática), mas
é mais reveladora a análise dos resultados ao longo dos anos, mostrados na Figura 2.
Na verdade, qualquer teoria que pretenda tomar os resultados dos exames pelo seu
valor facial teria que conseguir explicar como é que em Física, a globalidade das escolas
piorou tanto de 2002 para 2003, para logo a seguir voltar aos níveis anteriores (2004) e
melhorar ainda mais em 2005, sabendo-se que caíram de novo em 2006 para níveis
negativos pouco superiores aos de 2003. Claro que se poderia dizer que estas variações se
devem exclusivamente aos alunos (note-se que esta hipótese invalidaria os rankings como
instrumento de avaliação das escolas), mas ninguém acreditaria em diferenças tão
grandes entre gerações tão próximas, nas mesmas escolas.
Para se entender que a diferença da distribuição de resultados entre disciplinas tem
influência num ranking agregado como o que se discute, deve ter-se em conta que é muito
desigual o número de disciplinas diferentes com que cada escola trabalha (Figura 3).
De qualquer modo, a influência deste aspecto no ranking Público/UCP, não sendo
radical ao ponto de o invalidar, pode afectar de forma significativa e injusta a posição de
algumas escolas, para além de contribuir artificialmente para a instabilidade do ranking
em anos sucessivos, assunto a que voltaremos na Secção 4.
3.2 Inconsistências na comparação binária
Um ponto importante é que não é apenas pelo efeito das médias de disciplinas
diferentes que surgem inconsistências – o facto do indicador global ser uma média
pesada, só por si, provoca situações anómalas quando se comparam escolas duas a duas,
sendo possível a uma escola mostrar superioridade em todos os rankings parciais (por
disciplina), ao mesmo tempo que fica menos bem colocada no ranking global.
A Tabela 1 (ranking Público/UCP de 2005, reconstruído) mostra duas dessas
situações. No primeiro exemplo, o Instituto de S. Tiago realizou exames a seis disciplinas,
obtendo a média 79,9 que a colocou na posição 584. Ora a Escola Pré-Universitária
Autónoma obteve melhores resultados em todas as seis disciplinas, ficando no entanto em
lugar inferior do ranking (590), por influência do maior número de provas realizadas a
Matemática, Física e Química, disciplinas com médias nacionais baixas.
O segundo exemplo é mais característico das situações deste tipo (423 ao todo) no
ranking Público/UCP de 2005. Trata-se de uma escola (Secundária Soares do Reis) que
apresentou alunos apenas a algumas disciplinas e que no ranking fica à frente de uma
outra escola (Colégio Dr. Luís Pereira da Costa) que em todas essas disciplinas apresenta
melhor média, mas que é prejudicada pelos restantes exames realizados pelos seus
alunos.
Este tipo de inconsistência é tão forte que não se compreende como nunca foi
mencionada a propósito do ranking Público/UCP (ou de qualquer outro ranking português
que conheçamos), sobretudo quando variações relevantes da média de cada disciplina em
anos sucessivos também se tornaram evidentes. De qualquer modo, saliente-se que uma
parte da inconsistência é inultrapassável, uma vez que resulta do cálculo da média
pesada, ou seja, é sempre possível uma escola ter melhores médias do que outra em todas
as disciplinas consideradas individualmente e ficar em posição inferior no ranking. Por
isso, o indicador MCS que se propõe na secção seguinte mitiga este problema (247 casos,
contra os já citados 423), ao anular o efeito das médias nacionais, mas nunca poderia
eliminar a inconsistência inerente a qualquer sistema baseado em médias pesadas.
3.3 Proposta de um indicador alternativo
Uma parte do problema discutido nas secções anteriores decorre, como se disse, das
diferenças, por vezes significativas, entre as distribuições das classificações das diferentes
disciplinas consideradas no ranking Público/UCP. Na verdade, o indicador que suporta a
construção do ranking não distingue disciplinas, limitando-se a calcular a média das
classificações de todos os exames da escola (embora seja por vezes apresentado como a
média ponderada das médias das classificações em cada disciplina, o que vai dar ao
mesmo):
∑ class(x ) ∑ n M (E )
pub(E ) =
=
n
∑n
x∈E
d ∈D
e
d
d
d ∈D
d
onde E se refere à escola, x é uma prova, D é o conjunto das disciplinas, Md é a média
na escola da disciplina d, nd é o número de provas à disciplina d e ne é o número total de
provas na escola E.
O novo indicador que se propõe (e que baptizámos de MCS) corrige as classificações
brutas, tomando em conta a média nacional da disciplina (MNd):
class( x )
M d (E )
⎞
⎛ 1
∑ MN (x ) ∑ ⎜⎜⎝ MN ∑ class(x )⎟⎟⎠ ∑ n MN
mcs(E ) =
=
=
n
∑n
∑n
x∈E
d ∈D
d
d x∈E ∩ D
e
d ∈D
d ∈D
d
d
d ∈D
d
d
Como é fácil de ver, o valor deste indicador para uma escola que, em todas as
disciplinas, obtivesse as médias nacionais, seria exactamente 1. Naturalmente, escolas
melhores do que a média nacional na maior parte das provas terão um indicador maior do
que 1, independentemente das disciplinas em causa. Passa também a ser possível
comparar anos sucessivos, sem influência da variação de dificuldade dos exames
respectivos.
Podemos agora regressar aos exemplos da Tabela 1, aplicando o indicador MCS e o
ranking correspondente. A Tabela 2 permite verificar que o indicador MCS está mais de
acordo, nos exemplos estudados, com a percepção holística da posição relativa entre as
Escolas (para maior facilidade de análise, repetiram-se os dados anteriores).
De qualquer modo, convirá salientar, para terminar este tópico, que a vantagem que
vemos no novo indicador e ranking MCS se resume a ter uma melhor representação
cardinal e ordinal das escolas em relação aos resultados obtidos pelos alunos que
propuseram a exame, que é o que está em discussão quando se fala de rankings como o
do Público/UCP. As secções seguintes deste artigo são bastante elucidativas sobre a
limitação destes indicadores, e dos rankings deles resultantes, para outros fins.
Quanto à inconsistência resultante do uso da média pesada (em qualquer dos rankings): é
uma questão que deixamos em aberto, dada a natureza do nosso estudo, mas é
certamente merecedora de posterior reflexão.
4 Utilidade do ranking para tomar decisões
4.1 Colocação da questão
Apesar do indicador que lhes está na base se referir, como se disse, apenas ao
desempenho médio nos exames, este tipo de rankings tem sido interpretado, e por vezes
mesmo apresentado, como ranking das escolas, num sentido muito mais global do que
seria adequado, tendo em conta a informação em que se baseia. Há uma percepção social
de que as escolas mais bem classificadas serão as melhores, de que um aluno que nelas
seja integrado terá melhores classificações nos exames que vier a fazer do que se for
integrado numa escola com número de ordem mais baixo, de que se “devia fazer qualquer
coisa” em relação às escolas menos bem classificadas. Significativamente, as escolas mais
bem classificadas são convidadas a explicar o “segredo do seu sucesso”, ficando implícita
uma relação forte entre a organização da escola e os resultados dos alunos que ela propõe
a exame.
Ou seja, os rankings têm sido apresentados, ou pelo menos interpretados, como valiosos
auxiliares de decisão:
a) Para os pais escolherem a “melhor” escola para os filhos, na eventualidade de lhes
ser permitida ou possível essa opção;
b) Para o Ministério da Educação actuar junto das escolas “piores” ou “menos boas”,
responsabilizando órgãos de gestão e professores (pelo menos) pelas suas baixas
posições no ranking;
c) Para as próprias escolas melhorarem a qualidade.
Repare-se que nesta visão se está implicitamente a considerar que o lugar da escola no
ranking permite:
a) Prever a futura eficácia da escola, no que respeita aos resultados dos alunos – isto
corresponde, em termos de previsão, a considerar um modelo de persistência (a
melhor estimativa dos resultados futuros são os resultados actuais);
b) Avaliar a qualidade actual da escola – o que neste caso corresponde a identificar
qualidade com resultados nos exames, esperando-se alguma estabilidade do
indicador em anos sucessivos.
Na ausência de informação adicional, não é possível discutir seriamente até que ponto
estas ideias são sustentáveis, embora o material que incluímos na Secção 2 e algum bomsenso nos levem a pensar que a origem social dos alunos, o seu nível anterior e outros
factores poderão influenciar bastante os resultados, e que a análise da qualidade também
teria mais que ver com o valor acrescentado e outros indicadores associados ao processo
do que meramente com resultados de exames.
O nosso exercício é, portanto, de outro tipo, beneficiando da existência de um histórico de
5 anos de resultados publicamente acessíveis, a partir dos quais foram construídos os
rankings correspondentes. Torna-se assim possível verificar até que ponto se confirmam
as qualidades de persistência e estabilidade que se indicaram atrás como inerentes à
utilização dos rankings como auxiliares de decisão.
A Figura 4 (Ranking Público/UCP) dá desde logo uma ideia algo contrária a essa
confirmação, embora algumas escolas se mantenham no grupo durante os 5 anos, e a
Figura 5 (Ranking MCS) vai no mesmo sentido.
4.2 Variação absoluta de lugar no período de análise
Entretanto, a natureza temporal do exercício (rankings de anos sucessivos) e a
preocupação em avaliar a capacidade preditiva levou à construção de uma medida da
variabilidade ao longo dos anos, correspondendo simplesmente à soma das 4 variações
absolutas de lugar que a escola experimentou nos 5 anos cujos resultados estão
disponíveis. A aplicação desse indicador levou às conclusões patentes na Tabela 3, onde
se salienta a média de quase 380 variações (ou seja quase 95 em cada transição de um
ano para o seguinte) no ranking Público/UCP, com valores extremos de 1800 variações
(450 por ano!). Na mesma tabela pode ver-se que os valores para o ranking MCS são mais
moderados, como seria de esperar por se ter anulado o efeito da variação do grau de
dificuldade dos exames, mas ainda elevados.
Repare-se, entretanto, que mesmo em zonas tipicamente mais estáveis dos rankings (as
posições superiores) se verificam grandes variações médias, como mostra a Tabela 4 em
relação às primeiras 100 escolas do ranking quinquenal. Mais uma vez, o ranking MCS
apresenta variações menores.
4.3 Permanência no topo
Analisou-se também a estabilidade da permanência nos lugares cimeiros do ranking, com
os resultados mostrados na Figura 7 – ao fim de 4 anos, apenas cerca de 40% das escolas
do “Top 100” de 2001 se mantinham nessa lista.
Uma análise complementar é a que se mostra na Figura 8, onde em abcissa se pode
escolher um “top” de qualquer dimensão, lendo depois em ordenada o número de escolas
que já pertenceram a esse top pelo menos um vez no período 2001-05. A figura do lado
direito é uma ampliação da zona mais proeminente, deixando ver que quase 200 escolas
já pertenceram ao grupo das 100 primeiras.
4.4 Intervalo de Confiança para a Média
Um aspecto que tem sido muito discutido é o do diferente número de exames que as
escolas apresentam (entre a dezena e o milhar), seja pela possível influência nos
resultados, seja em relação ao significado estatístico dos valores apresentados nos
rankings.
Sendo a questão da influência nos resultados discutida mais adiante neste artigo (Secção
5), ficamos agora pela discussão do significado estatístico, assunto sempre tratado um
pouco superficialmente na imprensa. Reportando-nos ao Público de 2005, a questão tem
sido abordada da seguinte forma: quando uma escola tem menos de 10 ou 15 exames (de
acordo com as disciplinas), considera-se que a média não tem significado estatístico e a
escola não aparece no ranking parcial da disciplina respectiva. No entanto, esses
resultados são incorporados nos cálculos para a média global, conduzindo ao ranking
geral. Não é conhecido o detalhe do raciocínio que levou ao estabelecimento dos limites
indicados de 10 e 15 exames.
Esta questão é bastante interessante, porque em rigor não estamos a trabalhar com
amostras, mas com a totalidade da população que fez exame sob os auspícios daquela
escola. A média calculada é a média, e não uma estimativa da média. No entanto, há
realmente um ponto de vista, implícito na interpretação que se quer fazer dos rankings
como auxiliares de decisão, que justifica de certo modo esta perspectiva. Na verdade, as
médias que se calculam num certo ano são implicitamente consideradas como sendo
obtidas sobre amostras duma população de resultados que inclui os resultados futuros,
ou seja, o modelo de previsão por persistência que já mencionámos.
Admitindo essa interpretação um pouco peculiar, já fará sentido analisar a confiança
associada a cada uma das médias, tendo em conta a dimensão da “amostra”. A rejeição
nos rankings parciais não tem qualquer impacto real, pelo que não seguimos esse
caminho, mas é fácil determinar os intervalos de confiança em torno da média. Realce-se
que se pode assumir a normalidade da média das classificações dos exames na maioria
das escolas, seja pela aplicação do Teorema do Limite Central, seja pela normalidade da
classificação do exame na escola. Nas pequenas excepções a esta situação (como é o caso
da escola nº 1 da Figura 9), o intervalo de confiança para a média poderá ser inferior ao
indicado.
A Figura 9 mostra os intervalos de confiança para as primeiras 20 escolas do ranking
Público/UCP de 2005, sendo notória a grande amplitude de alguns dos intervalos, o que
mais uma vez revela a fragilidade associada a este tipo de exercícios, se deles se pretender
retirar indicações mais substanciais do que as que eles na verdade fornecem. Por
exemplo, o valor inferior do intervalo da escola nº 18 é melhor que o valor inferior da
escola nº 8. Noutra direcção, repare-se que os intervalos das escolas nº 1 e nº 19 não são
disjuntos. Em conclusão, também nesta perspectiva a capacidade preditiva dos rankings
fica um pouco posta em causa.
5 Análise de outros aspectos
5.1 Diferenças entre a classificação interna e a do exame
Um ponto que tem levantado alguma polémica é a diferença entre as classificações nos
exames (CE) e as classificações internas finais (CIF). A discussão é mais complexa do que
parece à primeira vista, mas podemos começar por uma constatação, em face dos
resultados mostrados na Figura 10: toda a zona à esquerda dos 10 valores contribui para
o défice, uma vez que os alunos chegaram aqui com notas positivas.
A partir daí, não há meio de saber se o sistema de ensino propicia, em média,
classificações internas superiores às que os alunos deveriam ter, ou se são os exames
nacionais que são demasiado difíceis ou são corrigidos de forma demasiado severa. Para
além disso, há a questão de saber se existem, ou não, escolas com desvios
sistematicamente superiores aos médios, configurando situações que deveriam ser
investigadas (no sentido policial do termo). No entanto, mesmo descontando esses
eventuais casos anómalos, este aspecto deveria ser monitorizado, pois a variância dos
desvios é bastante grande, provocando distorções injustas nas classificações de acesso ao
ensino superior.
A Figura 11 mostra a experiência acumulada no período 2001-05, separada por
disciplinas para evitar o mascaramento devido à diferença entre médias. Verifica-se que,
durante este período, o défice médio a Matemática ultrapassa os 4 valores, enquanto que,
no outro extremo, Português A e B têm um défice médio menos notório, inferior a 2
valores. A separação de escolas públicas e privadas permite ver também que o défice
médio tem sido maior nestas últimas, sobretudo nas disciplinas de Física e Português A.
No entanto, se se atentar na Figura 12, vê-se que esta tendência se tem desvanecido, ou
seja:
a) Inicialmente os alunos das escolas privadas tiveram, em média, classificações
internas superiores às dos seus colegas equivalentes (ou seja, com a mesma
classificação no exame) do ensino público em todas as disciplinas (em 2001, mais
de 1 valor em média a Física, quase 0,9 valores a Português A), ficando assim
numa posição mais vantajosa para o acesso ao Ensino Superior;
b) A evolução até 2005 foi no sentido da convergência entre os dois subsistemas, em
parte porque os défices de cada um dos subsistemas em geral diminuíram (embora
não em todas as disciplinas), mas sobretudo porque no subsistema privado houve
um decréscimo mais acentuado da generalidade dos défices.
5.2 Influência do número de alunos levados a exame
Na discussão sobre as limitações dos rankings é muitas vezes mencionada a eventual
influência do número de alunos no desempenho global das escolas, normalmente com a
ideia de que escolas com muitos alunos levados a exame ficariam prejudicadas. Analisada
essa questão, a Figura 13 (conclusões semelhantes em 2001-04) mostra que não há
evidência desse tipo de influência: se por um lado os melhores resultados aparecem
sobretudo em escolas com poucas provas, o mesmo se passa com os piores resultados. A
principal conclusão é então a de uma maior dispersão de resultados nas escolas com
poucas provas, assunto cujo aprofundamento está para além dos objectivos deste artigo.
5.3 Comparação dos subsistemas público e privado
Embora constituindo um aspecto algo marginal do ranking, até porque ao aglomerar
subsistemas se torna mais notória a ausência, seja de variáveis explicativas de índole
social, seja do grau de retenção (alunos não propostos a exame), a comparação entre
ensino público e privado tem sido muito salientada nos meios de comunicação, muitas
vezes como suporte para as propostas do cheque-ensino, outras por mera satisfação
ideológica, e sempre como veículo de publicidade para as escolas privadas mais bem
classificadas, em relação às outras escolas privadas.
Trata-se de matéria que merece bastante reflexão, e onde muitas comparações se revelam
injustas, mas, seguindo a perspectiva deste trabalho, vamos sobretudo analisar os dados
disponíveis e tirar as conclusões que deles directamente emanam. Assim, podemos
começar por verificar, na Figura 14, o seguinte:
a) As médias por disciplina em cada subsistema têm sido sempre bastante
semelhantes;
b) Ao longo dos anos que levam os rankings, a média das classificações no ensino
privado tem vindo a melhorar de forma sustentada, tendo por referência a média
dos resultados da escolas públicas.
A evolução mencionada atrás é talvez a conclusão mais interessante, por ser
independente de considerações sociais ou outras variáveis que distinguem,
presumivelmente, os dois subsistemas. Na verdade, parece que as escolas privadas se têm
adaptado melhor do que as públicas a um ambiente onde os rankings são bastante
valorizados. Seria importante, neste ponto, saber se isso foi conseguido à custa de um
aumento do grau de retenção ou se se trata efectivamente de um maior ajuste à obtenção
de boas classificações nos exames. Haveria também que discutir, evidentemente, se é isso
que realmente se pretende das escolas, mas sabe-se que a publicação de rankings induz
esse comportamento.
Um ponto de análise menos vulgar é aquele que se apresenta na Figura 15,
correspondendo ao seguinte exercício: começando com as escolas mais bem classificadas
no ranking, foram-se acumulando, de forma separada para os subsistemas público e
privado, o número de provas efectuadas, como se todas tivessem tido a média da escola.
Isto corresponde a uma das utilizações especulativas do ranking: a média representa a
escola, portanto é como se todos os seus exames tivessem esse valor, ou, de outra forma,
se os alunos pudessem escolher, inscrever-se-iam nas escolas de maior média, até às
respectivas capacidades.
As curvas (a da direita é uma ampliação) são bem elucidativas da situação. As escolas
privadas do topo do ranking (até à posição 14 do ranking global) e as escolas públicas (até
à posição 18 do ranking global) acolheriam 1630 provas em cada subsistema, o que
corresponde a cerca de 800 alunos. É este o ponto de cruzamento das duas curvas, e
estamos a falar de escolas no mínimo 27% acima da média nacional.
A partir deste ponto, as escolas públicas disponíveis estão sistematicamente mais bem
colocadas no ranking global. A prova nº 5000 no ensino público corresponde a uma escola
que está na posição 31, enquanto que a prova nº 5000 no ensino privado corresponde a
uma escola que está na posição 48. Se passarmos à prova nº 10000, as posições são 54
no ensino público e 189 no ensino privado.
Esta constatação, que tem a ver com a capacidade muito diferente dos dois subsistemas,
não só em número de escolas, mas também na dimensão média das escolas, mostra como
é irrealista qualquer comparação dos dois subsistemas em termos da satisfação das
necessidades de formação ao nível secundário, mesmo que não se inclua na discussão o
grau de retenção, o enquadramento social das escolas ou os custos de formação por
aluno.
6 Conclusões
O trabalho de análise efectuado pelos autores, do qual este artigo relata as principais
conclusões, permitiu assentar algumas ideias relativamente à construção e utilização de
rankings baseados unicamente nas classificações dos alunos nos exames.
Como preâmbulo técnico, mostrou-se que há uma inconsistência inerente à forma como
os rankings são construídos (médias pesadas), que é agravada pela utilização dos valores
brutos das classificações, devido à grande variação, inter e intra disciplinas, do grau de
dificuldade dos exames. As situações anómalas podem atingir o extremo de uma escola,
com média em todas as disciplinas em que se apresentou mais baixa do que uma outra,
acabar por ficar à frente desta no ranking. Para mitigar esta situação, propôs-se o novo
indicador MCS, que harmoniza os resultados recorrendo às médias nacionais por
disciplina em cada ano. No entanto, a inconsistência permanece.
Em relação ao ponto chave da utilidade deste tipo de ranking para auxílio à tomada de
decisões, constatou-se uma excessiva variabilidade da posição das escolas ao longo dos
anos (quase 100 posições em média, por ano), que pode atingir extremos de variação de
450 posições por ano. Além disso, em muitos casos, o intervalo de confiança da média é
bastante alargado, verificando-se importantes sobreposições, o que fragiliza a própria
ordenação com base nas médias. Os rankings têm, assim, um fraco valor preditivo e não
parecem constituir um indicador fiável da qualidade das escolas.
Em relação a outros aspectos, não há evidência de que as escolas que propõem mais
alunos a exame (em termos absolutos) tenham melhores ou piores resultados, e
confirmou-se a existência de um défice classificativo (CIF-CE) médio importante, que
ultrapassa os 4 valores em Matemática, é historicamente maior nas escolas privadas do
que nas públicas mas mostra tendência a equilibrar-se entre os dois subsistemas.
Na comparação entre os subsistemas público e privado, com base unicamente nos dados
disponíveis, a principal conclusão é a da grande diferença de capacidade, mesmo nas
posições mais elevadas do ranking, que faz com que, preenchendo escolas pelo ranking, o
aluno nº 1000 colocado no ensino público estaria com certeza numa escola com melhor
posição no ranking do que o aluno nº 1000 colocado no ensino privado. É também de
mencionar, de qualquer forma, uma tendência, em todas as disciplinas, para a média
geral dos exames de alunos de escolas privadas subir em relação à das escolas públicas,
sendo superior em todos os casos no ano de 2005.
A conclusão geral do exercício aponta para a necessidade de não sobrevalorizar os
rankings baseados em exames, sem deixar de os considerar uma peça de informação útil,
para as escolas se situarem e para se compararem coisas comparáveis (p.ex. as escolas
privadas de Lisboa, excluindo as que estão ligadas a instituições de solidariedade social,
as escolas públicas urbanas nas grandes cidades, etc). Por outro lado, sendo evidente o
interesse do público por este tipo de ordenações, valerá a pena investir na identificação
dos factores de caracterização da qualidade que poderão ser utilizados para
complementar a informação dos exames, com o cuidado de privilegiar aspectos
compreensíveis, objectivos e acessíveis. Depois, há que garantir que eles estão mesmo
acessíveis, e trabalhar!
Nota
As opiniões dos autores são aqui expressas a título individual, não envolvendo as
instituições educativas a que estão ligados, nenhuma das quais apresenta alunos a
exames do 12º ano.