JC e-mail 3543, de 30 de Junho de 2008.
2. Avaliação objetiva (?) da pesquisa, artigo de Marcelo Viana
URL: http://www.jornaldaciencia.org.br/Detalhe.jsp?id=56995
"É bem sabido que os casos excepcionais não se acomodam bem a
regras "objetivas", desenhadas para um tratamento de massa. Einstein, caso
trabalhasse no Brasil nos dias de hoje, ganharia bolsa de produtividade do
CNPq?"
Marcelo Viana é pesquisador titular do Instituto Nacional de
Matemática Pura e Aplicada (Impa), membro do Comitê Executivo da International
Mathematical Union (IMU) e coordenador de Área da Matemática, Probabilidade e
Estatística na Capes. Artigo escrito para o "Jornal da Ciência":
A avaliação da qualidade da produção científica é sabidamente um
problema difícil e complexo. Em todo o mundo, e no Brasil em particular, o
acentuado crescimento dos sistemas científicos, tanto em número de
pesquisadores e centros de pesquisa como no volume da produção e diversidade
dos periódicos, vem exercendo forte pressão para que os mecanismos tradicionais
de avaliação se adaptem a uma tarefa cuja escala não tem precedente.
Outra crítica freqüente é à natureza necessariamente subjetiva da
avaliação pelos pares: cresce a demanda por critérios "transparentes e
objetivos". Na prática, isto tem conduzido ao uso crescente de parâmetros
bibliométricos, sobretudo estatísticas relativas a citações, para priorizar
indivíduos, programas, publicações ou periódicos. Cada vez mais, no lugar de
servirem como complemento a outras informações, incluindo as opiniões dos
especialistas, as estatísticas de citações acabam substituindo uma análise
aprofundada do mérito.
Esta tendência global se reflete no nosso país, naturalmente,
embora sua penetração ainda seja muito variável segundo a área científica.
Curiosamente, tais variações parecem ter pouca relação com o grau de
matematização da área enquanto disciplina científica. Em particular, os comitês
de Matemática e Estatística no CNPq e na Capes estão, tradicionalmente, entre
os mais prudentes quanto ao uso de critérios numéricos nos seus julgamentos.
Dados estatísticos de citações, tais como o índice de impacto ou o
fator h, para citar apenas os mais populares, têm o inegável mérito da
simplicidade: cada um oferece uma priorização de pesquisadores, revistas ou
programas, numa ordem completa e fácil de calcular. Mas eles também levantam
algumas perguntas importantes.
Não discutiremos aqui a questão se um sistema de avaliação
determinado por citações pode incentivar, ou mesmo permitir, a originalidade e
a inovação. É bem sabido que os casos excepcionais não se acomodam bem a regras
"objetivas", desenhadas para um tratamento de massa. Einstein, caso trabalhasse
no Brasil nos dias de hoje, ganharia bolsa de produtividade do CNPq?
O foco deste artigo está em outra questão de igual importância: até
que ponto as estatísticas de citações realmente medem relevância e qualidade? A
pesquisa científica consome um volume apreciável de recursos em todo o mundo e
é, evidentemente, necessário avaliar da forma mais precisa possível a eficácia
na utilização desses recursos.
Dada a enorme popularidade de parâmetros estatísticos tais como o
índice de impacto ou o fator h, seria de se esperar que seu uso estivesse
amparado em estudos de validação. Surpreendentemente, não é assim: o uso
corrente de critérios "objetivos" carece da fundamentação adequada e repousa,
mais do que seria razoável, em pressupostos implícitos.
Esta é uma das conclusões do relatório Citation Statistics
recentemente promovido por três importantes organizações internacionais - a
International Mathematical Union (IMU), o International Council of Industrial
and Applied Mathematics (Iciam) e o Institute for Mathematical Statistics
(IMS), e realizado por três destacados especialistas da área de Matemática e
Estatística, com ampla experiência no âmbito da publicação científica: os
professores Robert Adler (Israel), John Ewing (USA) e Peter Taylor (Austrália).
Esse documento pode ser encontrado no site
http://www.mathunion.org/Publications/Report/CitationStatistics. A nosso ver,
ele constitui leitura obrigatória tanto para os responsáveis nos sistemas de
avaliação do fomento, como para todo o usuário desses sistemas.
A partir de ampla biografia existente sobre o tema, e da
experiência acumulada de diversos cientistas, Citation Statistics critica o
modo simplista e mal-informado como critérios baseados em citações são
utilizados em todo o mundo. Embora esteja escrito do ponto de vista de
matemáticos e estatísticos, as mensagens principais do relatório valem para a
Ciência como um todo.
Algumas conclusões principais merecem destaque:
- Dados estatísticos não são mais precisos, se forem usados
indevidamente. De fato, estatísticas podem ser enganadoras, se forem mal-usadas
ou mal-compreendidas. Grande parte do uso atual de critérios estatísticos
apóia-se na intuição para a sua interpretação e validação.
- Embora números pareçam objetivos, essa "objetividade" é ilusória.
O significado de uma citação é mal compreendido e pode ser ainda mais subjetivo
que a avaliação pelos pares. Citações podem ter pouco que ver com "impacto".
- Ainda que seja realmente simples usar um único número para
avaliar qualidade, isso pode conduzir a uma compreensão superficial de algo tão
complexo como é a pesquisa. Números não são inerentemente superiores a
julgamentos sensatos.
Por estas razões, enquanto reconhece que "a avaliação precisa ser
prática e, por essa razão, estatísticas de citações certamente farão parte do
processo", Citation Statistics também alerta contra o uso excessivo de
parâmetros tais como o índice de impacto ou o fator h, "que dão apenas uma
visão limitada e incompleta do que é qualidade", insistindo que "a pesquisa é
demasiado importante para que o seu valor possa ser medido por meio de uma
ferramenta única, e grosseira".
Após uma rápida introdução à problemática da avaliação, o relatório
de Adler, Ewing e Taylor discute o uso, apropriado ou não, de estatísticas de
citação na avaliação de revistas, artigos e pesquisadores. Entre as diversas
críticas concretas ao índice de impacto, destaca-se a afirmação de que o seu
significado não é realmente compreendido por quem toma decisões com base nele.
Um exemplo ilustra bem este ponto e merece ser citado aqui.
As revistas Proceedings of the AMS e Transactions of the AMS, ambas
publicadas pela American Mathematical Society (AMS), têm perfis distintos:
enquanto os Proceedings se restringem a artigos rápidos, com até dez páginas,
as Transactions geralmente publicam artigos bem mais longos. O índice de
impacto das Transactions é o dobro do índice de impacto dos Proceedings. Para a
maioria dos sistemas de avaliação baseados em estatísticas de citações isto
significa que artigos nas Transactions são "melhores" do que artigos nos
Proceedings, no sentido de terem mais citações. Mas será que essa conclusão é
justificada?
Quando consideramos artigos ao acaso nessas duas revistas, qual é a
probabilidade de que o artigo nas Transactions seja realmente "melhor" do que o
artigo nos Proceedings? A resposta pode ser calculada facilmente a partir dos
histogramas de citações das duas revistas: essa probabilidade é de apenas 38%.
Quer dizer que, em quase dois terços dos casos, um artigo na revista com menor
índice de impacto é "tão bom ou melhor" do que um artigo na revista com o dobro
de índice de impacto! Deve ser enfatizado que não há nada de especial na
escolha destas duas revistas.
O relatório de Adler, Ewing e Taylor prossegue com uma discussão do
real significado de citações, desmontando a crença, amplamente disseminada, de
que citações necessariamente se correlacionam com impacto e qualidade
científica.
A par de outros fatores que distorcem a própria contagem das
citações, o relatório chama a atenção para "a nossa ignorância das razões por
que os autores citam algumas publicações em particular e não outras". De fato,
está muito longe de ser claro quando uma citação significa reconhecimento de
uma dívida intelectual a outra publicação e há razões para crer que talvez esse
nem seja o caso na maioria das vezes.
Na última seção do relatório, Adler, Ewing e Taylor discutem o uso
adequado de estatísticas na avaliação científica e como elas podem e devem ser
temperadas com outras informações relevantes de natureza acadêmica. Ao fazê-lo,
voltam a enfatizar a mensagem central de que "a pesquisa tem objetivos
múltiplos, de curto e longo prazos e, portanto, é razoável que seja julgada
usando critérios variados.
Os matemáticos sabem que há muitas coisas, tanto reais como
abstratas, que simplesmente não podem ser ordenadas, no sentido de duas
quaisquer poderem ser comparadas. Freqüentemente a comparação exige uma análise
mais complicada, que nem sempre determina qual das duas é a 'melhor'."
Em resumo, ao esforço para tornar a avaliação da pesquisa "simples
e objetiva" pode e deve ser aplicada a máxima de Albert Einstein: "Tudo deveria
ser tornado tão simples quanto possível. Mas não mais simples do que isso".
*********************************
Prof. Murilo Bastos da Cunha, Ph. D.
Universidade de Brasília
Dept. Ciência da Informação e Documentação
Brasília, DF 70910-900 Brasil
E-mail: [EMAIL PROTECTED]
_______________________________________________
Bib_virtual mailing list
[email protected]
https://listas.ibict.br/mailman/listinfo/bib_virtual