Este é o título de editoral de Jan Reedijk no último número da revista Angewandte Chemie International Edition, uma das mais prestigiosas revistas de química. Reedijk inicialmente discute como a “função” das citações mudou com o tempo. De fato, até o aparecimento dos bancos de dados eletrônicos de revistas científicas, a citação de determinadas referências bibliográficas nada mais servia do que fundamentar um trabalho em elaboração, fosse artigo monografia, dissertação ou tese, em sua proposta, metodologia, análise de resultados e até mesmo nas conclusões ou nas perspectivas futuras. Quem fez pesquisa bibliográfica antes do surgimento das bases de dados eletrônicas de revistas científicas sabe bem disso. Na área de química, o Chemical Abstracts era o banco de dados mais utilizado para se pesquisar referências bibliográficas sobre um determinado assunto ou autor. Quantas horas, dias mesmo, foram investidas no Chemical Abstracts por pesquisadores que buscavam referências bibliográficas de química, antes do surgimento da internet. Mesmo antes do surgimento das bases de dados eletrônicas, o Current Contents também foi muito utilizado com o mesmo objetivo, por ser mais prático e mais barato.
Com o surgimento da internet, em pouco tempo (início dos anos 1990) apareceram os bancos de dados eletrônicos de revistas científicas: o Web of Science (atualmente Web of Knowledge, do Institute for Scientific Information, ISI), depois o Scopus e mais recentemente o Google Scholar (que é bastante incompleto). Ferramentas de pesquisa bibliográfica simplesmente sensacionais. O tempo que agora se gasta procurando referências bibliográficas é mínimo (mas tem gente que ainda acha muito). Uma das conseqüências visíveis da utilidade dos bancos de dados eletrônicos é o número de revisões bibliográficas (reviews) que passaram a ser publicados: simplesmente enorme. Não só o número de artigos de reviews, mas também de revistas que publicam reviews, aumentou muito. E, consequentemente, o número de artigos que citam reviews, e de pesquisadores que lêem principalmente reviews, e poucos artigos da assim chamada “literatura primária”(primary literature, em inglês) ou artigos originais.
Mas, neste âmbito, aparentemente este é um problema menor. O que parece ser um problema mais grave, segundo Jan Reedijk, é o mau uso das citações de revistas científicas. Como editor da Angewandte Chemie International Edition, sabe do que discute. E menciona claramente a não-citação de artigos que deveriam ser citados em manuscritos submetidos para publicação, e eventualmente a citação de outros não tão relevantes, levando muitas vezes os avaliadores dos artigos (referees, ou reviewers) a solicitar ao(s) autor(es) do manuscrito a incluir citações de artigos específicos sobre o assunto abordado. Também menciona o fato de se observar mais citações de trabalhos realizados em um continente geográfico (Europa ou América) em particular.
Mas a grande sacada na utilização dos bancos de dados de revistas científicas foi de Eugene Garfield, fundador do ISI. Em 1972 (bem antes do surgimento da internet) Garfield inventou o fator de impacto (FI), um índice que mede o grau de relevância de uma determinada revista científica. O FI de uma revista científica é definido da seguinte maneira: número de citações nos anos X-1 e X-2 de uma determinada revista científica em um ano X, dividido pelo número de “artigos citáveis” daquela revista nos anos X-1 e X-2. Com o surgimento dos bancos de dados eletrônicos de revistas científicas, o FI passou a ser cada vez mais utilizado para colocar as revistas científicas em evidência. A partir de então, muitos outros “índices” passaram a ser utilizados: pesquisadores/cientistas mais citados, artigos em evidência (chamados de “hot papers”), artigos mais baixados (“most downloaded papers”), e finalmente o índice h (veja aqui do que se trata).
As conseqüências da adoção destes índices bibliométricos, ou cientométricos, foram inúmeras: na manutenção de assinaturas de revistas científicas (para que assinar revistas com baixo fator de impacto? – biólogos da área de taxonomia, uma das ciências mais antigas que existem, muito justamente questionam este argumento), na seleção de revistas para as quais submeter artigos científicos, na visibilidade das revistas científicas, na “classificação” de cientistas pesquisadores (quem publicam em revistas com maior fator de impacto, ou que têm maior número de citações, ou têm maior índice h), classificação de universidades e instituições de pesquisa, no financiamento de projetos científicos, no aumento de salários.
Consequências bem menos nobres não tardariam a surgir: a manipulação de citações de artigos para inflar o fator de impacto de revistas científicas, revistas científicas que nunca, ou raramente, publicaram reviews passaram a publicar, pesquisadores que criaram formas de aumentar artificialmente o número de citações de seus artigos, e consequentemente seus respectivos índices h. Casos de revistas científicas que aumentam artificialmente seu fator de impacto levaram o Journal of Citation Reports (do ISI) a penalizar revistas que adotam tais práticas. Mesmo assim, é difícil se monitorar todas revistas que aparentemente têm seus fatores de impacto “inflados”. Na área de química de produtos naturais, por exemplo, as duas melhores e mais tradicionais revistas científicas, Journal of Natural Products (com 75 anos de existência) e Phytochemistry (com 73 anos de existência), têm fator de impacto abaixo de 3,2, menor do que poucas outras revistas da mesma área, com menos de 10 anos de existência. Algo que é muito surpreendente. Mas o que não é surpreendente é que os melhores pesquisadores da área de química de produtos naturais simplesmente não publicam nestas revistas mais “jovens”. Porque será?
Um critério editorial que Jan Reedijk menciona é a de editores que selecionam artigos melhores, mais quentes e de assuntos “mais na moda” para publicarem nas revistas que editam. Esta é uma prática comum na Nature e na Science, por exemplo. Nada de errado nisso, especialmente se o número de artigos submetidos para tais revistas for muito alto. Naturalmente, a seleção dos trabalhos a serem publicados será muito mais criteriosa. O que parece ser menos correto, segundo Jan Reedijk, é a de colocar artigos “quentes” na espera para publicação em um ano posterior em que o artigo foi submetido, objetivando aumentar o fator de impacto da revista (já que o cálculo do FI é feito com base nas citações dos artigos publicados nos dois anos anteriores). Outra prática condenável, também segundo Reedijk, é a de publicar artigos em que são citados outros, da mesma revista, publicados somente nos dois anos anteriores. Mais ainda, Jan Reedijk assinala que muitos editoriais de revistas colocam determinados artigos em evidência, de maneira a potencialmente aumentar o número de citações daqueles artigos. Pior são editores que exigem citações de artigos da própria revista que editam nos manuscritos submetidos para publicação naquela revista.
Jan Reedijk assinala que uma mudança de hábitos ainda deve levar algum tempo, mas que a análise por pares (peer–review) deve ser feita com o mais alto nível de ética para se evitar ao máximo distorções e erros, e sem necessariamente levar em conta tais índices, mas muito mais a qualidade e a relevância de manuscritos submetidos, ou artigos a serem citados nestes. Neste sentido, ressalta a necessidade de uma boa educação quando da formação de estudantes pesquisadores. Também manifesta sua preocupação com o fato que tais índices devem ser utilizados com muito cuidado e discernimento, uma vez que podem ser facilmente manipulados.
O que Jan Reedijk esqueceu (?) de mencionar é que a publicação de artigos científicos é, atualmente, um mercado multimilionário. Editoras comerciais de revistas científicas, especialmente as mais tradicionais, conseguem ganhar muito dinheiro com estas publicações. Logo, a manipulação destes índices tem conseqüências não somente para a revista, para o pesquisador, ou à instituição na qual este está vinculado, mas também para as editoras que publicam tais revistas. Neste sentido, é interessante se observar que, na área de química, as revistas publicadas por duas “editoras não-comerciais”, a Royal Society of Chemistry e a American Chemical Society, são as que, na média, apresentam maior fator de impacto (veja aqui). Porque será?
Levando em conta todas as conseqüências da utilização destes índices, é possível que o emprego destes ainda leve bastante tempo para ser utilizado de forma realmente criteriosa. Nada, porém, que seja não possa ser transformado por um processo de educação e formação de pesquisadores criteriosos que saibam que o importante é fazer pesquisa da melhor qualidade possível, utilizando critérios eticamente aceitos pela comunidade científica.1 Seria possível de outra forma?
Reedijk, J. (2011). Citations and Ethics Angewandte Chemie International Edition DOI: 10.1002/anie.201107554
Nota
1. Várias revistas disponibilizam normas e procedimentos para a realização de pesquisa, elaboração de manuscritos e avaliação dos mesmos. No caso de química, a American Chemical Society coloca à disposição de autores o Author & Reviewer Resource Center (veja aqui), o qual inclui um ethical guidelines (que pode ser baixado na forma de PDF, aqui). Veja-se também o Manual de Boas Práticas Científicas da FAPESP, recentemente disponibilizado on-line (aqui).
Agradecimento
A meu colega, Prof. Hamilton Varela, por ter me indicado a leitura do editorial de Jan Reedijk.
Categorias:ciência, publicações científicas, química
Caro Roberto,
Sobre a hiperseleção da Nature e Science (forçadas a jogar fora muita coisa boa, que poderia ter grande impacto), acho que vale mencionar a abordagem da PLoS ONE: eles se propõem a publicar o que seja de alta qualidade. Ponto.
Eu nunca tinha pensado nisso, mas ao ver este vídeo que mostra que publicaram em 2010 ~1,5% de “toda a literatura” (indo para 3% em 2011), me ocorreu que eles se propõem a ser a Nature ou a Science do novo modelo de negócio científico-editorial (open access) que veio com a internet.
Só é possível embarcar nessa empreitada sendo uma rede e não uma iniciativa editorial de grupo pequeno. Não estou propondo que estão certos ou que vão superar Nature/Science, mas acho que é coisa a observar.
http://youtu.be/D0Iguwaj6pQ Peter Binfield at the Stanford Summit @ Medicine 2.0 17:38
Sempre bom acompanhar as excelentes divulgações e discussões puxadas pelo QuiProNa
Excelente 2012!
Vinícius
Caro Vinícius,
Muito obrigado pelo seu comentário extremamente pertinente, as informações fornecidas e o link para o vídeo.
Desejo um ótimo 2012 para você.
abraço,
Roberto
Mais um excelente post do Robertão!! Feliz 2012, amigo!!
Caro Marcelo,
Valeu! Muito obrigado, e um ótimo 2012 para você também.
abraço,
Roberto
Oi, Roberto!
Uma postagem com um assunto que sempre me interessa! Obrigada!
Sobre as considerações do editor da prestigiosa Angewandte Chemie, apenas lembro que são questões que estão se arrastando há muito no universo das publicações científicas, relativas à querela das citações, mas indo além, como bem apontado por vc (e “esquecido” por Jan Reedijk…), envolvendo um mercado onde rola muito dinheiro – principalmente oriundos das bibliotecas acadêmicas de Instituições de Ensino Superior (ou de órgãos oficiais de Ensino Superior – caso da Capes e seu Portal de Periódicos), obrigadas a comprar os “pacotes fechados” das bases de dados impostas pelas editoras comerciais, ao custo de fábulas.
E irônico que o título seja “Ética e Citações”, e faça referência à “grande sacada” de Eugene Garfield, ele que lançava mão, sem nenhum pudor, da auto-citação, uma das formas tão criticadas de fazer aumentar o fator de impacto. Ah, aproveito para um pequeno reparo: no 2º §, sobre o Web of Knowledge, na verdade essa base de dados atualmente é da editora Thomson-Reuters, que adquiriu o ISI (Institute for Scientific Information). Coincidentemente, o esperto Garfield desfez-se do seu mais importante empreendimento justamente quando começam a ganhar relevância as publicações em Open Access, como a PLoS citada pelo Vinícius Kern acima…
E é justamente a PLoS que está liderando uma frente por métricas alternativas – o Article Level Metrics.
Penso que estamos numa transição, no que concerne à comunicação científica. E numa transição, o obsoleto convive com o novo, com a chegada do contemporâneo, com os sinais do futuro, e infelizmente, muitas vezes atrasando o avanço. Nesse universo de publicações científicas em transição, processos e práticas tais como o Fator de Impacto, embora ainda muito usados, são como a luz de estrelas que os astrônomos dizem que há muito se apagou. – persistem, mas mostram-se modelos ultrapassados.
Sobre as aplicações do Article-Level Metrics, veja um exemplo na sua área:
Costello MJ et al. A Census of Marine Biodiversity Knowledge, Resources, and Future Challenges. PLoS ONE 5(8): e12110. doi:10.1371/journal.pone.0012110. [clique na aba “Metrics”]
E la nave va…. agora já em 2012! Feliz ano novo para vc, Roberto! 🙂