Ciencia y salud

Por José Antonio Lozano Teruel

Cómo separar en la ciencia el trigo y la cizaña

Los evangelistas Marcos (4.13-20) y Lucas (8.11-15) cuentan en la parábola del trigo y la cizaña que “…El reino de los cielos es semejante a un hombre que sembró buena semilla en su campo; pero mientras dormían los hombres, vino su enemigo y sembró cizaña entre el trigo, y se fue”, indicando Jesús lo que había que hacer para separar la cizaña del trigo: “Dejad crecer juntamente lo uno y lo otro hasta la siega; y al tiempo de la siega yo diré a los segadores: Recoged primero la cizaña, y atadla en manojos para quemarla; pero recoged el trigo en mi granero”

Cómo separar en la ciencia el trigo y la cizaña
::Alex
Los evangelistas Marcos (4.13-20) y Lucas (8.11-15) cuentan en la parábola del trigo y la cizaña que “…El reino de los cielos es semejante a un hombre que sembró buena semilla en su campo; pero mientras dormían los hombres, vino su enemigo y sembró cizaña entre el trigo, y se fue”, indicando Jesús lo que había que hacer para separar la cizaña del trigo: “Dejad crecer juntamente lo uno y lo otro hasta la siega; y al tiempo de la siega yo diré a los segadores: Recoged primero la cizaña, y atadla en manojos para quemarla; pero recoged el trigo en mi granero”
 
FRAUDES
La picaresca es tan antigua como la humanidad y aunque todos desearíamos que siempre se cumpliese el proverbio de que “el pícaro y el villano, la pagan tarde o temprano”, en Ciencia también crece la cizaña junto al trigo.
 
Hace pocos meses la acreditada revista PNAS analizaba en una publicación las causas reales de que unas 2047 investigaciones publicadas hasta mayo de 2012 en revistas científicas recogidas en la base en datos PubMed hubiesen sido anuladas con posterioridad. Muy significativo era que "solo el 21,3 por ciento de las retracciones fueron atribuibles a errores", mientras el 67,4 % se debían malas conductas, que incluyen fraude o sospecha de fraude (43,4%), publicaciones duplicadas (14,2%) y plagios (9,8%), junto a un 12% de causas indeterminadas. Los autores opinaban que estas altas cifras se deben a que la cultura científica actual premia de manera excesiva a los autores en función del número de trabajos publicados en revistas de renombre. Ello conduce a que algunos científicos fuercen su investigación, retuerzan sus datos o les pongan fin antes de lo debido. A ello hay que añadir la proliferación de editoriales, revistas y congresos científicos cuya única y exclusiva finalidad es sacar partido económico de las necesidades de publicación que tienen los científicos. Muchas de ellas se ubican en países del sudeste asiático, ponen nombres rimbombantes a sus revistas y aparentemente tienen revisores científicos (que si obran de buena fe y ponen pegas a un artículo son sistemáticamente ignorados). Lo que realmente buscan es el dinero que abonan los autores por cada publicación, con independencia de su calidad. Existen diversos blogs en los que se indican casos concretos y editoriales implicados en estas prácticas fraudulentas (http://copy-shake-paste.blogspot.com.es/)
 
INFORMACIÓN
Hasta mediados del siglo XVII publicar una investigación científica era controvertido e incluso ridiculizado. Entre las primeras publicaciones periódicas científicas conocidas figuran el Journal des Sçavans (París, 5 de enero de 1665), las Philosophical Transactions of the Royal Society (Royal Society, Inglaterra) y las Acta Eruditorum (Leipzig, Otto Mencke), ambas de finales del siglo XVII. 
 
Actualmente todo es distinto. Hay que publicar y otro grave problema del investigador científico es la necesidad que tiene de estar adecuadamente informado de lo que se publica en el campo de su actividad. Tema difícil de solucionar. Según diversas fuentes, como el directorio de revistas ULRICH, se publican en el mundo unas 50.000 revistas académicas de las que unas 25.000 son revistas científicas que recogen cerca de tres millones de artículos anualmente. Un 25% de ellas son electrónicas. Estableciendo un valor medio por revista de 1.500 € al año, la actividad supera los veinte mil millones de euros por año y se le calculan márgenes de beneficio cercanos al 30%. Elsevier, el mayor emporio editorial, tiene unas 2000 revistas, con beneficios de hasta 600 millones de euros. No es de extrañar que existan muchas grandes editoriales de más de 200 revistas, que publican más de 6.000 de las principales revistas científicas. Por ello, hasta las instituciones ricas tienen problemas para las suscripciones. La Universidad de California, por ejemplo, paga por ello 30 millones de euros anuales. 
 
Un investigador no dispone de tiempo para ni siquiera leer sucintamente todo lo que se publica en su campo específico de investigación. ¿Qué hacer para separar el trigo de la cizaña o, simplemente, de la paja?  Hay que seleccionar muchísimo y escoger lo que verdaderamente es relevante. ¿Cómo hacerlo? Existen diferentes indicadores de la calidad de una revista/artículo/autor. El más difundido es el factor de impacto, propuesto por Eugene Garfield, el creador del ISI, Institute for Scientific Information, que se publica anualmente en el JCR (Journal Citation Report), tras agrupar unas diez mil revistas en sus correspondientes áreas específicas. El factor de impacto se calcula cada año y es el resultado de un cociente en el que el numerador son las citas recibidas ese año por todos los documentos publicados en la revista en los dos años anteriores, siendo el denominador todos los ítems citables publicados durante esos dos años anteriores. 
 
Una curiosidad. ¿Qué sucede con las revistas españolas, incluso las publicadas en inglés? Sólo algo más de un centenar (un 1% de las incluidas en el repertorio) aparece en el JCR. De ellas, únicamente 3 se sitúan en el primer cuartil (25% de las revistas con factor de impacto más alto). Las cinco revistas publicadas en España, con mayor factor de impacto son Aids Rev (3,5), Int J Dev Biol (2,8), Rev Esp Cardiol (2,5), Emergencias (2,5) y Hist Histopathol (2,5; Publicada en Murcia).
 
ALTERNATIVAS
El factor de impacto del JCR tiene serios desequilibrios que cuestionan su validez cuando se utiliza en la evaluación rígida de la actividad científica, tal como dejó claro hace pocos meses la Declaración de San Francisco sobre Evaluación de la Investigación (DORA), impulsada por la Sociedad Americana de Biología Celular (BCSV), junto con un grupo de directores y editores de revistas científicas Es necesario mejorar la forma en que se evalúan los resultados de la investigación científica
 
Entretanto, se han propuesto diversas alternativas al factor de impacto del JCR: Factor de impacto ajustado, Factor de impacto con vida media, Eurofactor, Factor de impacto ponderado por especialidad, JIN (Indice Internacional de revistas), Factor de prestigio, Factor de Hirsch, etc.
 
En cuanto a éste último, factor de Hirsch o factor h (propuesto por Jorge E. Hirsch en 2005) es el número de artículos que tiene un autor con tantas o más citas que su factor h. Por ejemplo, un factor h de 20 significa que ese científico tiene 20 artículos que han sido citados 20 o más veces. Se considera un éxito en la carrera científica de un investigador obtener un factor h de 20 después de 20 años de trabajo, mientras que un h a partir de 35 sólo se daría en los mejores científicos. Evalúa, pues, la calidad global del científico más que una determinada publicación suya.
 
Otra alternativa que se está abriendo paso es la denominada Faculty of 1000. Iniciada en el año 2002 para identificar y evaluar los artículos más importantes de publicaciones de la investigación biomédica a través de un amplio y prestigioso panel de expertos en diferentes áreas denominado Faculty of 1000, en la actualidad cuenta con 5000 expertos científicos y otros 5000 asociados. Asimismo ofrece un amplio catálogo de servicios complementarios.
 
Más información:
http://am.ascb.org/dora/files/SFDeclarationFINAL.pdf
La Ciencia
» Otros Artículos
La Ciencia
» Otras Noticias
21-12-2013

Futuro