Fecha
Autor
Rosa Sancho (Instituto de Estudios Documentales sobre Ciencia y Tecnología -IEDCYT-. CSIC)

Publicación duplicada

La actividad investigadora comprende el trabajo creativo, experimental o teórico, llevado a cabo según el método científico, es decir, de forma sistemática, racional rigurosa y crítica, que conduce a la obtención de nuevo conocimiento y a su uso para crear nuevas aplicaciones. Esta actividad solo estará completa si se hacen públicos los resultados obtenidos, la interpretación de los mismos y el procedimiento metodológico utilizado para conseguirlos. Las revistas periódicas se utilizan normalmente como vehículo para que otros investigadores puedan basarse en dichos resultados y avanzar así en su propia investigación. De esta manera progresa la ciencia.
La distorsión intencionada del método científico y de sus normas éticas se considera fraude científico, e incluye tanto las faltas graves delictivas (plagio, falsificación, modificación o invención de datos, o de los métodos empleados), como la mala práctica científica que supone la publicación repetida, total o parcial de un artículo ya publicado previamente en otra o en la misma revista, firmado por los mismos autores, pero sin conocimiento de los respectivos editores y, sobre todo, sin acreditar que se trata de un duplicado del original, es decir, con ánimo de engañar.

La publicación múltiple de los mismos trabajos se conoce como publicación duplicada o repetida y se puede considerar como un autoplagio. Desde el punto de vista de la ciencia, es el menor de los fraudes, ya que no distorsiona ni falsea los resultados obtenidos en el primer trabajo. Sin embargo, es muy frecuente y, a veces, tiene mayores consecuencias que otras prácticas de mala conducta científica. Es el caso, por ejemplo, de la duplicación de artículos sobre ensayos clínicos, con intención de sobrevalorar la eficacia y seguridad del medicamento ensayado, lo que puede influir en las decisiones médicas y, por tanto, en la salud de los pacientes.

Se estima que en la literatura científica la prevalencia de publicaciones con algún nivel de duplicación supone un 10-20% de todo lo publicado

En la publicación repetida se pueden distinguir varios niveles: el primero comprende la duplicación exacta del trabajo original, fácil de detectar con los sistemas automatizados de comparación de textos. En el segundo nivel están aquellos artículos cuyo contenido y resultados son idénticos a uno ya publicado, pero el título se ha modificado, p.e, empleando sinónimos, y en el texto se evitan los párrafos exactamente iguales. Incluso, los autores pueden variar de orden en la firma, eliminar algunos o incluir otros. Estos casos son prácticamente imposibles de detectar con métodos automatizados, y sólo se pueden distinguir cotejándolos manualmente, lo que supone un alto coste. En el tercer nivel, está la duplicación interdisciplinar, cuando el mismo artículo se publica en revistas de distinta especialidad e incluso en diferentes idiomas. Es igualmente muy difícil de descubrir.

Dentro de esta mala práctica, se incluye la publicación segmentada ("salami"), según la cual un único estudio se divide en varias partes que se publican como artículos independientes, simultanea o sucesivamente, en las mismas o diferentes revistas, pero los fragmentos no aportan aisladamente nada nuevo. Éste es el tipo más común de duplicación.

Se estima que en la literatura científica la prevalencia de publicaciones con algún nivel de duplicación supone un 10-20% de todo lo publicado. Se constata también que una alta proporción de los artículos repetidos proceden de instituciones prestigiosas y son publicados en revistas de alto Factor de Impacto y, por término medio, al año de la publicación del artículo original.

CONSECUENCIAS DE LA PUBLICACIÓN DUPLICADA

En general, el autoplagio se produce por la falta de ética de los investigadores y la escasez de medios de los editores y evaluadores para detectarlo.

En consecuencia, cuando la información publicada se utiliza como fuente para los análisis y estadísticas sistemáticos, y se contabilizan los duplicados como originales, el cómputo de los datos repetidos altera los resultados de dichos análisis.

Por otra parte, el autoplagio consume, innecesariamente, recursos editoriales de las revistas. Dado el limitado número de páginas, un artículo con datos repetidos obliga a rechazar otros inéditos, solamente por falta de espacio, perjudicando así a la difusión de la ciencia y a otros investigadores. También se perjudica a los lectores que disponen de tiempo limitado y en el caso de las publicaciones fraccionadas, se tienen que leer varios artículos para obtener la información completa.

Mar de libros viejos


Las publicaciones repetidas son un descrédito para las revistas, pero los editores tienen un margen de actuación muy escaso, lo más que pueden hacer es denunciar el trabajo una vez descubierto el engaño. Deberían ser las instituciones a las que pertenecen los autores o las agencias financiadoras de la investigación, las que intervinieran contra los duplicadores.

Los evaluadores de las revistas pierden el tiempo y su trabajo revisando artículos repetidos. La mayoría de las veces no detectan las duplicaciones si no es por casualidad, porque no se lleva a cabo una rutina sistemática para detectar fraudes como parte del proceso de revisión por pares ("peer review"). Además, con frecuencia, el original y los repetidos se envían simultáneamente a varias revistas para evitar ser descubiertos.

Por otra parte, los duplicadores que no son descubiertos pueden adquirir prestigio y promoción al aumentar el número de sus publicaciones de forma fraudulenta, en detrimento del resto de los investigadores.

CUANDO PUEDE SER ACEPTADA LA PUBLICACIÓN DUPLICADA

En algunos casos está aceptada la duplicación total o parcial de trabajos anteriores, siempre que se cuente con la aprobación de los editores de las revistas implicadas, y en el artículo repetido se haga constar que está basado o es copia de un estudio previo, citando la referencia del original y de la fuente donde ha sido publicado la primera vez.

Es el caso de trabajos que aparecen en actas de congresos o "posters" exhibidos en los mismos, y cuya difusión como literatura gris es muy restringida, se pueden publicar más tarde como artículos en revistas, siempre que se cite su procedencia. Así mismo, los trabajos divulgados como "pre-prints", en revistas electrónicas, son publicados después en papel.

Se ha generalizado la idea de que publicar es meritorio por sí mismo, de ahí, la tentación de ampliar el Curriculum Vitae repitiendo o fragmentando artículos

Los artículos publicados en inglés, en revistas de difusión internacional, se pueden traducir y enviar a revistas de otros idiomas, orientadas a lectores locales para aumentar su difusión, siempre que se cite la publicación original y transcurra un intervalo de tiempo razonable entre las dos publicaciones.

Los informes secuenciales de estudios muy amplios y complejos, como son los análisis epidemiológicos, o los basados en encuestas demográficas, que no pueden ser incluidos en un único artículo porque se suele tardar años en reunir y analizar todos los datos, está legitimado que se publiquen fraccionada y sucesivamente los resultados de puesta al día.

Por otra parte, esta claro que algunos artículos pueden compartir párrafos comunes con otros similares previos, como son la introducción, el material empleado y parte de la metodología. Sin embargo, las principales secciones de resultados, discusión y conclusiones, tienen que ser diferentes. Se ha establecido un límite según el cual si la cantidad de texto copiado sobrepasa el 30% del original, se considera duplicado, aunque no hay un consenso unánime sobre esta proporción.

RAZONES PARA DUPLICAR LAS PUBLICACIONES

La mala práctica científica de duplicar los mismos trabajos se fomenta por la presión a la que se ven sometidos los investigadores, debido a la excesiva competencia, que les exige producir y publicar mucho para mantener o mejorar su posición profesional, obtener becas, financiación, etc. ("publicar o perecer"). Dado que el número de publicaciones se considera un indicador de la productividad científica, se ha generalizado la idea de que publicar es meritorio por sí mismo, de ahí, la tentación de ampliar el Curriculum Vitae repitiendo o fragmentando artículos.

Libros. Diego Karasik

Se piensa que los científicos más jóvenes duplican en mayor proporción, por estar más presionados que los ya establecidos. Sin embargo, algunos estudios indican lo contrario.

En una encuesta anónima realizada en EE.UU. en el año 2002, a una muestra de 3.600 científicos en la mitad de su carrera, y a 4.160 en el inicio de la misma, resultó que el porcentaje de científicos que admitieron haber repetido alguna vez los mismos datos en 2 o más publicaciones, fue de 3,4% en los de principio de carrera, y del 6% en los de media carrera. En el total de encuestados supone un 5%[1].

Existen también otros motivos políticos y comerciales que fomentan este tipo de fraude. En el caso de los ensayos clínicos, p.e., cuando son patrocinados y financiados por empresas farmacéuticas, éstas pueden presionar para que se dupliquen los artículos con resultados positivos acerca de nuevos medicamentos y suprimiendo o retrasando los resultados negativos, sobreestimando así la eficacia y seguridad de los mismos, lo cual puede dar lugar a posteriores análisis incorrectos de riesgos-beneficios.

Esto no suele ocurrir en la investigación básica, ya que la relación entre los resultados y los beneficios que se pueden obtener con ellos, a corto plazo, es menos evidente.


Como ejemplo, se puede citar el caso de los ensayos clínicos sobre la eficacia de Ondansentron en emesis postoperatoria[2]. Se hicieron búsquedas en las bases de datos Medline, Embase y Biological Abstratcs, en el periodo 1991-1996, y se recuperaron 84 artículos de ensayos clínicos en los que intervenían 11.980 pacientes. Pero, en realidad, sólo fueron 70 ensayos y 8.645 pacientes, ya que el 17% de los artículos con efectos más positivos estaban repetidos, así como los datos del 28% de los pacientes, lo que llevó a sobredimensionar tanto la eficacia antiemética como la seguridad del medicamento en los análisis estadísticos posteriores.

DETECCIÓN DE DUPLICADOS

Una forma muy evidente de detectar duplicados en las publicaciones es a través de las revisiones bibliográficas sistemáticas sobre temas específicos, ya que éstas conllevan una búsqueda exhaustiva de la literatura correspondiente. De esta manera saltarían a la vista las repeticiones, como en el caso siguiente. Se analizaron un total de 141 revisiones bibliográficas (1989-2002) sobre medicina perioperatoria (anestesia, analgesia y cuidados intensivos). Los autores de dichas revisiones detectaron e identificaron 78 artículos principales que fueron multi-repetidos, algunos hasta 5 veces, contabilizando un conjunto de 181 duplicados[3].

Gracias al desarrollo de los algoritmos de comparación de textos es más fácil detectar los duplicados e interceptarlos antes de que se publiquen

En la actualidad, gracias al desarrollo de los algoritmos de comparación de textos, que cotejan los manuscritos que se remiten para su publicación con los de las bases de datos existentes, es más fácil detectar los duplicados e interceptarlos antes de que se publiquen. Como ejemplos de estas herramientas se pueden citar: el sistema SPLAT (Self Plagiarism Detection Tool), desarrollado en la Universidad de Arizona[4]. El sistema ArXiv, de la Univesidad Cornell en Ithaca, New Cork, es un archivo "open-access" para almacenar trabajos "pre-print" en física y matemáticas, principalmente[5], dispone de un software preparado para detectar textos duplicados. Contiene más de 280.000 registros, de los que en el 10%, aproximadamente, se ha detectado algún tipo de redundancia.[6].

Quizá el sistema más conocido es el sistema eTBLAST, de acceso libre, desarrollado en 2006, en el Southwestern Medical Center, de la Universidad de Texas. (http://invention.swmed.edu/etblast/index.shtml). Se trata de una herramienta para detectar concordancias entre la literatura biomédica que se remite para su publicación, y los títulos y resúmenes de Medline. Los registros coincidentes se almacenan y presentan juntos en una base de datos llamada Déjà vu (http://spore.swmed.edu/dejavu).[7].

Con este sistema se analizaron 7 millones de registros de Medline, y se identificaron más de 70.000 registros muy similares, que se depositaron en la base de datos Déjà vu. Extrapolando y utilizando factores de corrección, se estimó que, aproximadamente, en Medline existen 200.000 duplicados[8].

Según la base de datos Déjà vu[8], el grado de repetición en cada país es proporcional a su contribución a Medline. Entre los países que mayor número de registros aportan, destacan China y Japón como los únicos cuya proporción de duplicados es el doble de la esperada, lo que puede ser debido a sus idiomas, diferencias éticas y normas culturales.

EJEMPLOS DE PUBLICACIONES DUPLICADAS

La bibliografía sobre publicación múltiple es amplia, sobre todo en las revistas médicas y en las multidisciplinares como Nature y Science, donde se recogen frecuentemente cartas y notas sobre el tema. En la base de datos Medline, dedicada a biomedicina, dentro de la clasificación "tipo de documento", tiene un apartado llamado "publicación duplicada", lo que da idea de la frecuencia de este fraude en la literatura médica.

Se presentan a continuación algunos ejemplos de estudios realizados sobre detección de publicaciones múltiples en algunas disciplinas médicas, que no se refieren a análisis clínicos. Los estudios se hicieron en diferentes periodos de tiempo, que varían entre 1 y 12 años, y utilizando algoritmos de detección de duplicados, para la comparación en Medline, o analizando directamente los artículos de revistas concretas.

Esta mala práctica se podría evitar modificando los criterios de financiación y promoción de los investigadores, evaluando la calidad de las publicaciones mejor que la cantidad

En el caso de Oftalmología, se manejaron 24.433 documentos recuperados de 70 revistas indizadas por Medline entre 1997 y 2000, y se estimó que la proporción de duplicados era del 1,4%.[9]. Para la Otolaringología, se analizaron los artículos de una revista concreta (Archives of Otolaryngology-Head and Neck Surgery and Laryngoscope), en 1999, y resultó una proporción de duplicados del 8,5%[10].

Mayor proporción, 14%, se detecta en la especialidad de Cirugía, analizando los artículos publicados en 1998 en tres prestigiosas revistas de la disciplina (Surgery, British Journal of Surgery y Archives od Surgery)[11] Si bien, en temas más específicos, como la cirugía de la mano, la proporción se reduce al 4%, según datos tomados del Journal of Hand Surgery entre 1999 y 2000[12]. La proporción más alta de artículos repetidos, 28%, se detectó en la disciplina de Enfermería, analizando la revista Nursing Research, en el periodo 1986-1990.[13].

En el caso de de la ciencia básica no se han hecho estudios acerca de esta mala práctica, por lo que no se ha detectado todavía un número representativo de casos. Sin embargo, es destacable el ejemplo de un profesor de Química Analítica de la Universidad india Sri Venkateswara, quién fue descubierto como culpable de más de 70 autoplagios y falsificaciones. Llegó a enviar simultáneamente cuatro manuscritos idénticos sobre el análisis de selenio a otras tantas revistas. De esta manera, en tres años (2004 - 2007), publicó más de 70 artículos en 25 revistas[14].

COMO EVITAR LA PUBLICACIÓN REPETIDA

Esta mala práctica se podría evitar modificando los criterios de financiación y promoción de los investigadores, evaluando la calidad de las publicaciones mejor que la cantidad. Se evitaría así la exigencia de tener que publicar mucho para aumentar el CV, y se impondría una nueva cultura, publicar mucho dejaría de ser esencial para la reputación de los investigadores si no se alcanza la calidad suficiente para conseguir el avance el conocimiento.

En el caso de los ensayos clínicos, lo que podría contribuir a evitar la duplicación total o parcial de los resultados sería establecer una base de datos donde se registraran todos los ensayos clínicos, como alternativa a las publicaciones en revistas [15]  [16]  [17]. Con este criterio, en el año 2000, se desarrolló en EE.UU una base de datos de acceso libre (www.ClinicalTrials.gov), patrocinada por el National Institute of Health (NIH), que, actualmente, contiene más de 53.800 registros de 154 países. Lo ideal sería llegar a un sistema internacional de registro de ensayos clínicos, con un número de identificación unívoco, similar al ISBN de los libros.[15].

Por otra parte, todo trabajo científico enviado a una revista para su publicación, se debería acompañar de una declaración de los autores, indicando que el contenido y conclusiones son originales y no se han presentado a ninguna otra revista. Ayudaría también que se acortase el intervalo de tiempo desde que un original es recibido en la revista, hasta que es publicado, a veces transcurre más de un año, por lo que los autores deciden enviarlo a otra revista, sin avisar a la primera.

En respuesta a las conductas fraudulentas en las publicaciones, el gobierno de EE.UU. fue el primero en establecer normas y reglamentos que dieron lugar a los Comités de Ética de los editores de revistas, sobre todo de medicina. Así, el International Committee Medical Journal Editors (ICMJE), (www.icmje.org) creado en 1978, establece directrices en relación con la conducta a seguir por los autores y editores, que son aceptadas por más de 300 revistas en todo el mundo. Otros Comités también desarrollan guías de buenas prácticas en la publicación, entre ellos: el Committee on Publication Ethics (COPE) (www.publicationethics.org.uk), creado en 1997, en el Reino Unido, y dedicado, sobre todo, a ensayos clínicos. En 1992, el NIH creó la Office of Research Integrity (ORI), para vigilar y denunciar los casos de mala práctica científica[18].



Bibliografía

[1] Martinson, B.C.; Anderson, M.S.; Vries, R. Scientists behaving badly. Nature (2005) v. 435, 9 june, p.737-738.
[2] Tramer, M.R.; Reynolds, J.M.; Moore, R.A.; McQuay, R. Impact of covert duplicate publication on meta-analysis: a case study. British Medical Journal (1997). v. 315, n. 7109, p. 635-640.
[3] von Elm, E.; Poglia, G.; Walder, B. ; Tramèr. M.R. Different Patterns of Duplicate Publication. An Analysis Used in Systematic Reviews. JAMA (2004), v. 291, nº 8, p.974-980.
[4] Collberg, C.; Kobourov, S.; Louis, J.; Slattery, T. SPLAT: A System for Self-plagiarism Detection. Proceedings of IADIS International Conference. 2003.
[5] Sorokina, D., Gehrke, J., Warner, S., and Ginsparg, P. 2006. Plagiarism Detection in arXiv. In Proceedings of the Sixth international Conference on Data Mining (December 18 - 22, 2006). ICDM. IEEE Computer Society, Washington, DC, 1070-1075. DOI= https://dx.doi.org/10.1109/ICDM.2006.126
[6] Giles, J. Preprint server seeks way to halt plagiarism. Nature (2003) v. 426, 26, p.7.
[7] Errami, M.; Hicks, J.M.; Fisher, W.; Trusty, D.; Wren, J.D.; Long, T.C.; Garner, H.R. Déjà vu. A study of duplicate citations in Medicine. Bioinformatics (2008). v. 24, nº 2. p. 243-249.
[8] Errami, M.; Garner, H. A tale of two citations. Nature (2008) v. 45, 24 january, p. 397-399.
[9] Mojon-Azzi, S.M; Jiang, X.; Wagner, U.; Mojon, D.S. Redundant publications in scientific ophthalmologic journals: the tip of the iceberg? Ophthalmology (2004) v. 111, nº 5, p. 863-866.
[10] Rosental E.L.; Masdon, J.L.; Buckman, C.; Hawn, M. Duplicate publications in the otolaryngology literature. Laryngoscope (2003). v. 113. nº 5. p. 772-4.
[11] Schein M. Paladugu, R. Redundant surgical publications: tip of the iceberg? Surgery (2001), v. 129, nº 6. p. 655-661.
[12] Chennagiri, R.J.; Critchley, P.; Giele H. Duplicate publication in the journal of Hand Surgery. Journal of Hand Surgery (2004). v. 29, nº 6. p. 625-628.
[13] Blancett, S.; Flanagin, A.; Young, R. Duplicate publication in nursing literature. IMAGE: Journal of Nursing Scholarship (1995). v. 27, nº 1, p.51-56.
[14] Schulz. W.G. A Massive Case of Fraud. Chemical & Engineering News (Science&Technology) (2008) v. 86, nº 7. p. 37-38.
[15] Steinbrook, R. Public Registration of Clinical Trials. New Engand Journal of Medicine (2004), v. 351. nº 4. p.315-317.
[16] Porras Chavarino, A. La publicación de los resultados de los ensayos clínicos. Investig. Clín. Farm. (2005), v.2, nº 1, p. 30-34.
[17] Antes, G.; Dickersin, K. Trial registration to prevent duplicate publication. JAMA (2004) v. 291. p. 2432.
[18] Claxton, L.D. Scientific authorship Part 1. A window into scientific fraud?. Mutation Research/Reviews in Mutation Research. (2005) v. 589, nº 1, p. 17-30.

Add new comment

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.