Artículo en revisión: Errores y mala práctica en publicaciones científicas en las ciencias biomédicas: una revisión narrativa
Review article: Errors and Misconduct in Scientific Publications in the Biomedical Sciences: A Narrative Review
Oficina de Investigación de la Unidad de Atención Integral del VIH y las Infecciones Crónicas del Hospital Roosevelt, Guatemala
Revista Científica (Instituto de Investigaciones Químicas y Biológicas. Facultad de Ciencias Químicas y Farmacia. Universidad de San Carlos de Guatemala) vol. 32, núm. 2, 2025
Universidad de San Carlos de Guatemala, Guatemala
ISSN: 2070-8246
ISSN-E: 2224-5545
Periodicidad: Semestral cientifica.revista@usac.edu.gt
Recepción: 05 diciembre 2024
Aprobación: 08 abril 2025
DOI: https://doi.org/1054495/Rev.Cientifica.v32i2.419
URL: https://portal.amelica.org/ameli/journal/50/505106005/
Resumen: Los errores metodológicos y la mala práctica en publicaciones científicas afectan la validez y utilidad de la investigación en ciencias biomédicas. La falta de rigor en el diseño, análisis y reporte de resultados contribuye a sesgos y conclusiones erróneas, lo que compromete la toma de decisiones en la práctica clínica. Este artículo presenta una revisión narrativa estructurada de la literatura científica sobre los principales errores metodológicos, estadísticos y éticos en publicaciones científicas, diferenciando entre errores involuntarios, negligentes y aquellos que implican fraude. Se analizan los factores que influyen en la calidad de una publicación, incluyendo la adecuada planificación del estudio, la correcta selección del tamaño muestral y el uso apropiado de herramientas estadísticas. Se aborda el problema del sesgo de publicación y la diferencia entre significancia estadística y clínica, enfatizando que la validez de un estudio no depende únicamente de la presencia de valores p significativos. Asimismo, se examinan las prácticas fraudulentas más comunes, como la falsificación de datos y el plagio, y su impacto en la credibilidad de la ciencia. Finalmente, se destaca la importancia de la lectura crítica de la literatura científica y el desarrollo de habilidades para evaluar la calidad y aplicabilidad de los hallazgos en la práctica médica.
Palabras clave: Bioestadística, Ética en la Publicación Científica, Mala Conducta Científica, Artículo de Revista, Investigación Biomédica.
Abstract: Methodological errors and malpractice in scientific publications compromise the validity and utility of research in the biomedical sciences. A lack of rigor in study design, data analysis, and result reporting contributes to bias and erroneous conclusions, ultimately affecting clinical decision-making. This article presents a structured narrative review of the scientific literature on the main methodological, statistical, and ethical errors in scientific publications, distinguishing between unintentional mistakes, negligence, and fraudulent practices. Key factors influencing publication quality are analyzed, including proper study planning, appropriate sample size determination, and the correct application of statistical tools.
The issue of publication bias and the distinction between statistical and clinical significance are discussed, emphasizing that a study’s validity is not solely dependent on the presence of statistically significant p-values. Additionally, common fraudulent practices such as data fabrication and plagiarism are examined, along with their impact on the credibility of science. Finally, the importance of critical reading of scientific literature is highlighted, as well as the development of skills to evaluate the quality and applicability of research findings in clinical practice.
Keywords: Biostatistics, Scientific Publication Ethics, Scientific Misconduct, Journal Article, Biomedical Research.
Introducción
Las revistas biomédicas son la principal fuente de información utilizada por los profesionales de la salud y el principal vehículo para comunicar los resultados de la investigación. Estas publicaciones a menudo sirven tanto para fines informativos como educativos, ayudando a formar opiniones y proporcionando un foro de discusión para las comunidades científica y médica. Sin embargo, un aspecto que distingue estas revistas de otras es que son leídas principalmente por profesionales que no necesariamente se dedican a la investigación o que no tienen suficientes conocimientos sobre aspectos metodológicos y estadísticos (Jiménez & Argimon, 2016; Smith, 2006). En el contexto de la medicina basada en la evidencia, se emplea de manera informada, clara y racional la mejor evidencia disponible para tomar decisiones sobre el cuidado de pacientes individuales (Djulbegovic & Guyatt, 2017). Esto no se limita a la lectura de artículos científicos, sino que implica seleccionar el artículo adecuado en el momento oportuno y adaptar las conductas clínicas según los hallazgos relevantes (Greenhalgh, 2014). Un análisis crítico de diversas publicaciones biomédicas concluyó que la mayoría de los estudios científicos arrojan resultados falsos y carecen de utilidad. En un primer artículo, se argumenta que esta afirmación se fundamenta en la manera en que las investigaciones se planifican y ejecutan, lo que afecta su validez interna, así como en los intereses de los investigadores y las entidades financiadoras (Ioannidis, 2005). En un segundo artículo, se sostiene que una investigación debe cumplir ciertos criterios para ser considerada útil, aunque, según el análisis, estos rara vez se cumple (Ioannidis, 2016). Por otro lado, los estudios dirigidos a identificar y sistematizar los errores en las publicaciones biomédicas han puesto en evidencia que es difícil distinguir cuándo estos eventos se deben o no a decisiones malintencionadas (Silva Aycaguer, 2018). El objetivo de esta revisión es analizar los errores y las malas prácticas presentes en las publicaciones científicas dentro del campo de las ciencias biomédicas. Para ello, se llevó a cabo una revisión narrativa estructurada de la literatura científica relacionada con errores metodológicos, estadísticos y éticos en publicaciones biomédicas. La selección de fuentes se realizó de forma dirigida, incluyendo libros de texto, artículos originales, revisiones previas, guías metodológicas y documentos normativos. Las fuentes fueron identificadas a través de búsquedas en bases de datos como PubMed, SciELO y Google Scholar, así como mediante la consulta directa de literatura académica ampliamente reconocida en los ámbitos de la bioestadística, la epidemiología, la ética en la investigación y la publicación científica. No se aplicaron criterios formales de inclusión o exclusión, ni se establecieron restricciones en cuanto al idioma o periodo de publicación. La información recopilada fue organizada temáticamente, agrupando los contenidos en torno a tres ejes principales: errores involuntarios, errores por negligencia y malas prácticas deliberadas. Asimismo, se incorporaron elementos relativos a la lectura crítica de la literatura científica. La estructura del artículo se organiza en cuatro secciones principales. En primer lugar, se examina la noción de error en el contexto de la investigación científica y del proceso de publicación. En segundo lugar, se describen los errores más frecuentes observados en la literatura biomédica, con especial atención a aquellos de naturaleza metodológica y estadística. Posteriormente, se analizan las prácticas que constituyen mala conducta científica, ilustrando su impacto mediante ejemplos documentados. Finalmente, se abordan las competencias necesarias para la lectura crítica de la evidencia científica y se presentan estrategias orientadas al desarrollo de estas habilidades entre los profesionales de la salud.
Contenido
Errores en la actividad científica El error está implícito en toda actividad humana, y, por tanto, la búsqueda sistemática del conocimiento también es susceptible a la existencia de errores. El error puede ser aleatorio o sistemático (comúnmente llamado sesgo): el error aleatorio se atribuye al muestreo y a la variabilidad biológica, la variabilidad del instrumento de medición y la variabilidad debida al observador; mientras que el error sistemático se relaciona con el diseño del estudio, ya sea por una inadecuada selección de las unidades muestrales o por problemas en la medición de las variables (Argimon & Jiménez, 2019; Barraza et al., 2019). Además, desde el punto de vista estadístico puede hablarse de error tipo I, cuando se afirma que existe un efecto cuando en realidad no existe, y error tipo II, cuando se afirma que no existe un efecto, cuando en realidad sí existe (Barton & Peat, 2014; Indrayan & Holt, 2016; Zar, 2014). Por otro lado, la ciencia no aspira a las explicaciones absolutas y totalmente concluyentes de los fenómenos, y, por tanto, conviene recordar que todos los resultados científicos deben considerarse propensos a errores (Elliott & Resnik, 2015). Los errores honestos son aquellos que ocurren de manera involuntaria, a pesar de seguir buenas prácticas científicas, como equivocaciones en el análisis de datos o interpretaciones erróneas sin intención de distorsionar la verdad. En cambio, los errores por negligencia resultan de una falta de cuidado o rigurosidad en la aplicación de los métodos científicos, como el uso inadecuado de técnicas estadísticas o la omisión de controles experimentales esenciales. Los errores que implican engaño deliberado abarcan la fabricación de evidencias, la falsificación de datos o el plagio (National Academy of Sciences Engineering and Medicine, 1995). En todo caso, el grado en que los resultados de una investigación son correctos para los sujetos de estudio, la llamada validez interna, se ve amenazada tanto por el error aleatorio como por el sistemático (Fletcher et al., 1998; Hulley et al., 2014), y resulta incuestionable afirmar que la honestidad es un elemento imprescindible en el quehacer científico (Shapin, 1995). Errores en las publicaciones científicas En una revisión no sistemática de 196 informes de ensayos clínicos sobre fármacos para la artritis reumatoide, se encontró que el 76 % de las investigaciones presentaban conclusiones o resúmenes con declaraciones inválidas o dudosas. Además, en 81 de los ensayos analizados se identificaron sesgos de selección que podrían favorecer, desde el inicio, al grupo experimental (Gøtzsche, 1989). Una investigación indagó sobres las causas de los errores en informes de investigación mediante el análisis de una muestra aleatoria de revistas de psicología de alto y bajo impacto. De los 281 artículos revisados, el 18% presentaba errores en el reporte de resultados estadísticos, y el 15 % incluía al menos una conclusión incorrecta, generalmente alineada con las expectativas de los investigadores(Bakker & Wicherts, 2011). En otra investigación se identificaron 15 errores comunes en la investigación clínica, que ocurren durante el diseño, la recolección y el análisis de datos, así como en la publicación de manuscritos. Destacan los errores relacionados con sesgos de selección e información, y con el análisis y presentación de datos, como: falta de especificación de criterios de selección, ausencia de cálculo del tamaño de muestra, deficiencias en el control de sesgos, fallos en la evaluación de supuestos estadísticos y el manejo de datos perdidos, y carencia de estrategias para abordar pérdidas de seguimiento o identificar las debilidades del estudio (Clark & Mulligan, 2011). Otros estudios han encontrado menor calidad en las publicaciones realizadas en revistas de bajo impacto que en las de alto impacto (Fleming et al., 2014; Goldkuhle et al., 2018); Además, algunas investigaciones han analizado en mayor detalle los errores estadísticos comunes en las publicaciones médicas. En un estudio, estos errores fueron clasificados en 47 categorías, destacando la importancia de que el profesional estadístico participe desde la fase de diseño de la investigación para prevenir errores que puedan comprometer la validez de los estudios (Strasak et al., 2007). Un error común que debe resaltarse es la creencia de que una investigación gana prestigio o validez únicamente por aplicar métodos estadísticos complejos. Sin embargo, se sostiene que estos métodos no pueden compensar las deficiencias en el diseño del estudio o en el método de muestreo. Asimismo, se enfatiza la importancia de utilizarlos para aportar objetividad al análisis, evitando que las expectativas preconcebidas del investigador influyan en las conclusiones (Lemus et al., 2013). Hasta este
punto conviene tener en todo momento presente, que la Estadística es una herramienta, y que contempla en todo momento la posibilidad del error, y, por tanto, no es ni la fuente de una verdad absoluta, ni un recurso para darle per se valor (y validez) a una investigación (Tong, 2019). También, conviene discernir en este punto entre significancia estadística y significancia clínica. Un resultado estadísticamente significativo, se obtiene cuando el valor p de una prueba de hipótesis es menor al nivel de significancia, esto debe interpretarse de la siguiente forma: si la hipótesis nula es verdadera y todas las demás suposiciones son válidas, hay un 5% de posibilidades de obtener un resultado al menos tan extremo como el observado (Baker, 2016; Pagano et al., 2022). La significancia clínica, por su parte, se refiere a aquellos resultados obtenidos en una investigación que aportan una mejora evidente a la salud de un paciente y a su calidad de vida. Los resultados estadísticamente significativos no significan necesariamente que los resultados sean clínica o biológicamente relevantes (Greenberg et al., 2006; Sharma, 2021) y conduzcan a una mejora en la calidad de vida de las personas. Por lo tanto, muchos de los resultados pueden ser estadísticamente significativos, pero no clínicamente relevantes; y por ello, los médicos e investigadores deben basar sus decisiones en la estimación conjunta de la significancia clínica y estadística (Armijo-Olivo, 2018; Barkan, 2015). La publicación de “Las pruebas de significación estadística: seis décadas de fuegos artificiales” es un buen recurso en idioma castellano para comprender cuáles son las limitaciones de la aplicación de las pruebas de significación estadística, y por qué su uso indiscriminado (y la forma en que se usan estos recursos, sobre todo) es pernicioso para el conocimiento científico (Silva-Aycaguer, 2016). Entre los errores metodológicos más comunes en la investigación clínica, se han descrito las generalizaciones inapropiadas en publicaciones y el impacto negativo de la selección sesgada de pacientes (Silva Aycaguer, 2018;Weigmann, 2005). Además hay dos temas que no han sido abordados con tanta frecuencia en este tipo de publicaciones: Primero, no existe un consenso para determinar un tamaño de muestra idóneo, por lo que las valoraciones generalizadas sobre tamaños insuficientes de muestra a menudo carecen de un verdadero sustento (Prieto & Herranz, 2010). Segundo, las revistas tienden a favorecer la publicación de artículos en función de sus hallazgos, más que por la posible validez de estos (Silva Aycaguer, 2018; Weigmann, 2005), lo cual es conocido como sesgo de publicación (Argimon & Jiménez, 2019; Slutsky, 2013). Generalmente, se publican más estudios que presentan diferencias significativas que aquellos que no (Ruiz & Morillo, 2004), lo cual repercute en que se publique solo parte del conocimiento que en realidad se tiene sobre un tema particular (Martínez González et al., 2020; Nair, 2019). Sobre lo expuesto con anterioridad respecto a la significancia clínica, vale agregar que cuanto más pequeños sean los tamaños del efecto investigados, menos probable es que los hallazgos de la investigación sean ciertos, es importante indicar que el tamaño del efecto se relaciona directamente con la potencia estadística (Fritz et al., 2012; Ioannidis, 2005), término que se define como la probabilidad de detectar en un estudio una significancia clínica predefinida durante el cálculo de la muestra, valor que debe de ser alto para aportar conclusiones con suficiente validez estadística (Indrayan & Holt, 2016; Suresh & Chandrashekara, 2012). Una revisión de diversos metaanálisis sobre distintas enfermedades estimó el poder a posteriori basándose en los tamaños del efecto reportados en los estudios originales. Los hallazgos indicaron que aproximadamente la mitad de los estudios tenían un poder estadístico entre 0% y 20%.(Dumas-Mallet et al., 2017). Si bien el cálculo de potencia a posteriori siempre indicará una potencia baja (<50 %) cuando la diferencia no es significativa, este enfoque es engañoso y de utilidad limitada. Por ello, el poder estadístico debería calcularse únicamente durante la planificación del estudio, asegurando un diseño adecuado para detectar efectos de interés (Goodman, 1994). En un estudio se analizaron las tendencias en los tamaños del efecto en publicaciones científicas entre 1990 y 2015, observándose una disminución en la mediana de los efectos estadísticamente significativos. Este fenómeno podría deberse al uso de muestras más grandes, características de la investigación multicéntrica, que permiten detectar incluso efectos pequeños, o a la publicación de estudios cuyos resultados carecen de relevancia clínica. Estos hallazgos resaltan la importancia
de fortalecer la credibilidad de la investigación biomédica y optimizar el uso de los recursos disponibles (Baker, 2016; Monsarrat & Vergnes, 2018). Lo expuesto hasta este punto, se enmarca dentro esos errores que se han descrito como “honestos” o “debidos a la negligencia”. A continuación, se aportará sobre aquellos que implican deliberadamente un engaño a la audiencia. Mala conducta en las publicaciones científicas La mala conducta en las publicaciones científicas puede clasificarse en las siguientes modalidades: (a) envío de datos falsos, incompletos o procesados inadecuadamente, (b) violación de la confidencialidad de los pacientes o los resultados, (c) falseo de la autoría, (d) duplicidad o redundancia en la publicación, (e) plagio, (f) autocitación o citación coercitiva y (g) conflicto de intereses científicos o económicos. Si bien se asume que en la mayoría de las investigaciones publicadas no hubo mala conducta, existe la percepción, por parte de las revistas, de que la cantidad de publicaciones en las que se puede identificar mala conducta ha aumentad (Pascual & Martínez, 2016). Una revisión de estudios publicados entre 2000 y 2011 mostró que, en ese periodo, los avisos de retractación en revistas científicas se multiplicaron por diez, mientras que el número de publicaciones aumentó solo un 44 %. Aproximadamente la mitad de las retractaciones se atribuyeron a malas prácticas, siendo más frecuentes en revistas de alto impacto. Sin embargo, el mayor incremento en retractaciones se observó en revistas de bajo impacto. (Van Noorden, 2011). En otra investigación se concluyó que solo la quinta parte de un total de 2.047 retractaciones, registradas en PubMed se debían a errores, y, por tanto, el resto podía atribuir a malas conductas o sospecha de estas (Fang et al., 2012). Otro estudio revisó 57 ensayos clínicos realizados entre 1998 y 2013 en los que la Administración de Alimentos y Medicamentos (Food and Drug Administration, FDA) identificó prácticas objetables. Se encontró falsificación de datos en el 39 % de los casos, violaciones al protocolo en el 74 % y problemas de seguridad o supervisión en el 53 %. A pesar de estas irregularidades, no se emitieron correcciones, retractaciones ni expresiones de preocupación por parte de los autores o revisores (Seife, 2015). Otros reportes han sido más optimistas, como es el caso de un estudio en el que se determinó que de 395 artículos retractados y publicados entre 1982 a 2002, las retractaciones tenían más del doble de probabilidades de ser el resultado de errores no intencionados, que de mala conducta (Nath et al., 2006). Las malas prácticas en investigación afectan negativamente a los pacientes al influir en la práctica clínica y pueden conducir futuras investigaciones por caminos improductivos. Para prevenir estos problemas, es necesaria una colaboración entre editores de revistas, consejos de investigación, instituciones educativas, el gobierno y financiadores. (Pascual & Martínez, 2016). Dentro de estas acciones se considera importante que los profesionales sanitarios asistenciales desarrollen ampliamente las habilidades para la lectura crítica de la literatura científica, de manera que puedan reconocer las fortalezas y debilidades de las publicaciones a las que tienen acceso (Garba et al., 2010; Smith, 2006). Habilidades de lectura crítica del profesional de la salud Ante la existencia cada vez más frecuente de publicaciones malintencionadas es necesario que los lectores tengan las capacidades críticas para evaluar tales publicaciones (Subramanyam, 2013). Algunos estudios han evaluado las habilidades de profesionales de la salud para interpretar y valorar las publicaciones científicas. En una revisión sistemática en la que se analizaron 29 estudios sobre conocimiento y evaluación crítica de literatura científica se encontró que los médicos con formación en epidemiología, bioestadística e investigación tenían mayores conocimientos y habilidades. Además, el tamaño del efecto en las publicaciones influye en la percepción de eficacia de los tratamientos y en la intención de prescribir medicamentos (Kahwati et al., 2017). Por otro lado, en un estudio cuyo objetivo fue evaluar la eficacia de distintos métodos de enseñanza en habilidades de evaluación crítica en estudiantes de medicina. Se comparó un grupo que completó una capacitación y un taller multimedia con un grupo control, encontrando que el primero mostró habilidades significativamente superiores, con una diferencia moderada según el estadístico D de Cohen (Sasannia et al., 2022). En una investigación cualitativa, se exploraron las percepciones de los médicos de urgencias sobre las barreras y motivaciones para el aprendizaje de habilidades de evaluación crítica, con el objetivo de diseñar estrategias de capacitación efectivas en esta área. Los hallazgos indicaron que
la falta de tiempo, la percepción de dificultad y el desinterés fueron las principales barreras para llevar a cabo una evaluación crítica de la literatura científica (Wood et al., 2022). Los profesionales también deben ser capaces de evaluar la utilidad y relevancia de la investigación. Se han enumerado una serie de criterios para evaluar la utilidad de las investigaciones: (a) las relacionadas con la base del problema, (b) la ubicación del contexto, (c) la obtención de información, (d) el pragmatismo, e) el enfoque en el paciente, (f) la relación calidad-precio, (g) la viabilidad, y (h) la transparencia (Ioannidis, 2016). Dentro de las habilidades que debe desarrollar el profesional de la salud para evaluar críticamente las publicaciones científicas se incluyen: (a) la evaluación de la idoneidad del diseño del estudio para la pregunta de investigación, (b) la evaluación de la calidad metodológica de cada diseño de investigación y la identificación de posibles sesgos, (c) la idoneidad de los métodos estadísticos utilizados y su posterior interpretación, (d) la identificación de posibles conflictos de interés, (e) la relevancia de la investigación para la propia práctica y (f) el uso de herramientas de evaluación crítica, como las listas de verificación de los elementos que deben incluirse en una publicación o informe (Buccheri & Sharifi, 2017; Greenhalgh, 2014; Young & Solomon, 2009). Además de las guías de cotejo utilizadas para evaluar la evidencia, como The Champ Statement (Mansournia et al., 2021), las herramientas del Critical Appraisal Skills Programme (CASP) (Ma et al., 2020),y otras ampliamente reconocidas, como Consolidated Standards of Reporting Trials (CONSORT), Strengthening the Reporting of Observational Studies in Epidemiology (STROBE), Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA) (Grech & Eldawlatly, 2024) y Statistical Analyses and Methods in the Published Literature (SAMPL) (Lang & Altman, 2015), existen libros de texto ampliamente reconocidos por profesores y científicos. Estos textos ofrecen, de manera sistemática, los conocimientos necesarios para desarrollar habilidades de lectura crítica (Greenhalgh, 2014; Riegelman & Hirsh, 1992), así como para la práctica y enseñanza de la medicina basada en la evidencia (Straus et al., 2019).
Conclusiones
La publicación de artículos científicos, así como el proceso de investigación no están exentos de diversos errores de índole metodológica, estadística y ética; estos errores pueden atribuirse a ideas equívocas, ignorancia sobre ciertos temas o a negligencia. Preocupa más cuando se tratan de errores malintencionados por parte de los investigadores, y que en general se desprenden de claros conflictos de intereses. Se trate o no de malas conductas, es claro que el profesional de la salud debe desarrollar de forma individual y durante su formación dentro de la academia y las instituciones de la salud, las habilidades que le permitan valorar de forma crítica todas las publicaciones que llegan a sus manos; de manera que el impacto negativo de estos errores sea mínimo para la salud los pacientes que trata y para el costo de la atención y la investigación en salud.
REFERENCIAS
Argimon, J., & Jiménez, J. (2019). Métodos de investigación clínica y epidemiológica (5th ed.). Elsevier España.
Armijo-Olivo, S. (2018). The importance of determining the clinical significance of research results in physical therapy clinical research. Brazilian Journal of Physical Therapy, 22(3), 175–176. https://doi.org/10.1016/ j.bjpt.2018.02.001
Baker, M. (2016). Statisticians issue warning over misuse of P values. Nature, 531(7593), 151–151. https://doi.org/ 10.1038/nature.2016.19503
Bakker, M., & Wicherts, J. M. (2011). The (mis)reporting of statistical results in psychology journals. Behavior Research Methods, 43(3), 666–678. https://doi.org/10.3758/s13428-011-0089-5
Barkan, H. (2015). Statistics in clinical research: Important considerations. Annals of Cardiac Anaesthesia, 18(1), 74. https://doi.org/10.4103/0971-9784.148325
Barraza, F., Arancibia, M., Madrid, E., & Papuzinski, C. (2019). General concepts in biostatistics and clinical epidemiology: Random error and systematic error. Medwave, 19(07), e7687–e7687. https://doi.org/10.5867/ medwave.2019.07.7687
Barton, B., & Peat, J. (2014). Medical Statistics: A Guide to SPSS, data analysis and critical appraisal (2nd ed.). BMJ Books.
Buccheri, R. K., & Sharifi, C. (2017). Critical Appraisal Tools and Reporting Guidelines for Evidence-Based Practice.
Worldviews on Evidence-Based Nursing, 14(6), 463–472. https://doi.org/10.1111/wvn.12258
Clark, G. T., & Mulligan, R. (2011). Fifteen common mistakes encountered in clinical research. Journal of Prosthodontic Research, 55(1), 1–6. https://doi.org/10.1016/j.jpor.2010.09.002
Djulbegovic, B., & Guyatt, G. H. (2017). Progress in evidence-based medicine: a quarter century on. The Lancet, 390(10092), 415–423. https://doi.org/10.1016/S0140-6736(16)31592-6
Dumas-Mallet, E., Button, K. S., Boraud, T., Gonon, F., & Munafò, M. R. (2017). Low statistical power in biomedical science: a review of three human research domains. Royal Society Open Science, 4(2), 160254. https://doi.org/ 10.1098/rsos.160254
Elliott, K. C., & Resnik, D. B. (2015). Scientific Reproducibility, Human Error, and Public Policy. Bioscience, 65(1),
5–6. https://doi.org/10.1093/biosci/biu197
Fang, F. C., Steen, R. G., & Casadevall, A. (2012). Misconduct accounts for the majority of retracted scientific publications. Proceedings of the National Academy of Sciences, 109(42), 17028–17033. https://doi.org/10.1073/ pnas.1212247109
Fleming, P. S., Koletsi, D., Seehra, J., & Pandis, N. (2014). Systematic reviews published in higher impact clinical journals were of higher quality. Journal of Clinical Epidemiology, 67(7), 754–759. https://doi.org/10.1016/ j.jclinepi.2014.01.002
Fletcher, R., Fletcher, S., & Wagner, E. (1998). Epidemiología Clínica: Aspectos fundamentales (2nd ed.). Masson.
Fritz, C. O., Morris, P. E., & Richler, J. J. (2012). Effect size estimates: Current use, calculations, and interpretation.
Journal of Experimental Psychology: General, 141(1), 2–18. https://doi.org/10.1037/a0024338
Garba, S., Ahmed, A., Mai, A., Makama, G., & Odigie, V. (2010). Proliferations of scientific medical journals: a burden or a blessing. Oman Medical Journal, 25(4), 311–314. https://doi.org/10.5001/omj.2010.89
Goldkuhle, M., Narayan, V. M., Weigl, A., Dahm, P., & Skoetz, N. (2018). A systematic assessment of Cochrane reviews and systematic reviews published in high-impact medical journals related to cancer. BMJ Open, 8(3), e020869. https://doi.org/10.1136/bmjopen-2017-020869
Goodman, S. N. (1994). The Use of Predicted Confidence Intervals When Planning Experiments and the Misuse of Power When Interpreting Results. Annals of Internal Medicine, 121(3), 200. https://doi.org/ 10.7326/0003-4819-121-3-199408010-00008
Gøtzsche, P. C. (1989). Methodology and overt and hidden bias in reports of 196 double-blind trials of nonsteroidal antiinflammatory drugs in rheumatoid arthritis. Controlled Clinical Trials, 10(1), 31–56. https://doi.org/ 10.1016/0197-2456(89)90017-2
Grech, V., & Eldawlatly, A. A. (2024). STROBE, CONSORT, PRISMA, MOOSE, STARD, SPIRIT, and other
guidelines - Overview and application. Saudi Journal of Anaesthesia, 18(1), 137–141. https://doi.org/10.4103/ sja.sja_545_23
Greenberg, R., Daniels, S., Flanders, D., Eley, W., & Boring, J. (2006). Epidemiología médica (4th ed.). Manual Moderno.
Greenhalgh, T. (2014). Cómo leer un artículo científico. Las bases de la medicina basada en la evidencia (5th ed.).
Elsevier.
Hulley, S., Cummings, S., Browner, W., Grady, D., & Newman, T. (2014). Diseño de Investigaciones Clínicas (4th ed.).
Wolters Kluwer.
Indrayan, A., & Holt, M. P. (2016). Concise Encyclopedia of Biostatistics for Medical Professionals. Chapman and Hall/ CRC. https://doi.org/10.1201/9781315372891
Ioannidis, J. P. A. (2005). Why Most Published Research Findings Are False. PLoS Medicine, 2(8), e124. https:// doi.org/10.1371/journal.pmed.0020124
Ioannidis, J. P. A. (2016). Why Most Clinical Research Is Not Useful. PLOS Medicine, 13(6), e1002049. https:// doi.org/10.1371/journal.pmed.1002049
Jiménez, J., & Argimon, J. (2016). Publicación científica biomédica. Cómo escribir y publicar un artículo de investigación
(2nd ed.). Elsevier.
Kahwati, L., Carmody, D., Berkman, N., Sullivan, H. W., Aikin, K. J., & DeFrank, J. (2017). Prescribers’ Knowledge and Skills for Interpreting Research Results: A Systematic Review. Journal of Continuing Education in the Health Professions, 37(2), 129–136. https://doi.org/10.1097/CEH.0000000000000150
Lang, T. A., & Altman, D. G. (2015). Basic statistical reporting for articles published in Biomedical Journals: The “Statistical Analyses and Methods in the Published Literature” or the SAMPL Guidelines. International Journal of Nursing Studies, 52(1), 5–9. https://doi.org/10.1016/j.ijnurstu.2014.09.006
Lemus, J., Aragües, V., & Lucioni, M. (2013). Salud Pública y Atención Primaria de la Salud. Corpus.
Ma, L.-L., Wang, Y.-Y., Yang, Z.-H., Huang, D., Weng, H., & Zeng, X.-T. (2020). Methodological quality (risk of bias) assessment tools for primary and secondary medical studies: what are they and which is better? Military Medical Research, 7(1), 7. https://doi.org/10.1186/s40779-020-00238-8
Mansournia, M. A., Collins, G. S., Nielsen, R. O., Nazemipour, M., Jewell, N. P., Altman, D. G., & Campbell, M. J. (2021). A CHecklist for statistical Assessment of Medical Papers (the CHAMP statement): explanation and elaboration. British Journal of Sports Medicine, 55(18), 1009.2-1017. https://doi.org/10.1136/ bjsports-2020-103652
Martínez González, M. Á., Sánchez-Villegas, A., Toledo Atucha, E., & Faulin Fajardo, J. (2020). Bioestadística amigable (4th ed.). Elsevier.
Monsarrat, P., & Vergnes, J.-N. (2018). The intriguing evolution of effect sizes in biomedical research over time: smaller but more often statistically significant. GigaScience, 7(1). https://doi.org/10.1093/gigascience/gix121
Nair, A. (2019). Publication bias - Importance of studies with negative results! Indian Journal of Anaesthesia, 63(6),
505. https://doi.org/10.4103/ija.IJA_142_19
Nath, S. B., Marcus, S. C., & Druss, B. G. (2006). Retractions in the research literature: misconduct or mistakes?
Medical Journal of Australia, 185(3), 152–154. https://doi.org/10.5694/j.1326-5377.2006.tb00504.x
National Academy of Sciences Engineering and Medicine. (1995). On Being a Scientist. National Academies Press. https://doi.org/10.17226/4917
Pagano, M., Gauvreau, K., & Mattie, H. (2022). Principles of Biostatistics (3rd ed.). Chapman and Hall/CRC. https:// doi.org/10.1201/9780429340512
Pascual, A., & Martínez, L. (2016). Mala conducta y conflicto de intereses en las publicaciones científicas. In J. Jiménez, J. Argimon, A. Martín, & M. Vilardell (Eds.), Publicación científica biomédica. Cómo escribir y publicar un artículo de investigación (2nd ed.). Elsevier.
Prieto, L., & Herranz, I. (2010). Bioestadística sin dificultades matemáticas: En busca de tesoros escondidos. Ediciones Díaz de Santos.
Riegelman, R., & Hirsh, R. (1992). Cómo estudiar un estudio y probar una prueba: lectura crítica de la literatura médica.
Organización Panamericana de la Salud. https://iris.paho.org/handle/10665.2/3309
Ruiz, A., & Morillo, L. (2004). Epidemiología Clínica: Investigación clínica aplicada. Editorial Médica Panamericana.
Sasannia, S., Amini, M., Moosavi, M., Askarinejad, A., Moghadami, M., Ziaee, H., & Vara, F. (2022). Critical appraisal skills training to undergraduate medical students: A Randomized Control Study. Journal of Advances in Medical Education & Professionalism, 10(4), 253–258. https://doi.org/10.30476/JAMP.2022.94852.1610
Seife, C. (2015). Research Misconduct Identified by the US Food and Drug Administration. JAMA Internal Medicine, 175(4), 567. https://doi.org/10.1001/jamainternmed.2014.7774
Shapin, S. (1995). Trust, Honesty, and the Authority of Science. In Institute of Medicine (US) & Committe on the Social and Ethical Impacts of Developments (Eds.), Society’s Choices: Social and Ethical Decision Making in Biomedicine. National Academies Press. https://doi.org/10.17226/4771
Sharma, H. (2021). Statistical significance or clinical significance? A researcher’s dilemma for appropriate interpretation of research results. Saudi Journal of Anaesthesia, 15(4), 431–434. https://doi.org/10.4103/ sja.sja_158_21
Silva-Aycaguer, L. C. (2016). Las pruebas de significación estadística: seis décadas de fuegos artificiales. Revista Facultad Nacional de Salud Pública, 34(3). https://doi.org/10.17533/udea.rfnsp.v34n3a11
Silva Aycaguer, L. C. (2018). Errores metodológicos frecuentes en la investigación clínica. Medicina Intensiva, 42(9),
541–546. https://doi.org/10.1016/j.medin.2017.12.012
Slutsky, D. (2013). Statistical Errors in Clinical Studies. Journal of Wrist Surgery, 02(04), 285–287. https://doi.org/ 10.1055/s-0033-1359421
Smith, R. (2006). The trouble with medical journals. Journal of the Royal Society of Medicine, 99(3), 115–119. https:// doi.org/10.1258/jrsm.99.3.115
Strasak, A. M., Zaman, Q., Pfeiffer, K. P., Göbel, G., Ulmer, H., Gobel, G., & Ulmer, H. (2007). Statistical errors in medical research - a review of common pitfalls. Swiss Medical Weekly, 137(3–4), 44–49. https://doi.org/10.4414/ smw.2007.11587
Straus, S., Glasziou, P., Richardson, S., & Haynes, B. (2019). Medicina basada en la evidencia. Cómo practicar y enseñar la MBE (5th ed.). Elservier.
Subramanyam, R. (2013). Art of reading a journal article: Methodically and effectively. Journal of Oral and Maxillofacial Pathology : JOMFP, 17(1), 65–70. https://doi.org/10.4103/0973-029X.110733
Suresh, K., & Chandrashekara, S. (2012). Sample size estimation and power analysis for clinical research studies.
Journal of Human Reproductive Sciences, 5(1), 7. https://doi.org/10.4103/0974-1208.97779
Tong, C. (2019). Statistical Inference Enables Bad Science; Statistical Thinking Enables Good Science. The American Statistician, 73(sup1), 246–261. https://doi.org/10.1080/00031305.2018.1518264
Van Noorden, R. (2011). Science publishing: The trouble with retractions. Nature, 478(7367), 26–28. https:// doi.org/10.1038/478026a
Weigmann, K. (2005). The consequence of errors. EMBO Reports, 6(4), 306–309. https://doi.org/10.1038/ sj.embor.7400389
Wood, S., Paulis, J., & Chen, A. (2022). Emergency physicians’ perceptions of critical appraisal skills: a qualitative study. BMC Medical Education, 22(1), 287. https://doi.org/10.1186/s12909-022-03358-y
Young, J. M., & Solomon, M. J. (2009). How to critically appraise an article. Nature Clinical Practice Gastroenterology & Hepatology, 6(2), 82–91. https://doi.org/10.1038/ncpgasthep1331
Zar, J. (2014). Biostatistical Analysis (5th ed.). Pearson Education Limited.
Disponible en: https://portal.amelica.org/ameli/ameli/journal/ 50/505106005/505106005.pdf
Cómo citar el artículo Número completo
Página de la revista en portal.amelica.org
AmeliCA
Ciencia Abierta para el Bien Común
Andre Chocó-Cedillos
Errores y mala práctica en publicaciones científicas en las ciencias biomédicas: una revisión narrativa
Revista Científica (Instituto de Investigaciones Químicas y Biológicas. Facultad de Ciencias Químicas y Farmacia.
Universidad de San Carlos de Guatemala)
vol. 32, núm. 2, 2025
Universidad de San Carlos de Guatemala, Guatemala cientifica.revista@usac.edu.gt
DOI: https://doi.org/1054495/Rev.Cientifica.v32i2.419