AI and Image Manipulation in Research: Safeguarding Scientific Integrity

IA y manipulación de imágenes en la investigación: salvaguardando la integridad científica

May 09, 2025Rene Tetzner
⚠ La mayoría de las universidades y editoriales prohíben el contenido generado por IA y monitorean las tasas de similitud. La corrección de textos con IA puede aumentar estos puntajes, haciendo que los servicios humanos de corrección de textos sean la opción más segura.

Resumen

La inteligencia artificial (IA) se ha convertido en una fuerza poderosa en el procesamiento moderno de imágenes de investigación. Puede mejorar legítimamente la resolución, reducir el ruido y apoyar el análisis automatizado de imágenes en campos como la microscopía, la imagen médica, la astronomía y las simulaciones computacionales. Al mismo tiempo, las herramientas de generación y edición de imágenes impulsadas por IA han facilitado más que nunca alterar, fabricar o manipular selectivamente imágenes de investigación. Esto plantea riesgos serios para la integridad de la investigación, la reproducibilidad y la confianza pública en los hallazgos científicos.

Este artículo explica cómo la IA puede usarse tanto ética como éticamente en la imagen científica, desde la mejora legítima y la visualización de datos hasta prácticas fraudulentas como imágenes deepfake, figuras duplicadas y alteradas, y edición selectiva de resultados experimentales. Explora las consecuencias de la manipulación de imágenes impulsada por IA, incluyendo retractaciones de artículos, esfuerzo de investigación desperdiciado, carreras dañadas y pérdida de confianza en la ciencia. Luego describe cómo la informática forense basada en IA, la detección de plagio de imágenes, modelos de reconocimiento de patrones, seguimiento con blockchain y sistemas híbridos de revisión humano–IA se están implementando para detectar imágenes sospechosas antes y después de la publicación.

Finalmente, el artículo propone estrategias prácticas para prevenir el fraude con imágenes generadas por IA: políticas institucionales y de revistas claras, revisión obligatoria de imágenes, requisitos de datos en bruto, prácticas de datos [open], capacitación para investigadores y sanciones estrictas por mala conducta. El mensaje central es que la IA es una espada de doble filo: puede fortalecer enormemente la imagen científica cuando se usa de manera transparente y responsable, pero también puede socavar todo el registro de investigación si se abusa de ella. Un enfoque multinivel que combine herramientas de IA con una supervisión humana robusta y controles cuidadosos realizados por humanos en cada etapa del proceso de publicación ofrece la mejor vía para salvaguardar la integridad de la investigación en la era de la manipulación de imágenes impulsada por IA.

📖 Artículo completo (Haga clic para colapsar)

IA y manipulación de imágenes en la investigación: riesgos, detección y cómo salvaguardar la integridad científica

Introducción

La inteligencia artificial (IA) se ha integrado rápidamente en prácticamente todas las etapas del proceso de investigación. Desde analizar conjuntos de datos complejos hasta segmentar imágenes médicas y automatizar flujos estadísticos, la IA puede acelerar dramáticamente los flujos de trabajo científicos y revelar patrones que de otro modo pasarían desapercibidos. Sin embargo, junto con estos beneficios, la IA también ha introducido una nueva vía poderosa para la manipulación de imágenes en publicaciones científicas.

Las figuras e imágenes no son elementos decorativos en los artículos de investigación; a menudo son piezas centrales de evidencia. Las imágenes de microscopía muestran cambios celulares, los blots reflejan la expresión de proteínas, los escáneres médicos ilustran patologías y las salidas de simulación visualizan sistemas físicos complejos. Cuando estas imágenes son precisas y procesadas adecuadamente, ayudan a los lectores a evaluar la solidez de un estudio. Cuando son manipuladas—especialmente con herramientas sofisticadas de IA—pueden distorsionar fundamentalmente el registro científico.

El crecimiento reciente de herramientas de edición y generación de imágenes basadas en IA ha facilitado significativamente mejorar, alterar o fabricar imágenes de investigación. Ajustes menores como la reducción de ruido o el aumento de contraste pueden ser legítimos e incluso necesarios; sin embargo, las mismas técnicas pueden llevarse a un territorio éticamente inaceptable cuando eliminan datos reales, crean estructuras artificiales o engañan a los lectores sobre lo que realmente mostraron los experimentos.

Este artículo examina el doble papel de la IA en la imagen científica. Explora cómo la IA puede mejorar éticamente la calidad de las imágenes y apoyar el análisis, pero también cómo puede ser mal utilizada para fabricar resultados y engañar a la comunidad científica. Luego discute el impacto de la manipulación de imágenes impulsada por IA en la integridad de la investigación, revisa enfoques basados en IA para detectar fraudes y describe pasos concretos que investigadores, revistas e instituciones pueden tomar para prevenir y responder a la mala conducta con imágenes asistida por IA.

El papel de las imágenes en la investigación científica

Las imágenes juegan un papel particularmente importante en muchas disciplinas, incluyendo biología, medicina, química, física, ciencia de materiales y astronomía. Ejemplos comunes incluyen:

  • Imágenes de microscopía que muestran células, tejidos o estructuras subcelulares.
  • Imágenes médicas como radiografías, MRI, CT o ecografías.
  • Western blots, geles y otras lecturas de ensayos usados para cuantificar proteínas, ADN o ARN.
  • Resultados de simulación y modelado que representan flujos de fluidos, dinámica molecular o modelos climáticos.
  • Imágenes astronómicas que capturan galaxias, exoplanetas o radiación cósmica de fondo.

Estas imágenes hacen más que ilustrar una historia: respaldan afirmaciones y a menudo sustentan análisis cuantitativos. En consecuencia, alterarlas inapropiadamente puede cambiar los resultados aparentes de los experimentos y sesgar las conclusiones, incluso si el texto acompañante permanece sin cambios. Por eso la mayoría de los editores ahora proporcionan directrices explícitas sobre qué tipos de procesamiento de imágenes son aceptables —por ejemplo, ajustes uniformes de brillo y contraste— y qué prácticas, como empalmar carriles sin anotación o borrar selectivamente características, constituyen mala conducta.

IA en el procesamiento de imágenes: usos éticos y poco éticos

Las herramientas impulsadas por IA se utilizan en una gama creciente de tareas relacionadas con imágenes. La distinción clave no es si se usa IA, sino cómo se usa y si los datos subyacentes siguen siendo representaciones fieles de la realidad.

Usos éticos de la IA en imágenes científicas

Cuando se aplica de manera transparente y dentro de las directrices acordadas, la IA puede mejorar enormemente la calidad e interpretabilidad de las imágenes de investigación. Las aplicaciones legítimas incluyen:

  • Mejora de resolución: Los modelos de aprendizaje profundo pueden aumentar la resolución de imágenes de baja calidad, revelando detalles que de otro modo serían difíciles de ver, especialmente en imágenes con poca luz o baja dosis donde los datos en bruto son ruidosos.
  • Reducción de ruido y eliminación de artefactos: La IA puede filtrar el ruido aleatorio de imágenes de microscopía, astronómicas o médicas sin alterar las estructuras subyacentes, siempre que el proceso esté validado y documentado.
  • Segmentación y cuantificación automatizadas: El análisis de imágenes basado en IA puede identificar los límites celulares, lesiones o características en grandes conjuntos de imágenes, permitiendo mediciones consistentes y reproducibles a gran escala.
  • Visualización de datos: La IA puede ayudar a generar representaciones claras y estructuradas de conjuntos de datos multidimensionales complejos, por ejemplo, destacando regiones relevantes o generando mapas de calor para resultados estadísticos.

En todos estos casos, la práctica ética requiere que la cadena de procesamiento de IA sea transparente, validada y divulgada. Los autores deben poder mostrar cómo las imágenes procesadas se relacionan con los datos en bruto y explicar qué ajustes se hicieron y por qué.

Usos poco éticos: Fabricación y manipulación de imágenes facilitadas por IA

Las mismas capacidades que hacen útil a la IA pueden ser explotadas para conductas indebidas. Los usos poco éticos de la IA en imágenes de investigación incluyen:

  • Alteración de resultados experimentales: Uso de edición basada en IA para eliminar imperfecciones, bandas o puntos de datos que contradicen una hipótesis, o para intensificar señales y hacer que los efectos parezcan más fuertes de lo que son.
  • Imágenes científicas “deepfake” generadas por IA: Crear datos de microscopía o imágenes completamente artificiales que nunca provinieron de experimentos reales, y luego presentarlos como resultados genuinos.
  • Duplicar y reutilizar imágenes con modificaciones sutiles: Copiar una imagen de otro estudio—o de otro experimento dentro del mismo estudio—y usar herramientas de IA para voltear, recortar, ajustar colores o añadir variación sintética para que parezca mostrar una condición diferente.
  • Edición y recorte selectivo: Eliminar partes inconvenientes de una imagen (por ejemplo, experimentos fallidos o carriles inconsistentes en un blot) mientras se deja el resto intacto, engañando a los lectores sobre la variabilidad o señales de fondo.

A medida que las herramientas de IA se vuelven más fáciles de usar y más potentes, la barrera técnica para dicha manipulación está disminuyendo. Esto ha contribuido a un aumento notable en las preocupaciones relacionadas con imágenes y retractaciones en la literatura, lo que ha llevado a las revistas a invertir en herramientas de detección más sofisticadas.

El Impacto de la Manipulación de Imágenes por IA en la Integridad Científica

Pérdida de Confianza en la Investigación

La ciencia depende de la confianza: confianza en que los métodos se reportan honestamente, que los datos no son fabricados y que las figuras representan con precisión los resultados experimentales. Cuando se usa IA para manipular imágenes, se socava directamente esta confianza. Incluso un pequeño número de casos de fraude de alto perfil puede generar sospechas generalizadas, especialmente en áreas sensibles como ensayos clínicos o desarrollo farmacéutico.

Investigación Errónea y Recursos Desperdiciados

Las imágenes fraudulentas no solo son poco éticas; también son perjudiciales para el progreso. Si otros científicos basan sus propios experimentos en datos fabricados, se pueden distorsionar líneas enteras de investigación. Se puede invertir tiempo, financiamiento y esfuerzo en intentar replicar resultados que nunca fueron reales, retrasando avances genuinos y desplazando trabajos más prometedores.

Retractaciones, Sanciones y Carreras Dañadas

Cuando se descubren imágenes manipuladas después de la publicación, las revistas pueden retractar los artículos afectados. Las retractaciones son visibles públicamente y pueden tener consecuencias a largo plazo:

  • Los autores pueden perder financiamiento para la investigación, oportunidades profesionales o puestos académicos.
  • Los coautores e instituciones pueden sufrir daños reputacionales, incluso si no estuvieron directamente involucrados en la mala conducta.
  • En casos extremos, pueden intervenir organismos legales o regulatorios, especialmente en campos relacionados con la seguridad del paciente o el riesgo ambiental.

Daño a la Confianza Pública en la Ciencia

En una era de comunicación rápida y redes sociales, los casos de fraude científico llegan rápidamente al público. Cuando la mala conducta implica imágenes manipuladas por IA en áreas como la investigación del cáncer o el desarrollo de vacunas, puede alimentar teorías conspirativas, fomentar el escepticismo y dificultar que los responsables políticos y clínicos confíen en el asesoramiento científico. Por lo tanto, proteger la integridad de las imágenes no es solo un asunto académico interno; también es una cuestión de confianza pública.

Cómo se usa la IA para detectar manipulación de imágenes

Afortunadamente, la IA no solo es parte del problema, también es parte de la solución. Las mismas técnicas que permiten la edición sofisticada de imágenes pueden emplearse para identificar signos de manipulación y apoyar a editores y revisores en la protección de la literatura.

Forense de imágenes impulsada por IA

Las herramientas forenses basadas en IA pueden analizar imágenes en busca de irregularidades sutiles que pueden indicar manipulación. Estos sistemas pueden detectar:

  • Patrones de píxeles inconsistentes que surgen cuando se combinan elementos de diferentes imágenes.
  • Anomalías de iluminación y sombreado que sugieren que objetos fueron insertados o eliminados artificialmente.
  • Artefactos de clonación y duplicación donde regiones de una imagen han sido copiadas y pegadas en otro lugar.

Estas herramientas pueden operar a una escala que sería imposible para revisores humanos solos, escaneando un gran número de envíos y señalando figuras sospechosas para un examen más detallado.

Detección de plagio y reutilización de imágenes

Así como los servicios de detección de plagio comparan texto contra grandes bases de datos, las herramientas especializadas pueden comparar imágenes de investigación contra repositorios de figuras previamente publicadas. Pueden identificar:

  • Imágenes reutilizadas que aparecen en varios artículos pero se presentan como experimentos distintos.
  • Versiones recortadas, rotadas o ajustadas en color de la misma imagen usadas en diferentes contextos.

Esto ayuda a los editores a detectar fábricas de artículos o infractores en serie que reutilizan los mismos datos visuales en muchas publicaciones.

Reconocimiento de patrones en imágenes específicas del dominio

Los modelos de aprendizaje automático entrenados con conjuntos de datos específicos del dominio—como diapositivas de histología, imágenes de gel o fotos astronómicas—pueden aprender cómo son los patrones “normales”. Luego pueden detectar estructuras o texturas implausibles que podrían indicar generación o manipulación artificial.

Blockchain y seguimiento de la procedencia

Algunas instituciones y consorcios están experimentando con sistemas basados en blockchain para registrar y verificar la procedencia de imágenes de investigación. Al asignar una firma criptográfica única a las imágenes originales en el momento de la adquisición y almacenar esa firma en un libro mayor distribuido, se vuelve posible confirmar si una imagen publicada corresponde a los datos originales o ha sido alterada.

Modelos híbridos de revisión Humano–IA

Ni las mejores herramientas de IA pueden reemplazar completamente el juicio experto. Muchas revistas están avanzando hacia flujos de trabajo híbridos en los que:

  • Los sistemas de IA preseleccionan imágenes y generan informes sobre posibles anomalías.
  • Los editores y revisores experimentados evalúan las imágenes señaladas en contexto, verificando contra los datos sin procesar y la narrativa del estudio.

Esta combinación permite un cribado eficiente sin abdicar la responsabilidad humana en las decisiones finales.

Prevención de la manipulación de imágenes con IA: políticas y mejores prácticas

La detección es importante, pero la prevención es aún mejor. Una respuesta robusta a la manipulación de imágenes asistida por IA requiere acción coordinada de investigadores, instituciones, financiadores y editores.

Establecer directrices éticas claras

Las universidades, institutos de investigación y revistas deberían publicar políticas explícitas sobre el procesamiento de imágenes aceptable e inaceptable. Estas políticas deberían distinguir entre:

  • Ajustes permitidos como cambios uniformes de brillo/contraste o recortes menores para mayor claridad.
  • Manipulaciones prohibidas que incluyen eliminar o insertar características, empalmar imágenes sin anotación o usar IA para generar datos sintéticos presentados como reales.
  • Requisitos de divulgación cuando se hayan utilizado herramientas basadas en IA (para mejora o análisis).

Integrar el cribado obligatorio de imágenes basado en IA

Las revistas deberían incorporar análisis de imágenes impulsados por IA en sus controles rutinarios de envío, especialmente en campos donde la evidencia basada en imágenes es central. Esto puede detectar muchos problemas antes de que los artículos lleguen a la revisión por pares o publicación.

Exigir datos sin procesar y archivos originales

Para permitir la verificación, las revistas pueden exigir que los autores envíen archivos de imágenes sin procesar (por ejemplo, datos originales de microscopía o imágenes) junto con las figuras procesadas. Los editores y revisores pueden entonces:

  • Verificar que las figuras publicadas reflejen con precisión los originales.
  • Confirmar que cualquier procesamiento basado en IA sea transparente y justificado.

Promover datos abiertos y reproducibilidad

Las prácticas de datos abiertos—donde las imágenes sin procesar, los scripts de análisis y los metadatos se comparten en repositorios confiables—facilitan que otros investigadores reproduzcan hallazgos basados en imágenes y detecten posibles problemas después de la publicación. La transparencia actúa como un poderoso disuasivo contra la mala conducta.

Capacitar a los investigadores en el uso responsable de la IA

Los investigadores en etapas iniciales de su carrera pueden no comprender completamente los límites éticos de la manipulación de imágenes basada en IA. Las instituciones deberían ofrecer capacitación que cubra:

  • La diferencia entre la mejora legítima y la alteración fraudulenta.
  • Los riesgos asociados con imágenes generadas por IA y deepfakes.
  • Mejores prácticas para documentar y divulgar los flujos de trabajo de procesamiento de imágenes.

Fortalecer las sanciones por mala conducta

Para disuadir el fraude de imágenes asistido por IA, debe haber consecuencias reales cuando ocurra. Las respuestas posibles incluyen:

  • Retracción pública de los artículos afectados con explicaciones claras.
  • Prohibiciones temporales o permanentes en la presentación para autores encontrados culpables de manipulaciones graves.
  • Reportar a empleadores, financiadores y, cuando corresponda, a organismos reguladores.

El papel de la supervisión humana y la verificación independiente

En última instancia, la IA por sí sola no puede garantizar la integridad de la investigación. Los humanos deben seguir siendo responsables de diseñar experimentos, interpretar datos y asegurar que las imágenes y figuras reflejen fielmente la realidad. Esto incluye:

  • Supervisores que revisan cuidadosamente las figuras producidas por estudiantes e investigadores en etapas iniciales.
  • Coautores que examinan las imágenes en busca de inconsistencias antes de la presentación.
  • Editores y revisores que solicitan aclaraciones o datos en bruto cuando el procesamiento de imágenes parece excesivo o poco claro.

Muchos investigadores también optan por que sus manuscritos y leyendas de figuras sean revisados por correctores y editores humanos independientes antes de la presentación. A diferencia de las herramientas de reescritura por IA, que pueden aumentar los puntajes de similitud o alterar inadvertidamente el significado, la corrección académica profesional se centra en la claridad, consistencia y estilo, dejando los datos subyacentes e imágenes sin cambios—una salvaguarda importante en un entorno de creciente escrutinio sobre el uso de IA.

Conclusión

La IA ha traído avances notables a la imagen científica, permitiendo imágenes más claras, análisis más rápidos y flujos de trabajo más eficientes. Pero también ha abierto la puerta a nuevas formas de mala conducta basada en imágenes, desde manipulaciones sutiles hasta resultados totalmente sintéticos o “deepfake”. Estas prácticas amenazan no solo estudios individuales sino la credibilidad de la empresa científica en su conjunto.

Para responder eficazmente, la comunidad investigadora debe tratar la IA tanto como una herramienta como un factor de riesgo. El análisis forense basado en IA, la detección de plagio en imágenes, los modelos de reconocimiento de patrones y el seguimiento de la procedencia mediante blockchain tienen todos roles importantes en la detección de manipulaciones. Al mismo tiempo, son esenciales directrices éticas sólidas, educación para investigadores, la presentación obligatoria de datos en bruto, prácticas de datos abiertos y sanciones significativas para la prevención.

El futuro de la ciencia confiable dependerá de un enfoque híbrido y multinivel: la IA se utilizará para filtrar, apoyar y señalar posibles problemas, pero los humanos seguirán siendo responsables de los juicios finales y la supervisión ética. Al combinar el despliegue responsable de la IA con una revisión humana rigurosa—y evitando atajos riesgosos como la reescritura por IA en favor de un apoyo transparente y centrado en el humano, como la corrección académica experta—la comunidad investigadora puede aprovechar las fortalezas de la IA mientras protege la integridad del registro científico para las generaciones futuras.



Más artículos

Editing & Proofreading Services You Can Trust

At Proof-Reading-Service.com we provide high-quality academic and scientific editing through a team of native-English specialists with postgraduate degrees. We support researchers preparing manuscripts for publication across all disciplines and regularly assist authors with:

Our proofreaders ensure that manuscripts follow journal guidelines, resolve language and formatting issues, and present research clearly and professionally for successful submission.

Specialised Academic and Scientific Editing

We also provide tailored editing for specific academic fields, including:

If you are preparing a manuscript for publication, you may also find the book Guide to Journal Publication helpful. It is available on our Tips and Advice on Publishing Research in Journals website.