AI and Image Manipulation in Research: Safeguarding Scientific Integrity

KI und Bildmanipulation in der Forschung: Schutz der wissenschaftlichen Integrität

May 09, 2025Rene Tetzner
⚠ Die meisten Universitäten und Verlage verbieten KI-generierte Inhalte und überwachen Ähnlichkeitsraten. KI-Korrekturlesen kann diese Werte erhöhen, weshalb menschliche proofreading services die sicherste Wahl sind.

Zusammenfassung

Künstliche Intelligenz (KI) ist zu einer mächtigen Kraft in der modernen Bildverarbeitung in der Forschung geworden. Sie kann die Auflösung legitim verbessern, Rauschen reduzieren und die automatisierte Bildanalyse in Bereichen wie Mikroskopie, medizinischer Bildgebung, Astronomie und computergestützten Simulationen unterstützen. Gleichzeitig haben KI-gestützte Bildgenerierungs- und Bearbeitungstools es einfacher denn je gemacht, Forschungsbilder zu verändern, zu fälschen oder selektiv zu manipulieren. Dies stellt ernsthafte Risiken für die Integrität der Forschung, die Reproduzierbarkeit und das öffentliche Vertrauen in wissenschaftliche Erkenntnisse dar.

Dieser Artikel erklärt, wie KI sowohl ethisch als auch unethisch in der wissenschaftlichen Bildgebung eingesetzt werden kann, von legitimer Verbesserung und Datenvisualisierung bis hin zu betrügerischen Praktiken wie Deepfake-Bildern, duplizierten und veränderten Abbildungen sowie selektiver Bearbeitung von Versuchsergebnissen. Er untersucht die Folgen der KI-gesteuerten Bildmanipulation, einschließlich Rücknahmen von Publikationen, verschwendeter Forschungsarbeit, beschädigter Karrieren und Vertrauensverlust in die Wissenschaft. Anschließend wird dargestellt, wie KI-basierte Forensik, Bildplagiatserkennung, Mustererkennungsmodelle, Blockchain-Tracking und hybride Mensch-KI-Überprüfungssysteme eingesetzt werden, um verdächtige Bilder vor und nach der Veröffentlichung zu erkennen.

Abschließend schlägt der Artikel praktische Strategien zur Verhinderung von KI-Bildbetrug vor: klare institutionelle und Zeitschriftenrichtlinien, verpflichtende Bildüberprüfung, Anforderungen an Rohdaten, offene Datenpraktiken, Schulungen für Forschende und strenge Sanktionen bei Fehlverhalten. Die zentrale Botschaft ist, dass KI ein zweischneidiges Schwert ist: Sie kann die wissenschaftliche Bildgebung erheblich stärken, wenn sie transparent und verantwortungsvoll eingesetzt wird, aber sie kann auch den gesamten Forschungsbericht untergraben, wenn sie missbraucht wird. Ein mehrschichtiger Ansatz, der KI-Tools mit robuster menschlicher Aufsicht kombiniert – und sorgfältige, von Menschen durchgeführte Kontrollen in jeder Phase des Publikationsprozesses – bietet den besten Weg, die Integrität der Forschung im Zeitalter der KI-gesteuerten Bildmanipulation zu schützen.

📖 Vollständiger Artikel (Zum Zusammenklappen klicken)

KI und Bildmanipulation in der Forschung: Risiken, Erkennung und Schutz der wissenschaftlichen Integrität

Einleitung

Künstliche Intelligenz (KI) ist inzwischen in nahezu jeder Phase des Forschungsprozesses fest verankert. Von der Analyse komplexer Datensätze über die Segmentierung medizinischer Bilder bis hin zur Automatisierung statistischer Abläufe kann KI wissenschaftliche Arbeitsabläufe erheblich beschleunigen und Muster aufdecken, die sonst übersehen würden. Doch neben diesen Vorteilen hat KI auch einen mächtigen neuen Weg für Bildmanipulation in wissenschaftlichen Publikationen eröffnet.

Abbildungen und Bilder sind keine dekorativen Extras in Forschungsarbeiten; sie sind oft zentrale Elemente des Beweises. Mikroskopiebilder zeigen zelluläre Veränderungen, Blots spiegeln die Proteinexpression wider, medizinische Scans veranschaulichen Pathologien und Simulationsergebnisse visualisieren komplexe physikalische Systeme. Wenn diese Bilder genau und angemessen verarbeitet sind, helfen sie den Lesern, die Robustheit einer Studie zu bewerten. Werden sie manipuliert – insbesondere mit ausgefeilten KI-Tools – können sie das wissenschaftliche Protokoll grundlegend verfälschen.

Das jüngste Wachstum von KI-basierten Bearbeitungs- und Bildgenerierungstools hat es erheblich erleichtert, Forschungsbilder zu verbessern, zu verändern oder zu fälschen. Kleine Anpassungen wie Rauschreduzierung oder Kontrastverbesserung können legitim und sogar notwendig sein; dieselben Techniken können jedoch in ethisch unzulässige Bereiche abgleiten, wenn sie echte Daten entfernen, künstliche Strukturen erzeugen oder Leser über die tatsächlichen Ergebnisse von Experimenten täuschen.

Dieser Artikel untersucht die doppelte Rolle von KI in der wissenschaftlichen Bildgebung. Er beleuchtet, wie KI die Bildqualität ethisch verbessern und die Analyse unterstützen kann, aber auch, wie sie missbraucht werden kann, um Ergebnisse zu fälschen und die wissenschaftliche Gemeinschaft zu täuschen. Anschließend wird die Auswirkung KI-gesteuerter Bildmanipulation auf die Forschungsintegrität diskutiert, KI-basierte Ansätze zur Betrugserkennung vorgestellt und konkrete Maßnahmen skizziert, die Forschende, Fachzeitschriften und Institutionen ergreifen können, um KI-unterstütztem Bildmissbrauch vorzubeugen und darauf zu reagieren.

Die Rolle von Bildern in der wissenschaftlichen Forschung

Bilder spielen in vielen Disziplinen eine besonders wichtige Rolle, darunter Biologie, Medizin, Chemie, Physik, Materialwissenschaft und Astronomie. Häufige Beispiele sind:

  • Mikroskopiebilder, die Zellen, Gewebe oder subzelluläre Strukturen zeigen.
  • Medizinische Bildgebung wie Röntgenaufnahmen, MRT, CT oder Ultraschalluntersuchungen.
  • Western Blots, Gele und andere Assay-Auswertungen, die zur Quantifizierung von Proteinen, DNA oder RNA verwendet werden.
  • Simulationen und Modellierungsergebnisse, die Strömungen, molekulare Dynamik oder Klimamodelle darstellen.
  • Astronomische Bilder, die Galaxien, Exoplaneten oder kosmische Hintergrundstrahlung erfassen.

Diese Bilder illustrieren nicht nur eine Geschichte – sie stützen Behauptungen und bilden oft die Grundlage quantitativer Analysen. Folglich kann eine unangemessene Veränderung die scheinbaren Ergebnisse von Experimenten verändern und Schlussfolgerungen verzerren, selbst wenn der begleitende Text unverändert bleibt. Deshalb geben die meisten Verlage heute explizite Richtlinien vor, welche Arten der Bildbearbeitung akzeptabel sind – zum Beispiel einheitliche Helligkeits- und Kontrastanpassungen – und welche Praktiken, wie das Zusammensetzen von Bahnen ohne Kennzeichnung oder selektives Löschen von Merkmalen, als Fehlverhalten gelten.

KI in der Bildverarbeitung: Ethische und unethische Anwendungen

KI-gesteuerte Werkzeuge werden in einem wachsenden Spektrum bildbezogener Aufgaben eingesetzt. Der entscheidende Unterschied liegt nicht darin, ob KI verwendet wird, sondern wie sie verwendet wird und ob die zugrundeliegenden Daten weiterhin getreue Darstellungen der Realität sind.

Ethische Anwendungen von KI in der wissenschaftlichen Bildgebung

Wenn transparent und innerhalb vereinbarter Richtlinien angewandt, kann KI die Qualität und Interpretierbarkeit von Forschungsbildern erheblich verbessern. Legitime Anwendungen umfassen:

  • Auflösungsverbesserung: Deep-Learning-Modelle können Bilder mit niedriger Auflösung hochskalieren und Details sichtbar machen, die sonst schwer zu erkennen wären, insbesondere bei Aufnahmen mit wenig Licht oder niedriger Dosis, bei denen Rohdaten verrauscht sind.
  • Rauschreduzierung und Artefaktentfernung: KI kann zufälliges Rauschen aus Mikroskopie-, Astronomie- oder medizinischen Bildern herausfiltern, ohne die zugrundeliegenden Strukturen zu verändern, vorausgesetzt, der Prozess ist validiert und dokumentiert.
  • Automatisierte Segmentierung und Quantifizierung: KI-basierte Bildanalyse kann Zellgrenzen, Läsionen oder Merkmale in großen Bildersätzen identifizieren und so konsistente und reproduzierbare Messungen im großen Maßstab ermöglichen.
  • Datenvisualisierung: KI kann helfen, klare, strukturierte Darstellungen komplexer multidimensionaler Datensätze zu erzeugen, zum Beispiel durch Hervorheben relevanter Bereiche oder Erzeugen von Heatmaps für statistische Ergebnisse.

In all diesen Fällen erfordert ethisches Verhalten, dass die KI-Pipeline transparent, validiert und offengelegt wird. Autoren sollten zeigen können, wie verarbeitete Bilder mit den Rohdaten zusammenhängen und erklären, welche Anpassungen vorgenommen wurden und warum.

Unethische Anwendungen: KI-gestützte Bildfälschung und -manipulation

Die gleichen Fähigkeiten, die KI nützlich machen, können für Fehlverhalten ausgenutzt werden. Unethische Anwendungen von KI in Forschungsbildern umfassen:

  • Veränderung experimenteller Ergebnisse: Die Verwendung KI-basierter Bearbeitung, um Makel, Bänder oder Datenpunkte zu entfernen, die einer Hypothese widersprechen, oder um Signale zu verstärken, damit Effekte stärker erscheinen, als sie sind.
  • KI-generierte „Deepfake“-wissenschaftliche Bilder: Erstellen vollständig künstlicher Mikroskopie- oder Bildgebungsdaten, die nie aus echten Experimenten stammen, und diese dann als echte Ergebnisse präsentieren.
  • Duplizieren und Wiederverwenden von Bildern mit subtilen Modifikationen: Kopieren eines Bildes aus einer anderen Studie – oder einem anderen Experiment derselben Studie – und Verwenden von KI-Tools, um es zu spiegeln, zuzuschneiden, Farben anzupassen oder synthetische Variationen hinzuzufügen, sodass es eine andere Bedingung zu zeigen scheint.
  • Selektives Bearbeiten und Zuschneiden: Entfernen unbequemer Bildteile (zum Beispiel fehlgeschlagene Experimente oder inkonsistente Bahnen in einem Blot), während der Rest intakt bleibt, was die Leser über Variabilität oder Hintergrundsignale irreführt.

Da KI-Tools immer einfacher zu bedienen und leistungsfähiger werden, sinkt die technische Hürde für solche Manipulationen. Dies hat zu einem spürbaren Anstieg von bildbezogenen Bedenken und Rücknahmen in der Literatur geführt, was Zeitschriften dazu veranlasst, in ausgefeiltere Screening-Tools zu investieren.

Die Auswirkungen der KI-Bildmanipulation auf die wissenschaftliche Integrität

Verlust des Vertrauens in die Forschung

Wissenschaft beruht auf Vertrauen: Vertrauen darauf, dass Methoden ehrlich berichtet werden, dass Daten nicht gefälscht sind und dass Abbildungen experimentelle Ergebnisse genau darstellen. Wenn KI zur Bildmanipulation eingesetzt wird, untergräbt dies dieses Vertrauen direkt. Selbst eine kleine Anzahl von hochkarätigen Betrugsfällen kann weit verbreitete Verdachtsmomente erzeugen, besonders in sensiblen Bereichen wie klinischen Studien oder der Arzneimittelentwicklung.

Fehlgeleitete Forschung und verschwendete Ressourcen

Gefälschte Bilder sind nicht nur unethisch; sie sind auch schädlich für den Fortschritt. Wenn andere Wissenschaftler ihre eigenen Experimente auf gefälschten Daten aufbauen, können ganze Forschungsrichtungen verzerrt werden. Zeit, Mittel und Aufwand können in den Versuch investiert werden, Ergebnisse zu replizieren, die nie echt waren, was echte Fortschritte verzögert und vielversprechendere Arbeiten verdrängt.

Rücknahmen, Sanktionen und beschädigte Karrieren

Wenn manipulierte Bilder nach der Veröffentlichung entdeckt werden, können Zeitschriften die betroffenen Artikel zurückziehen. Rücknahmen sind öffentlich sichtbar und können langfristige Folgen haben:

  • Autoren können Forschungsmittel, Karrieremöglichkeiten oder akademische Positionen verlieren.
  • Mitautoren und Institutionen können einen Reputationsschaden erleiden, selbst wenn sie nicht direkt in das Fehlverhalten verwickelt waren.
  • In Extremfällen können rechtliche oder regulatorische Stellen eingeschaltet werden, insbesondere in Bereichen, die die Patientensicherheit oder Umweltrisiken betreffen.

Schaden am öffentlichen Vertrauen in die Wissenschaft

In einer Ära der schnellen Kommunikation und sozialen Medien erreichen Fälle von wissenschaftlichem Betrug rasch die Öffentlichkeit. Wenn Fehlverhalten KI-manipulierte Bilder in Bereichen wie der Krebsforschung oder der Impfstoffentwicklung betrifft, kann dies Verschwörungstheorien befeuern, Skepsis schüren und es für politische Entscheidungsträger und Kliniker erschweren, sich auf wissenschaftliche Ratschläge zu verlassen. Der Schutz der Bildintegrität ist daher nicht nur ein internes akademisches Thema; es ist auch eine Frage des öffentlichen Vertrauens.

Wie KI zur Erkennung von Bildmanipulationen eingesetzt wird

Glücklicherweise ist KI nicht nur Teil des Problems – sie ist auch Teil der Lösung. Dieselben Techniken, die eine anspruchsvolle Bildbearbeitung ermöglichen, können eingesetzt werden, um Anzeichen von Manipulation zu identifizieren und Herausgeber sowie Gutachter bei der Sicherung der Literatur zu unterstützen.

KI-gestützte Bildforensik

KI-basierte forensische Werkzeuge können Bilder auf subtile Unregelmäßigkeiten analysieren, die auf Manipulationen hinweisen können. Diese Systeme können Folgendes erkennen:

  • Inkonsistente Pixelmuster, die entstehen, wenn Elemente aus verschiedenen Bildern kombiniert werden.
  • Beleuchtungs- und Schattenanomalien, die darauf hindeuten, dass Objekte künstlich eingefügt oder entfernt wurden.
  • Klone- und Duplikationsartefakte, bei denen Bildbereiche kopiert und an anderer Stelle eingefügt wurden.

Diese Werkzeuge können in einem Umfang arbeiten, der für menschliche Prüfer allein unmöglich wäre, indem sie eine große Anzahl von Einreichungen scannen und verdächtige Abbildungen zur weiteren Untersuchung markieren.

Erkennung von Bildplagiaten und Wiederverwendung

So wie Plagiaterkennungsdienste Texte mit großen Datenbanken vergleichen, können spezialisierte Werkzeuge Forschungsbilder mit Repositorien zuvor veröffentlichter Abbildungen vergleichen. Sie können Folgendes identifizieren:

  • Wiederverwendete Bilder, die in mehreren Arbeiten erscheinen, aber als unterschiedliche Experimente dargestellt werden.
  • Zugeschnittene, gedrehte oder farblich angepasste Versionen desselben Bildes, die in unterschiedlichen Kontexten verwendet werden.

Dies hilft Herausgebern, Paper Mills oder Serienverbrecher zu erkennen, die dieselben visuellen Daten in vielen Publikationen wiederverwenden.

Mustererkennung in domänenspezifischen Bildern

Maschinelle Lernmodelle, die auf domänenspezifischen Datensätzen trainiert wurden – wie Histologieschnitte, Gelbilder oder astronomische Fotos – können lernen, wie „normale“ Muster aussehen. Sie können dann unplausible Strukturen oder Texturen erkennen, die auf künstliche Erzeugung oder Manipulation hinweisen könnten.

Blockchain und Herkunftsnachverfolgung

Einige Institutionen und Konsortien experimentieren mit blockchain-basierten Systemen, um die Herkunft von Forschungsbildern zu erfassen und zu verifizieren. Durch die Vergabe einer einzigartigen kryptografischen Signatur an Rohbilder zum Zeitpunkt der Aufnahme und die Speicherung dieser Signatur in einem verteilten Ledger wird es möglich, zu bestätigen, ob ein veröffentlichtes Bild den Originaldaten entspricht oder verändert wurde.

Hybride Mensch-KI-Überprüfungsmodelle

Selbst die besten KI-Tools können das Expertenurteil nicht vollständig ersetzen. Viele Fachzeitschriften bewegen sich in Richtung hybrider Arbeitsabläufe, bei denen:

  • KI-Systeme prüfen Bilder vor und erstellen Berichte über potenzielle Anomalien.
  • Herausgeber und erfahrene Gutachter bewerten die markierten Bilder im Kontext, überprüfen sie anhand der Rohdaten und der Erzählung der Studie.

Diese Kombination ermöglicht eine effiziente Prüfung, ohne die menschliche Verantwortung für endgültige Entscheidungen abzutreten.

Verhinderung von KI-Bildmanipulation: Richtlinien und bewährte Verfahren

Erkennung ist wichtig, aber Prävention ist noch besser. Eine robuste Reaktion auf KI-unterstützte Bildmanipulation erfordert koordinierte Maßnahmen von Forschern, Institutionen, Förderern und Verlagen.

Klare ethische Richtlinien festlegen

Universitäten, Forschungsinstitute und Zeitschriften sollten explizite Richtlinien zu akzeptabler und nicht akzeptabler Bildbearbeitung veröffentlichen. Diese Richtlinien sollten unterscheiden zwischen:

  • Erlaubte Anpassungen wie einheitliche Helligkeits-/Kontraständerungen oder geringfügiges Zuschneiden zur Klarheit.
  • Verbotene Manipulationen, einschließlich Löschen oder Einfügen von Merkmalen, Zusammensetzen von Bildern ohne Kennzeichnung oder Verwendung von KI zur Erzeugung synthetischer Daten, die als echt dargestellt werden.
  • Offenlegungspflichten, wenn KI-basierte Werkzeuge (zur Verbesserung oder Analyse) verwendet wurden.

Verpflichtende KI-basierte Bildprüfung integrieren

Zeitschriften sollten KI-gesteuerte Bildanalysen in ihre routinemäßigen Einreichungsprüfungen integrieren, insbesondere in Bereichen, in denen bildbasierte Beweise zentral sind. Dies kann viele Probleme erkennen, bevor Artikel die Peer-Review oder Veröffentlichung erreichen.

Rohdaten und Originaldateien anfordern

Um die Überprüfung zu ermöglichen, können Zeitschriften verlangen, dass Autoren Rohbilddateien (zum Beispiel originale Mikroskopie- oder Bildgebungsdaten) zusammen mit bearbeiteten Abbildungen einreichen. Herausgeber und Gutachter können dann:

  • Überprüfen Sie, ob veröffentlichte Abbildungen die Originale genau widerspiegeln.
  • Bestätigen Sie, dass jede KI-basierte Verarbeitung transparent und gerechtfertigt ist.

Offene Daten und Reproduzierbarkeit fördern

Offene Datenpraktiken – bei denen Rohbilder, Analyseskripte und Metadaten in vertrauenswürdigen Repositorien geteilt werden – erleichtern es anderen Forschern, bildbasierte Ergebnisse zu reproduzieren und potenzielle Probleme nach der Veröffentlichung zu erkennen. Transparenz wirkt als wirksames Mittel gegen Fehlverhalten.

Forscher im verantwortungsvollen Umgang mit KI schulen

Forscher in der Anfangsphase ihrer Karriere sind sich möglicherweise nicht vollständig der ethischen Grenzen der KI-basierten Bildmanipulation bewusst. Institutionen sollten Schulungen anbieten, die Folgendes abdecken:

  • Der Unterschied zwischen legitimer Verbesserung und betrügerischer Veränderung.
  • Die Risiken im Zusammenhang mit KI-generierten Bildern und Deepfakes.
  • Beste Praktiken zur Dokumentation und Offenlegung von Bildbearbeitungsabläufen.

Sanktionen bei Fehlverhalten verschärfen

Um KI-unterstützten Bildbetrug abzuschrecken, muss es echte Konsequenzen geben, wenn er auftritt. Mögliche Reaktionen umfassen:

  • Öffentliche Rücknahme betroffener Publikationen mit klaren Erklärungen.
  • Vorübergehende oder dauerhafte Einreichungssperren für Autoren, die schwerwiegender Manipulationen schuldig gesprochen werden.
  • Meldung an Arbeitgeber, Geldgeber und gegebenenfalls Aufsichtsbehörden.

Die Rolle menschlicher Aufsicht und unabhängiger Überprüfung

Letztlich kann KI allein die Forschungsintegrität nicht garantieren. Menschen müssen weiterhin für die Gestaltung von Experimenten, die Interpretation von Daten und die Sicherstellung verantwortlich sein, dass Bilder und Abbildungen die Realität getreu widerspiegeln. Dies umfasst:

  • Betreuer, die sorgfältig von Studierenden und Nachwuchsforschenden erstellte Abbildungen überprüfen.
  • Mitautoren, die Bilder vor der Einreichung auf Inkonsistenzen prüfen.
  • Redakteure und Gutachter, die um Klarstellung oder Rohdaten bitten, wenn die Bildbearbeitung übermäßig oder unklar erscheint.

Viele Forschende entscheiden sich auch dafür, ihre Manuskripte und Bildunterschriften vor der Einreichung von unabhängigen, menschlichen Korrekturlesern und Redakteuren überprüfen zu lassen. Im Gegensatz zu KI-Umschreibwerkzeugen, die Ähnlichkeitswerte erhöhen oder unbeabsichtigt Bedeutungen verändern können, konzentriert sich professionelles akademisches Korrekturlesen auf Klarheit, Konsistenz und Stil, während die zugrunde liegenden Daten und Bilder unverändert bleiben – ein wichtiger Schutz in einem Umfeld zunehmender Prüfung der KI-Nutzung.

Fazit

KI hat bemerkenswerte Fortschritte in der wissenschaftlichen Bildgebung gebracht, die klarere Bilder, schnellere Analysen und effizientere Arbeitsabläufe ermöglichen. Sie hat jedoch auch die Tür zu neuen Formen bildbasierter Fehlverhalten geöffnet, von subtilen Manipulationen bis hin zu vollständig synthetischen „Deepfake“-Ergebnissen. Diese Praktiken bedrohen nicht nur einzelne Studien, sondern die Glaubwürdigkeit des wissenschaftlichen Unternehmens als Ganzes.

Um effektiv zu reagieren, muss die Forschungsgemeinschaft KI sowohl als Werkzeug als auch als Risikofaktor betrachten. KI-basierte forensische Analysen, Plagiatserkennung für Bilder, Mustererkennungsmodelle und Blockchain-Herkunftsverfolgung spielen alle wichtige Rollen bei der Erkennung von Manipulationen. Gleichzeitig sind robuste ethische Richtlinien, Forscherbildung, verpflichtende Einreichung von Rohdaten, offene Datenpraktiken und sinnvolle Sanktionen für die Prävention unerlässlich.

Die Zukunft vertrauenswürdiger Wissenschaft wird von einem mehrschichtigen, hybriden Ansatz abhängen: KI wird eingesetzt, um potenzielle Probleme zu erkennen, zu unterstützen und zu kennzeichnen, aber Menschen bleiben für endgültige Urteile und ethische Aufsicht verantwortlich. Durch die Kombination verantwortungsvoller KI-Einführung mit gründlicher menschlicher Überprüfung – und durch das Vermeiden riskanter Abkürzungen wie KI-Umschreibungen zugunsten transparenter, menschenzentrierter Unterstützung wie professionellem akademischem Korrekturlesen – kann die Forschungsgemeinschaft die Stärken der KI nutzen und gleichzeitig die Integrität des wissenschaftlichen Nachweises für kommende Generationen schützen.



Weitere Artikel

Editing & Proofreading Services You Can Trust

At Proof-Reading-Service.com we provide high-quality academic and scientific editing through a team of native-English specialists with postgraduate degrees. We support researchers preparing manuscripts for publication across all disciplines and regularly assist authors with:

Our proofreaders ensure that manuscripts follow journal guidelines, resolve language and formatting issues, and present research clearly and professionally for successful submission.

Specialised Academic and Scientific Editing

We also provide tailored editing for specific academic fields, including:

If you are preparing a manuscript for publication, you may also find the book Guide to Journal Publication helpful. It is available on our Tips and Advice on Publishing Research in Journals website.