AI in Academic Writing: How to Disclose Assistance Without Risk in 2025

IA na Escrita Acadêmica: Como Divulgar Assistência Sem Risco em 2025

Nov 02, 2025Rene Tetzner
⚠ A maioria das universidades e editoras proíbe conteúdo gerado por IA e monitora taxas de similaridade. Rascunho por IA, “reformulação” por IA ou “revisão” por IA são cada vez mais tratados como criação de conteúdo e podem levantar sérias preocupações sobre autoria, tornando os serviços humanos de proofreading a escolha mais segura.

Resumo

A assistência da IA na escrita acadêmica agora é impossível de ignorar. Desde o polimento da linguagem até a geração de figuras, pesquisadores dependem cada vez mais das ferramentas de IA. Ao mesmo tempo, editoras e universidades introduziram novas políticas que exigem divulgação explícita do uso da IA, ressaltando que a IA não pode ser listada como autora.

Este artigo explica como documentar a assistência da IA em manuscritos conforme as políticas editoriais emergentes de 2025. Discute quais tipos de uso da IA geralmente requerem divulgação, como formular declarações sobre IA nos métodos, agradecimentos e carta de apresentação, e como fazer isso sem comprometer suas chances de aceitação. O objetivo é ajudar os autores a permanecerem transparentes enquanto enfatizam que eles, e não a IA, assumem total responsabilidade pelo trabalho.

Se usada com cuidado, a IA pode apoiar clareza, consistência e produtividade sem enfraquecer a credibilidade científica. Documentação clara, supervisão humana rigorosa e adesão às diretrizes do periódico são a chave para usar ferramentas de IA com segurança na escrita acadêmica. Ao mesmo tempo, os autores devem lembrar que “edição de linguagem”, “reformulação” ou “revisão” feitas pela IA são cada vez mais vistas pelas editoras como uma forma de criação de conteúdo e, em muitas políticas, são proibidas ou permitidas apenas com divulgação explícita e controle humano estrito.

Este artigo inclui exemplos concisos (no final) mostrando como divulgar a assistência da IA de forma responsável segundo as políticas editoriais de 2025. Essas amostras ajudam os autores a reconhecer o uso limitado da IA sem correr o risco de mal-entendidos sobre autoria ou integridade da pesquisa.

📖 Artigo Completo (Clique para recolher)

IA na Escrita Acadêmica: Como Divulgar Assistência Sem Riscos em 2025

Em poucos anos, as ferramentas de IA passaram das margens da vida acadêmica para o centro da prática cotidiana de pesquisa. Muitos acadêmicos agora experimentam a IA para melhorar a gramática, resumir literatura, propor esboços ou até redigir pequenos fragmentos de texto. Ao mesmo tempo, editoras, universidades e financiadores responderam com novas políticas: IA não pode ser listada como autora; textos e imagens gerados por IA não devem ser apresentados como puramente humanos; e envolvimento substancial da IA deve ser divulgado. Um número crescente de políticas vai ainda mais longe e deixa claro que usar IA para “reescrever”, “reformular” ou “polir” texto não é uma operação trivial e mecânica, mas uma forma de criação de conteúdo que corre o risco de borrar a linha entre autoria humana e produção da máquina.

Para os autores, isso cria um equilíbrio delicado. Esconder o uso de IA é cada vez mais arriscado, mas exagerá-lo pode levantar dúvidas sobre originalidade e autoria. O desafio é documentar a assistência da IA honestamente, de forma que cumpra as políticas no estilo de 2025, ao mesmo tempo em que assegura a editores e revisores que o trabalho intelectual permanece firmemente sob controle humano e que o manuscrito não é simplesmente um produto disfarçado de IA. O caminho mais seguro é tratar a IA como uma ferramenta provisória para suporte de ideias, não como um ghost-writer, e reservar a edição e reformulação substancial da linguagem para especialistas humanos em vez de algoritmos.

1. Por que a Divulgação de IA é Importante em 2025

No cerne dos requisitos de divulgação de IA está uma preocupação simples: confiança. Editores e revisores devem estar confiantes de que a pesquisa que avaliam é baseada em dados genuínos, raciocínio rigoroso e autoria responsável. Modelos de IA não entendem verdade ou responsabilidade; eles geram texto ou imagens plausíveis com base em padrões nos dados de treinamento. Podem ser úteis para produzir sentenças gramaticalmente fluentes, mas não sabem se essas sentenças representam corretamente a literatura, os métodos ou os resultados.

Se a produção gerada ou reescrita por IA for inserida em manuscritos sem supervisão cuidadosa, a integridade do registro acadêmico estará em risco. Um sistema de IA pode reformular uma declaração cautelosa em uma que exagera, ou pode silenciosamente omitir limitações importantes porque elas não se encaixam em seus padrões aprendidos de “boa escrita”. Mesmo uma “revisão” de IA aparentemente inofensiva pode remodelar a ênfase e a nuance de argumentos-chave. É por isso que muitas políticas de 2025 afirmam explicitamente que a IA não deve ser usada para criar ou revisar substancialmente conteúdo, incluindo transformações a nível de linguagem, sem divulgação completa e verificação humana.

Políticas introduzidas por editoras e sociedades acadêmicas convergem em alguns pontos centrais. Sistemas de IA não podem ser autores porque não podem assumir responsabilidade ou responder a consultas. O uso substancial de IA na análise de dados, geração de texto, produção de figuras ou reescrita de linguagem deve ser reconhecido. Espera-se que os autores verifiquem cada afirmação, referência e resultado, independentemente de a IA ter sido envolvida. Em outras palavras, a IA pode ser uma ferramenta, mas nunca um substituto para o julgamento acadêmico ou para o ato humano de escrever e revisar um argumento científico.

2. Que Tipos de Uso de IA Precisam Ser Divulgados?

Nem toda interação incidental com IA requer um parágrafo completo de métodos. Pedir a um sistema uma vez para sugerir um sinônimo para uma única palavra, e depois substituir a frase inteiramente pela sua própria formulação, não altera significativamente o manuscrito. No entanto, assim que a IA começa a moldar a redação, o fluxo ou a estrutura dos seus parágrafos de maneiras que são preservadas no artigo, a situação muda. Usar IA para editar seções inteiras, gerar parágrafos de rascunho, parafrasear grandes trechos de texto ou “melhorar” a linguagem de um manuscrito inteiro é essencialmente pedir ao sistema para realizar criação de conteúdo, mesmo que você ainda reconheça as ideias subjacentes como suas.

Da mesma forma, usar IA para criar figuras, códigos ou resumos de grandes coleções de documentos ultrapassa o limite para áreas onde se espera transparência. Se a ferramenta influenciou a redação, a lógica do argumento, as decisões de codificação ou a representação visual de uma forma que outro pesquisador razoavelmente gostaria de saber, então a divulgação é recomendada. A maioria das políticas no estilo 2025 foca em três áreas: reformulação de linguagem, geração de conteúdo e assistência relacionada a dados. À medida que o papel da ferramenta avança de sugestões triviais de ortografia para reescrita ou reestruturação, o argumento para documentação explícita se torna mais forte.

É crucial reconhecer que, para muitos editores, não há uma distinção clara entre “rascunho de IA” e “revisão de IA” quando a ferramenta é autorizada a reformular frases ou parágrafos inteiros. Se um sistema de IA gera novas sequências de palavras que acabam no seu artigo, ele participou da criação do conteúdo. Autores responsáveis evitam esse tipo de uso completamente ou fazem uma declaração clara e honesta sobre isso e então substituem ativamente ou revisam minuciosamente essa produção em versões posteriores.

3. Temas Típicos nas Políticas de Editores de 2025

Embora a redação exata varie conforme o periódico e a área, as políticas atuais tendem a enfatizar vários temas recorrentes. O primeiro é o ponto inegociável de que sistemas de IA não podem cumprir os critérios para autoria. Eles não projetam estudos, não aprovam versões finais nem aceitam responsabilidade pelo trabalho. Eles não podem responder às perguntas dos leitores nem corrigir o registro se forem descobertos erros. Por essa razão, listar uma ferramenta de IA como coautora não é permitido, e confiar nela para gerar partes substanciais do texto sem supervisão é visto como uma falha na responsabilidade da autoria.

O segundo tema é a exigência de que os autores garantam que a saída da IA seja cuidadosamente revisada quanto à precisão, viés e originalidade. Os periódicos já viram casos em que trechos gerados por IA contêm afirmações factualmente erradas, referências inventadas ou misturas de ideias que nenhum acadêmico responsável endossaria. Mesmo quando os autores pedem para a IA “apenas editar a linguagem”, o sistema pode introduzir mudanças sutis no conteúdo — alterando afirmações, removendo qualificadores ou remixando frases de seus dados de treinamento. É exatamente por isso que muitas políticas de editoras agora enfatizam que a IA não deve ser usada para transformações que vão além de verificações básicas de ortografia, e que qualquer uso desse tipo deve ser divulgado e rigidamente controlado.

O terceiro tema é uma preocupação crescente sobre referências fabricadas, figuras alteradas e dados sintéticos. Os editores sabem que a IA pode fabricar citações que parecem realistas, pode limpar e aprimorar imagens de maneiras que removem imperfeições importantes e pode gerar conjuntos de dados inteiramente sintéticos. Divulgar o uso da IA é, em parte, uma forma de sinalizar que você entende esses riscos e tomou medidas para se proteger contra eles. Também é uma forma de assegurar ao periódico que, onde a IA esteve envolvida, ela não estava realizando tarefas proibidas, como gerar texto no lugar da escrita do autor ou “revisar” seções de uma forma que efetivamente as reescreve.

4. Onde Documentar a Assistência da IA em Seu Manuscrito

Uma vez que você decida que a divulgação é apropriada, a próxima questão é onde colocá-la. Na maioria dos casos, uma declaração curta em um ou mais dos seguintes locais funciona bem: a seção de métodos, os agradecimentos, a seção de declarações (se o periódico tiver uma) e, ocasionalmente, a carta de apresentação. A escolha do local depende do papel que a IA desempenhou.

Se a IA foi usada no processamento de dados, codificação, mineração de texto ou geração de figuras, a seção de métodos geralmente é o local apropriado para descrevê-la. Trate o sistema de IA como qualquer outro software ou técnica analítica: nomeie-o, descreva brevemente o que ele fez e explique como você verificou seus resultados. Se a IA foi usada para sugestões de linguagem, muitos editores preferem que isso seja mencionado nos agradecimentos em vez dos métodos, porque não altera o método científico subjacente. No entanto, você deve ter cuidado para não subestimar a extensão do envolvimento da IA. Se a IA fez mais do que sinalizar erros ortográficos — se reescreveu frases ou parágrafos inteiros — isso provavelmente vai além do que as políticas consideram uma “correção de linguagem” aceitável e deve ser descrito francamente como assistência em nível de conteúdo ou, preferencialmente, removido e substituído pela sua própria escrita.

Algumas revistas agora fornecem campos específicos em seus sistemas de submissão onde você pode responder perguntas sobre o uso de IA. Estes devem ser preenchidos de forma honesta e consistente. Se o sistema perguntar se alguma parte do texto foi gerada por IA, e você já usou IA para parafrasear seções, a resposta segura e eticamente correta não é “não”. Em vez disso, você deve explicar que a IA foi usada em uma fase anterior, que você reescreveu as passagens afetadas e que a versão atual é totalmente escrita e verificada por humanos.

5. Exemplos de Redação Que Não Prejudicam as Chances de Aceitação

Muitos autores se preocupam que mencionar IA possa causar rejeição. Na prática, os editores se preocupam muito mais com o uso não divulgado do que com assistência limitada e descrita de forma transparente. O essencial é enquadrar a IA como uma ferramenta que você dirigiu e corrigiu, não como um motor que escreveu seu artigo. Também é prudente evitar normalizar a reescrita por IA como se fosse o mesmo que trabalhar com um editor humano de língua. As duas situações são eticamente distintas na maioria das políticas, porque um editor humano é responsável de maneiras que um sistema de IA não é.

Nos agradecimentos, uma declaração responsável e de baixo risco pode dizer que durante a preparação do manuscrito você usou ferramentas assistidas por IA para destacar possíveis problemas gramaticais ou sugerir frases alternativas, mas que toda a redação presente na versão final foi escrita, revisada e revisada pelos autores. É importante não afirmar que a IA apenas “poliu” seu texto se, na realidade, grandes porções foram geradas ou reformuladas pelo sistema e então aceitas com apenas pequenas edições. Nesses casos, a solução correta é reescrever essas seções você mesmo para que o texto restante possa ser honestamente apresentado como seu.

Quando a IA apoiou o processamento de dados ou codificação, você pode descrevê-la nos métodos como fornecendo agrupamento preliminar de textos ou sugestões iniciais para configurações de parâmetros, seguidas por revisão manual e confirmação usando ferramentas aceitas não-IA. O foco deve ser sempre nas decisões humanas que moldaram a análise. Se a IA produziu código que você adotou, deve notar que inspecionou, testou e, se necessário, modificou esse código antes de usá-lo para quaisquer resultados relatados.

Em uma carta de apresentação, se os campos de divulgação forem limitados, uma única frase clara pode ser suficiente. Você pode confirmar que nenhuma parte do manuscrito foi deixada em um estado gerado autonomamente por sistemas de IA, que evitou usar IA para reescrita ou revisão completa de seções e que qualquer assistência limitada de IA em rascunhos iniciais foi removida ou substituída completamente por texto escrito por humanos antes da submissão.

6. Documentando Diferentes Tipos de Assistência de IA

Como nem todo envolvimento da IA é igual, ajuda descrever brevemente que tipo de assistência foi fornecida. O suporte em nível de linguagem fornecido por um editor humano, como correções gramaticais ou melhorias na estrutura das frases, normalmente é considerado aceitável, desde que seja reconhecido e não altere a substância dos argumentos. Em contraste, transformações em nível de linguagem realizadas pela IA — reescrever frases, mudar estilo, parafrasear seções inteiras — são cada vez mais tratadas como criação de conteúdo pelos editores, porque uma máquina, e não um humano responsável, está gerando as sequências reais de palavras que aparecem no documento.

Se você usou IA para ajudar apenas com a linguagem nas fases iniciais, uma estratégia segura é tratar esse rascunho inicial como uma estrutura provisória e depois reescrever todas as seções principais você mesmo, com a redação assistida pela IA servindo apenas como um auxílio temporário para esclarecer seus próprios pensamentos. Nesse cenário, uma vez que você tenha reescrito completamente o texto, a contribuição da IA foi efetivamente apagada, e pode haver pouco a ser divulgado. Se, no entanto, você planeja manter sentenças reformuladas pela IA no manuscrito final, deve assumir que isso será considerado envolvimento substantivo da IA, o que deve ser descrito e pode conflitar com a proibição de edição linguística por IA de alguns periódicos.

O suporte em nível de conteúdo, como resumir um grande corpo de literatura, sugerir esboços ou gerar parágrafos de exemplo, sempre envolve mais risco. Mesmo que você revise posteriormente esses resultados, pode ser difícil garantir que não restem referências fabricadas ou resumos distorcidos. Por essa razão, muitos autores agora restringem o papel da IA a brainstorms à distância — talvez fazendo perguntas gerais sobre possíveis desenhos de pesquisa ou sobre estruturas típicas para tipos específicos de artigos — em vez de inserir seu próprio texto em um sistema para reescrita.

7. Equilibrando Transparência e Percepção

Os autores às vezes hesitam em mencionar a IA porque temem que os revisores assumam que o manuscrito é menos original ou menos cuidadosamente escrito. Ao mesmo tempo, muitos revisores e editores estão profundamente preocupados que os autores possam estar usando IA extensivamente sem reconhecimento. Uma divulgação clara e concisa pode, na verdade, fortalecer a credibilidade porque demonstra que você leva a questão a sério, que entende os limites das ferramentas de IA e que está preparado para assumir a responsabilidade pela sua própria escrita.

As divulgações mais tranquilizadoras enfatizam que o papel da IA foi limitado e claramente definido, que todas as decisões científicas e interpretativas foram tomadas pelos autores e que cada frase foi revisada criticamente por um humano responsável pelo seu conteúdo. Normalmente, não é necessário informar qual versão de qual modelo você usou, a menos que a ferramenta tenha desempenhado um papel analítico central. No entanto, se o periódico fizer perguntas específicas sobre a ferramenta, ou se o papel da IA ultrapassou a assistência trivial, você deve responder com precisão em vez de minimizar.

Também é importante reconhecer que alguns usos de IA serão inaceitáveis para certas revistas, independentemente de quão honestamente você os descreva. Muitos editores agora afirmam explicitamente que usar IA para “polir” ou “revisar” manuscritos não é permitido, porque isso envolve o modelo gerando sentenças alternativas no lugar das que você escreveu. Nesse sentido, até mesmo a edição linguística por IA não é simplesmente um serviço neutro, mas um ato de criação de conteúdo. Se você deseja a segurança de evitar tais conflitos, a abordagem mais segura é confiar em editores e revisores humanos, que podem ser nomeados e que estão vinculados por ética profissional.

8. Boa manutenção de registros e documentação interna

Mesmo que uma revista exija apenas uma breve divulgação, é prudente manter registros internos mais detalhados. Manter um registro simples de como e quando as ferramentas de IA foram usadas pode protegê-lo caso surjam dúvidas depois. Você pode anotar imediatamente após uma sessão de escrita que tentou um assistente de IA em um parágrafo específico, mas depois descartou essa versão, ou que gerou um resumo curto com IA, mas decidiu não incorporá-lo no manuscrito. Se aceitar qualquer redação sugerida pela IA, deve registrar onde ela aparece e como a verificou.

Esses registros não precisam ser elaborados ou formais. Podem ser breves anotações em um caderno de laboratório, um arquivo de texto anexado à sua pasta de projeto ou comentários curtos em seus documentos compartilhados com coautores. O objetivo é criar um rastro do seu processo decisório para que, se um editor, revisor ou comitê institucional perguntar posteriormente como a IA foi envolvida, você possa responder com evidências escritas e não apenas pela memória. A documentação também é um espelho para sua própria prática. Se você se sentir relutante em registrar a extensão da edição feita pela IA porque pareceria excessivo, isso é um sinal de que o modelo está fazendo grande parte da escrita e que sua dependência dele pode não estar mais alinhada com as normas emergentes.

9. Práticas que aumentam o risco e devem ser evitadas

Além das orientações sobre o que fazer, é útil ser explícito sobre o que evitar. Apresentar grandes blocos de texto gerado por IA como se fossem seus, sem verificação ou revisão, é perigoso tanto por razões éticas quanto práticas. Esse texto pode conter erros factuais, referências inventadas, terminologia inconsistente ou cópias não reconhecidas dos dados de treinamento. Mesmo quando parece polido, não é um substituto confiável para uma pesquisa genuína. As revistas estão introduzindo ferramentas de detecção precisamente porque observaram esses problemas em manuscritos submetidos.

Usar IA para reescrever ou parafrasear toda a sua revisão de literatura é outra prática de alto risco. Mesmo que as ideias permaneçam amplamente precisas, o texto resultante não é sua escrita em nenhum sentido significativo. De acordo com muitas políticas, ele se torna conteúdo criado por IA que não pode simplesmente ser “aprovado” pelo autor depois do fato. Da mesma forma, gerar respostas de pesquisa, transcrições de entrevistas ou dados numéricos por meio de IA sem um quadro metodológico claro e sem divulgação completa conflita com princípios básicos de integridade na pesquisa. Essas práticas minam a confiança nos resultados e podem ter consequências sérias para os autores se descobertas.

Um risco particularmente sutil surge quando autores tratam a edição linguística por IA como equivalente a um revisor humano. Embora as palavras “edição” e “revisão” possam ser familiares, quando realizadas por um sistema de IA, elas não são mais correções superficiais menores, mas atos de geração de texto. Um revisor humano trabalha com base nas suas frases existentes, sugere mudanças e permanece responsável por suas ações. Um revisor de IA, por outro lado, gera novas frases a partir de padrões estatísticos, sem compreensão, sem responsabilidade e sem garantia de que a saída esteja livre de vieses ocultos ou fragmentos copiados. Por essa razão, muitas políticas de periódicos agora agrupam “edição” e “reescrita” por IA como formas proibidas de criação de conteúdo. Autores que desejam melhoria segura da linguagem devem, portanto, preferir edição e revisão humanas em vez de reescrita algorítmica.

10. Como a Divulgação da IA se Encaixa na Integridade da Pesquisa de Forma Mais Ampla

O debate sobre documentar a assistência da IA é, em última análise, parte de uma conversa maior sobre integridade na pesquisa. Assim como esperamos um relato claro dos métodos, manejo transparente dos dados e reconhecimento honesto das limitações, agora precisamos ser transparentes sobre nossas ferramentas. O objetivo não é criminalizar todo uso de automação, mas garantir que o registro científico reflita com precisão como o conhecimento foi produzido.

IA não é inerentemente antiética. Torna-se problemática quando obscurece quem fez o quê, quando é usada para atalhar a leitura, o pensamento ou a análise, ou quando substitui o ato de escrever pelo ato de prompting. Se os autores começarem a depender da IA para gerar ou “limpar” grandes partes de seus manuscritos, a linha entre a verdadeira pesquisa acadêmica e a simulação estilística se torna borrada. A divulgação é uma forma de proteger essa linha. Outra é escolher deliberadamente manter a IA afastada de tarefas centrais, como rascunhar e revisar, e trazer suporte humano quando necessário.

Visto dessa forma, a divulgação da IA é menos sobre confessar uma prática questionável e mais sobre participar de uma cultura de transparência. Assim como divulgamos fontes de financiamento e conflitos de interesse, agora divulgamos a assistência tecnológica que poderia ser invisível. Feita de forma calma e clara, essa divulgação deve se tornar uma parte rotineira e comum da escrita acadêmica, em vez de um estigma. Com o tempo, a comunidade desenvolverá uma percepção mais sutil de quando o uso da IA é inofensivo, quando é útil e quando ultrapassa limites que comprometem a integridade.

Conclusão: Usando IA de Forma Transparente Sem Comprometer Seu Trabalho

À medida que as políticas dos editores para 2025 continuam a evoluir, autores responsáveis precisam de uma forma prática de integrar ferramentas de IA em sua escrita sem prejudicar a confiança. A solução não é banir a IA do processo completamente, nem entregar a autoria aos algoritmos, mas tratar a IA como um assistente usado com cautela, cujas contribuições são abertamente reconhecidas e cuidadosamente verificadas. Isso significa resistir à tentação de deixar a IA “corrigir” sua prosa reescrevendo-a, reconhecendo que tal reescrita é criação de conteúdo aos olhos de muitos periódicos, e, em vez disso, recorrer a editores humanos quando sua linguagem precisar de melhorias substanciais.

Ao descrever brevemente o envolvimento da IA nos métodos ou agradecimentos quando for genuinamente limitado, mantendo registros internos de como as ferramentas foram usadas e enfatizando a responsabilidade humana por todo o conteúdo substancial, você pode cumprir as expectativas atuais sem enfraquecer suas chances de aceitação. Editores e revisores buscam, em última análise, rigor, clareza e honestidade. A divulgação transparente da IA é cada vez mais parte da demonstração dessas qualidades, enquanto evitar a reescrita ou revisão por IA no texto final protege tanto sua autoria quanto a integridade do registro acadêmico.

Para pesquisadores que desejam garantir que seus manuscritos atendam a altos padrões de clareza e integridade, evitando os riscos associados a textos gerados ou reescritos por IA, nossos serviços humanos de reescrita, edição de artigos de periódicos e serviços de revisão acadêmica oferecem expertise humana que complementa, em vez de substituir, o uso responsável de ferramentas digitais. Editores humanos podem melhorar gramática, estilo e estrutura enquanto preservam sua voz e garantem que o que aparece sob seu nome seja, em um sentido significativo, escrito por você.

📝 Textos de Amostra: Como Divulgar Assistência de IA (Clique para expandir)

Amostra 1 – Agradecimentos: Uso Inicial e Limitado de IA Totalmente Substituído

Durante as fases iniciais da redação deste manuscrito, os autores experimentaram brevemente uma ferramenta de linguagem baseada em IA para destacar possíveis problemas gramaticais em um pequeno número de sentenças. Todo o texto que apareceu nessas versões iniciais assistidas por IA foi posteriormente descartado ou completamente reescrito pelos autores, e nenhuma formulação gerada ou reescrita por IA permanece no manuscrito atual. Toda a redação, interpretações e conclusões desta versão foram escritas, revisadas e aprovadas exclusivamente pelos autores humanos.

Amostra 2 – Métodos/Declarações: Assistência de IA para Exploração Preliminar de Dados

Uma ferramenta baseada em IA foi usada apenas para exploração preliminar do conjunto de dados textuais (por exemplo, para obter uma clusterização inicial e não supervisionada dos documentos). Esses resultados exploratórios foram tratados como diagnósticos informais e não foram usados diretamente para quaisquer resultados relatados neste artigo. Todas as análises que fundamentam as conclusões foram especificadas, executadas e verificadas pelos autores usando software estabelecido e não generativo, e todos os procedimentos estatísticos e interpretações qualitativas foram conduzidos e verificados pelos autores humanos. Nenhum sistema de IA foi usado para gerar, reescrever ou "revisar" qualquer parte do texto do manuscrito.

Amostra 3 – Carta de Apresentação ou Declarações: Divulgação Geral de IA e Limites Explícitos

Em conformidade com a política do periódico sobre inteligência artificial, confirmamos que nenhuma seção deste manuscrito foi redigida, reescrita ou "revisada" por ferramentas de IA generativa. Os autores não utilizaram sistemas de IA para criar ou reformular o texto, e nenhuma redação gerada por IA foi incorporada na versão submetida. Quaisquer verificações automatizadas menores foram limitadas a funções padrão, não generativas, de ortografia e gramática integradas ao nosso software de processamento de texto. Todo o conteúdo intelectual, toda a formulação e todas as revisões refletem o trabalho dos autores humanos, que assumem total responsabilidade pela precisão, originalidade e integridade do manuscrito.



Mais artigos

Editing & Proofreading Services You Can Trust

At Proof-Reading-Service.com we provide high-quality academic and scientific editing through a team of native-English specialists with postgraduate degrees. We support researchers preparing manuscripts for publication across all disciplines and regularly assist authors with:

Our proofreaders ensure that manuscripts follow journal guidelines, resolve language and formatting issues, and present research clearly and professionally for successful submission.

Specialised Academic and Scientific Editing

We also provide tailored editing for specific academic fields, including:

If you are preparing a manuscript for publication, you may also find the book Guide to Journal Publication helpful. It is available on our Tips and Advice on Publishing Research in Journals website.