Limites da Inteligência Artificial na Pesquisa Acadêmica: O Que é Ético e o Que é Perigoso?

Limites da Inteligência Artificial na Pesquisa Acadêmica: O Que é Ético e o Que é Perigoso?

Especialistas apontam boas práticas e riscos no uso da IA em produções científicas

O uso da inteligência artificial (IA) na ciência já não é novidade, mas a ascensão das IAs generativas — como ChatGPT, Gemini e DeepSeek — tem provocado um novo tipo de debate nas universidades. Se antes a tecnologia era vista apenas como ferramenta de apoio técnico, agora surge como uma potencial coautora na produção de conteúdos acadêmicos, o que levanta questionamentos éticos e metodológicos importantes.

Pesquisas recentes, como o levantamento global da editora Wiley, indicam que o uso da IA generativa tende a crescer nos próximos anos, principalmente no apoio à escrita e revisão de artigos científicos. Dos quase 5 mil pesquisadores ouvidos em mais de 70 países, muitos admitem já utilizar essas plataformas para auxiliar no desenvolvimento de suas pesquisas. No entanto, essa prática exige transparência, responsabilidade e supervisão humana para não comprometer a integridade científica.

IA na produção acadêmica: avanço com responsabilidade

A facilidade de gerar conteúdo com um simples comando tem gerado preocupação entre pesquisadores. A possibilidade de criar textos completos, dados fictícios e até citações inventadas é real, especialmente quando mal utilizada. A IA pode simular resultados e fornecer referências inexistentes, comprometendo a credibilidade das publicações e alimentando uma cadeia de desinformação científica.

Segundo o professor Lucas S. Kupssinskü, da PUCRS, “a IA não pode substituir o trabalho de campo, a leitura crítica e a análise rigorosa”. Para ele, o pesquisador precisa continuar sendo o autor real do conteúdo, assumindo total responsabilidade pela veracidade das informações apresentadas.

Etapas que não podem ser automatizadas pela IA

Apesar do apoio que a IA oferece, há fronteiras que ainda exigem — e continuarão exigindo — atuação humana. Entre elas:

  • Formulação de hipóteses originais
  • Estruturação metodológica
  • Coleta de dados reais
  • Realização de experimentos
  • Análise crítica e contextualização dos resultados

Plataformas de revisão por pares, utilizadas por revistas científicas e conferências, continuam sendo fundamentais para filtrar trabalhos incoerentes ou tendenciosos gerados de maneira irresponsável com IA.

Transparência é a base do uso ético da IA na ciência

Especialistas recomendam que o uso de IA em pesquisas seja claramente documentado. Isso inclui:

  • Quais ferramentas foram utilizadas (ChatGPT, Gemini, Elicit, etc.)
  • Em quais etapas elas foram aplicadas (revisão de literatura, estruturação de metodologia, etc.)
  • Se os dados utilizados na ferramenta são públicos, sintéticos ou reais
  • Limitações da ferramenta no contexto da pesquisa
  • Como o conteúdo gerado foi validado

Organizações como a Anpad (Associação Nacional de Pós-Graduação e Pesquisa em Administração) já publicaram diretrizes para o uso responsável da IA em ambientes acadêmicos. Universidades como a Feevale e a UFCSPA também estão desenvolvendo normativas próprias para garantir transparência, autoria e ética.

Como a IA pode contribuir positivamente na pesquisa científica

Embora os riscos existam, muitos professores e pesquisadores acreditam que, com uso ético, a IA pode ampliar a produtividade científica. A professora Marta Bez, da Universidade Feevale, aponta diversas etapas onde a tecnologia pode ser útil:

  • Exploração inicial de temas
  • Mapeamento bibliográfico com ferramentas como Semantic Scholar e Connected Papers
  • Sugestões de estrutura metodológica
  • Revisão de linguagem e clareza textual
  • Formatação de artigos e relatórios

A IA também pode otimizar processos burocráticos, como localizar editais de fomento à pesquisa, formatar normas da ABNT e automatizar partes repetitivas de revisões sistemáticas.

O desafio dos pré-prints e a preocupação com a superficialidade

Segundo o professor Pedro Burgos, do Insper, um dos principais riscos está nos pré-prints — artigos disponibilizados online antes da revisão por pares. A IA pode acelerar a publicação de textos pouco aprofundados, deslocando a atenção de pesquisas mais robustas e analíticas. Ele alerta que “a tentação de pular etapas pode enfraquecer a ciência”, caso a IA seja usada apenas para volume, e não para qualidade.

Uso na prática: exemplos de aplicação da IA em pesquisas no Brasil

A professora Juliana Herbert, da UFCSPA, relata casos reais de aplicação positiva da IA: um aluno de mestrado, por exemplo, utilizou o ChatGPT para simular entrevistas com pacientes psiquiátricos, recurso valioso para o ensino na área da saúde. Já a professora Isabel Siqueira, também da UFCSPA, reforça a importância da proteção de dados sensíveis, alertando que dados clínicos jamais devem ser inseridos diretamente em sistemas de IA generativa sem anonimização e aprovação ética.

Ferramentas recomendadas para uso responsável de IA na pesquisa

Algumas plataformas são indicadas para apoiar a produção científica com segurança:

  • ResearchRabbit – ideal para rastreamento de estudos relacionados
  • ConnectedPapers – mostra conexões entre artigos com foco temático
  • Elicit – busca respostas baseadas em estudos científicos
  • Scite – identifica onde e como os artigos são citados
  • Semantic Scholar – útil para revisão bibliográfica com recorte temporal
  • NotebookLM (Google) – organiza conteúdos com ajuda da IA
  • Zotero e Mendeley – referência e gerenciamento de citações

Com o uso criterioso dessas ferramentas, pesquisadores podem aliar agilidade e profundidade, mantendo o rigor científico.

Limites da Inteligência Artificial na Pesquisa Acadêmica: O Que é Ético e o Que é Perigoso?
Limites da Inteligência Artificial na Pesquisa Acadêmica: O Que é Ético e o Que é Perigoso?

Perguntas mais pesquisadas sobre IA na pesquisa acadêmica

1. É permitido usar inteligência artificial em pesquisas científicas?
Sim, desde que seu uso seja transparente, ético e devidamente declarado no artigo.

2. Quais riscos o uso da IA representa para a ciência?
O principal risco é a criação de dados falsos ou conclusões sem base empírica, comprometendo a integridade da pesquisa.

3. A IA pode substituir o trabalho do pesquisador?
Não. A IA pode auxiliar, mas não substitui análise crítica, criatividade e responsabilidade do cientista.

4. Quais ferramentas de IA são seguras para apoio acadêmico?
Connected Papers, Semantic Scholar, Elicit, Scite, entre outras focadas em base científica e transparência.

5. É preciso informar o uso de IA em artigos científicos?
Sim. Boas práticas exigem relatar as ferramentas utilizadas e em quais etapas da pesquisa foram aplicadas.

Deixe um comentário