Nos últimos anos, a inteligência artificial (IA) tem emergido como uma ferramenta poderosa para a síntese e revisão da literatura científica. Investigadores e empresas tecnológicas estão a trabalhar no desenvolvimento de sistemas capazes de analisar, organizar e resumir vastos volumes de dados de pesquisa em minutos. Apesar das promessas, especialistas alertam que a automatização do processo pode trazer tanto benefícios como riscos significativos.

 

Um exemplo notável é a startup norte-americana FutureHouse, que desenvolveu o PaperQA2, uma plataforma inovadora que utiliza IA para realizar revisão da literatura científicas detalhada. Recentemente, o sistema foi testado na criação de resumos ao estilo Wikipédia para cerca de 17.000 genes humanos, muitos dos quais ainda não dispunham de páginas detalhadas. Em avaliações conduzidas por especialistas, os textos gerados pelo PaperQA2 mostraram menos erros de raciocínio do que os artigos escritos por humanos, destacando a capacidade da ferramenta de processar informações complexas com maior precisão.

 

Outras ferramentas, como Consensus e Elicit, já estão a ser utilizadas por investigadores para simplificar tarefas específicas da revisão científica, como a triagem de artigos relevantes e a extração de dados de estudos. Estas plataformas utilizam modelos de linguagem avançados para responder a questões de pesquisa, baseando-se em bases de dados científicas como o PubMed e o Semantic Scholar. Contudo, estas soluções ainda têm limitações, como o acesso restrito a artigos com acesso pago e a incapacidade de realizar revisões sistemáticas completas de forma autónoma.

 

A automatização total de revisões sistemáticas, que requerem passos rigorosos e metodológicos, continua a ser um desafio distante. Estas revisões, amplamente utilizadas em áreas como a medicina, exigem a avaliação cuidadosa de centenas de estudos, a eliminação de vieses e a síntese de resultados através de análises estatísticas. Apesar de ferramentas de IA auxiliarem em algumas destas etapas, especialistas como Paul Glasziou, da Bond University, sublinham que o nível de transparência e reprodutibilidade exigido por estas revisões ainda não é garantido pelas tecnologias actuais.

 

Ao mesmo tempo, cresce a preocupação de que o uso indiscriminado de IA possa comprometer a qualidade da literatura científica. Revisões apressadas e metodologicamente frágeis poderiam inundar o meio académico com dados pouco fiáveis, reduzindo a confiança nos resultados. Contudo, a IA também oferece a oportunidade de melhorar práticas científicas, como a triagem preliminar de estudos relevantes, incentivando maior rigor na investigação.

 

Para mitigar os riscos, especialistas defendem o investimento em plataformas de código aberto e a realização de estudos rigorosos que avaliem a precisão e a eficácia destas ferramentas. Só assim será possível assegurar que a IA beneficia a ciência sem comprometer os seus princípios fundamentais de rigor e transparência.

 

Publicado originalmente na Nature em 13 de Novembro de 2024.

https://www.nature.com/articles/d41586-024-03676-9?utm_medium=Social&utm_campaign=nature&utm_source=Facebook&fbclid=IwZXh0bgNhZW0CMTEAAR26BlPhMtwep9rNaJfAkYmLt_L22j0C3yUZjqhM53CIw2I5PDrGd9crmdc_aem_eKGDR0nkX2sQ6Acp9WVOuA#Echobox=1731498804-1