A Revolução silenciosa: como a IA está a mudar a investigação das Ciências Sociais
De acordo com um novo estudo, a inteligência artificial pode afetar a investigação realizada nas ciências sociais. Mas como? Fique aqui a saber mais!

Nos últimos anos, os modelos de linguagem de grande escala (LLMs, na sigla em inglês), como o GPT-4, tornaram-se ferramentas cada vez mais presentes em diversas áreas da investigação científica.
Um dos usos emergentes e inovadores desses sistemas ocorre nas ciências sociais, onde investigadores têm começado a utilizar agentes simulados baseados em IA para representar participantes humanos em experiências.
O estudo aponta que modelos de linguagem podem ser programados para simular respostas humanas a questionários, entrevistas e experiências de decisão, atuando como sujeitos virtuais.
Isso permite aos cientistas testar hipóteses preliminares, estimar tamanhos de amostra ideais e refinar o desenho experimental antes de envolver participantes reais, reduzindo significativamente custos e tempo de execução.

Os investigadores desenvolveram uma arquitetura que permite condicionar modelos de linguagem com perfis baseados em dados reais de entrevistas, permitindo que esses agentes respondam de forma personalizada, refletindo crenças, atitudes e comportamentos de indivíduos específicos.
Numa das experiências, os agentes simulados conseguiram prever com 85% de precisão as respostas que os participantes reais dariam duas semanas depois.
Esse grau de precisão aproxima-se da consistência interna observada entre respostas humanas ao longo do tempo, sugerindo que, em determinados contextos, os LLMs podem funcionar como uma aproximação válida de sujeitos humanos.
Entretanto, a utilização de IA como substituto de seres humanos em experiências comportamentais levanta preocupações metodológicas e éticas importantes.
Limitações desafios
Um dos problemas mais citados é a falta de variabilidade nas respostas dos modelos.
Enquanto os seres humanos apresentam uma ampla diversidade cognitiva, emocional e cultural, os LLMs tendem a produzir respostas mais homogéneas, influenciadas pela tendência a procurar respostas socialmente desejáveis.
Além disso, estudos apontam que, embora os LLMs consigam replicar efeitos principais em experiências clássicas da psicologia com certa precisão, têm desempenho substancialmente inferior na replicação de interações mais complexas entre variáveis.
Isso indica que, embora úteis para testes preliminares e exploração de ideias, os agentes simulados ainda não são substitutos adequados para a complexidade das experiências humanas.
Do ponto de vista ético, o uso de dados pessoais e entrevistas para “alimentar” esses agentes simulados requer atenção especial.
Perspetivas futuras para a investigação híbrida
O consentimento dos participantes, a proteção da privacidade e a transparência quanto ao uso dos seus dados tornam-se ainda mais relevantes em contextos onde a IA reproduz traços comportamentais de indivíduos reais.
Apesar das limitações, o uso de LLMs em investigações sociais representa uma oportunidade promissora. Se utilizados com rigor metodológico e ética clara, esses agentes podem acelerar o ciclo de desenvolvimento científico, tornando as experiências mais eficientes e acessíveis.
A expectativa dos investigadores de Stanford é que, com mais um ou dois anos de desenvolvimento direcionado, os agentes simulados tornar-se-ão ainda mais precisos e úteis, especialmente como complemento, e não substituto, de participantes humanos.
Assim, o futuro da investigação em ciências sociais poderá incorporar uma abordagem híbrida, combinando o poder analítico das IAs com a complexidade inigualável da experiência humana, avançando de forma ética, rigorosa e inovadora.
Referência da notícia
Jacy Reese Anthis, Ryan Liu, Sean M. Richardson, Austin C. Kozlowski, Bernard Koch, James Evans, Erik Brynjolfsson, Michael Bernstein "LLM Social Simulations Are a Promising Research Method" Computer Science, 2025