Logo
MENU
Logo
BUSCAR

Novo modelo de IA antecipa comportamento humano

Modelo foi treinado com 10 milhões de escolhas reais

Por: Ana Beatriz Fernandez Martinez

15/07/202521:00

Pesquisadores do Helmholtz Center, na Alemanha, desenvolveram um modelo de linguagem que vai além da compreensão: ele consegue prever decisões humanas com alta precisão. Batizado de Centaur, o sistema foi treinado com dados de 160 experimentos psicológicos e atingiu 64% de acerto em testes controlados.

IA
Foto: Reprodução/Freepik

A pesquisa, realizada em parceria com o Institute for Human-Centered AI, utilizou um modelo de linguagem de código aberto da Meta AI como base. O Centaur foi alimentado com um extenso banco de dados contendo mais de 10 milhões de decisões humanas tomadas em experimentos clássicos, como categorização de objetos e jogos de azar.

Durante o treinamento, 90% dos dados foram usados para ensinar o modelo, enquanto os 10% restantes foram reservados para testes. O objetivo era verificar se o Centaur conseguia prever o comportamento de pessoas cujas respostas ele ainda não conhecia. O sistema teve bom desempenho mesmo diante de situações inéditas, com variações nos testes.

Para Clemens Stachl, diretor do Instituto de Ciência e Tecnologia Comportamental da Universidade de St. Gallen, o diferencial do Centaur está na sua capacidade de traduzir resultados de experimentos em linguagem natural, o que permite aplicar o modelo diretamente a dados comportamentais.

Segundo ele, o modelo pode ser usado em diversas áreas, como consumo, educação e segurança — especialmente onde é necessário analisar e prever o comportamento humano. Stachl acredita que grandes empresas de tecnologia já utilizam ferramentas semelhantes para antecipar hábitos e preferências de usuários em plataformas de e-commerce e redes sociais.

O pesquisador cita exemplos como o TikTok, que utiliza algoritmos sofisticados para manter os usuários engajados, e o ChatGPT, como modelos que também preveem decisões com base em interações anteriores.

Apesar dos avanços, Stachl alerta para riscos importantes. “Essas tecnologias podem nos tornar cada vez mais previsíveis e dependentes, gerando uma espécie de 'escravidão digital'”, afirma. Ele destaca que o uso diário de mídias digitais alimenta continuamente esses modelos com novos dados comportamentais, o que amplia seu poder de previsão.

Embora o Centaur tenha sido desenvolvido com fins acadêmicos, seus desdobramentos sociais e éticos exigem atenção imediata, segundo os pesquisadores. “A sociedade como um todo deve se posicionar diante dessas tecnologias”, diz Stachl.

Ele defende que juristas, políticos e formuladores de políticas públicas precisam participar do debate sobre os limites e os usos da inteligência artificial que antecipa o comportamento humano. “É um desafio que ultrapassa os muros da ciência”, conclui.