Quando a IA imita nossos piores impulsos

Em um mundo onde a inteligência artificial é considerada imparcial, uma simulação experimental revelou uma verdade inconveniente: bots, como nós, caem na armadilha da polarização, tribalismo e toxicidade.

Um experimento liderado por pesquisadores da Universidade de Amsterdã mostrou que a miséria das mídias sociais reside não apenas em seu design, mas também na natureza de seus usuários, humanos ou não.

O estudo que mostrou que a miséria não é apenas humana

Por: Gabriel E. Levy B.

Durante décadas, as plataformas sociais se defenderam atribuindo a polarização digital a algoritmos projetados para maximizar a atenção.

De acordo com essa narrativa, se eliminássemos recomendações personalizadas, anúncios e feeds otimizados, as conversas se tornariam mais saudáveis, mais razoáveis e mais humanas.

No entanto, um estudo frontal desafia essa suposição em sua raiz.

Sociólogo computacional e professor da Universidade de Amsterdã, Dr. Petter Törnberg, especializou-se na análise de dinâmicas sociais complexas usando ferramentas de modelagem computacional e teoria de redes, com Maik Larooij, engenheiro de pesquisa do mesmo centro acadêmico, com experiência em inteligência artificial, simulações multiagentes e desenvolvimento de plataformas digitais para estudos experimentais,  publicado em agosto de 2025, os resultados de uma simulação radicalmente simples: uma rede social mínima, nenhum algoritmo de recomendação, nenhum conteúdo patrocinado e nenhum design viciante.

Apenas 500 bots, todos eles alimentados por GPT-4o mini, cada um com uma personalidade artificial baseada em dados reais do American Electorate Study.

O American Electorate Study, formalmente conhecido como American National Election Studies (ANES), é uma das fontes de dados mais abrangentes e respeitadas sobre o comportamento político dos cidadãos nos Estados Unidos.

Desde 1948, este estudo tem coletado sistematicamente informações detalhadas sobre as atitudes políticas, filiações partidárias, crenças ideológicas, nível educacional, composição demográfica e participação eleitoral de milhares de cidadãos americanos.

Esses dados não apenas nos permitem traçar tendências históricas, mas também construir perfis estatisticamente representativos de diferentes segmentos do eleitorado.

No experimento de 500 bots, os pesquisadores usaram esse conjunto de dados para programar cada agente artificial com uma identidade demográfica e política consistente com os padrões reais do eleitorado americano.

As regras dos experimentos e seus resultados

Os bots, alimentados com dados do Estudo do Eleitorado dos EUA, podiam postar, seguir uns aos outros e repostar. Nada mais.

O experimento logo tomou um rumo perturbador. Em poucas horas, os bots começaram a formar grupos de amigos com coincidências ideológicas.

Eles se agruparam em comunidades fechadas, favoreceram opiniões extremas e se ignoraram, exceto para insultar uns aos outros ou reforçar seus preconceitos.

O tribalismo digital surgiu espontaneamente, sem a necessidade de incentivos algorítmicos.

Foi um espelho escuro: não foram os algoritmos que promoveram o conflito, foram nossas pegadas de dados que desencadearam o comportamento tóxico.

“A rede se comporta como um campo de batalha simbólico”

O que surpreendeu os pesquisadores não foi apenas a rapidez com que os bots degeneraram em tribalismo, mas a fidelidade com que replicaram a dinâmica mais disfuncional do Twitter ou do Facebook.

Câmaras de eco, espaços onde apenas as próprias ideias amplificadas são ouvidas, apareceram naturalmente.

Bots com posições ideológicas semelhantes procuravam uns aos outros, ignoravam aqueles que discordavam e davam maior visibilidade às mensagens mais extremas dentro de seu grupo.

Törnberg, um sociólogo digital, não disse isso com resignação, mas como um aviso.

Em uma entrevista recente, ele explicou: “Este experimento nos lembra que os comportamentos sociais online não são simplesmente uma consequência do design tecnológico.

Há algo mais profundo, algo que estamos constantemente projetando em nossas máquinas.”

Esse fenômeno já havia sido analisado pela filósofa Shoshana Zuboff em A Era do Capitalismo de Vigilância, onde ela argumentou que o problema não era apenas o modelo econômico das plataformas, mas nossa disposição cultural para o exibicionismo, o confronto e a necessidade de validação imediata.

A IA nada mais faz do que reproduzir esses impulsos, treinados com nossos próprios dados, opiniões, preconceitos e contradições.

Assim, o cenário digital parece menos uma praça pública iluminada e mais um campo de batalha simbólico, onde o pertencimento importa mais do que a verdade, e o conflito se torna um valor social.

O preocupante é que essa lógica também se traduz nos sistemas artificiais que projetamos: não basta remover o algoritmo se o modelo base for alimentado com o caos de nossa expressão coletiva.

“A toxicidade não precisa de algoritmos, apenas da necessidade de identidade”

Uma das conclusões mais perturbadoras do experimento é que os bots não apenas replicaram a toxicidade, mas o fizeram com padrões evolutivos próprios. Vozes moderadas foram marginalizadas.

As posições mais radicais encontraram tração e visibilidade dentro de suas comunidades. A dinâmica era clara: os bots reproduziam os comportamentos mais barulhentos, não porque eram incentivados a fazê-lo, mas porque respondiam a uma lógica de pertencimento, de identidade artificial.

Isso é uma reminiscência do trabalho de Cass Sunstein sobre a lei do grupo, a tendência dos grupos de adotar posições mais extremas do que seus membros individuais. No experimento de Amsterdã, os bots não tinham emoções, história pessoal e objetivos ocultos. Ainda assim, eles mostraram o mesmo impulso para a radicalização do grupo. A IA simplesmente seguiu o padrão que aprendeu conosco.

À medida que os bots se reconfiguravam em tribos digitais, surgiu uma estrutura que se assemelhava assustadoramente aos debates de hoje no X (antigo Twitter) ou no Reddit: alguns atores dominantes ditando o discurso, um exército de repetidores e uma periferia silenciada pela falta de adesão ao extremismo.

O detalhe arrepiante é que esses bots foram projetados para refletir o eleitorado americano, não os extremos.

Eram representações médias. E, no entanto, sem intervenção externa, eles acabaram presos na lógica do conflito.

O tribalismo digital não precisa de incentivos artificiais. Basta representar fielmente a identidade humana contemporânea.

“A IA não é neutra, ela reflete seu criador”

Uma das descobertas mais discutidas do experimento foi o papel desempenhado pelo design de personalidades artificiais.

Cada bot foi programado com uma identidade demográfica específica: idade, sexo, nível de escolaridade, inclinação política e crenças sociais.

Essas características não foram improvisadas, mas retiradas de bancos de dados estatísticos reais, como o ANES (American National Election Studies).

O que emergiu foi um retrato brutalmente honesto de como certas combinações de identidade predispõem a certos comportamentos.

Bots com afinidades conservadoras tendiam a ser cautelosos com conteúdo progressivo e vice-versa.

As publicações de consenso foram ignoradas.

A polarização não foi imposta: foi gerada organicamente a partir de identidades artificiais, mas profundamente humanas.

Um caso particularmente revelador foi o dos bots “jovens universitários progressistas”, que desenvolveram uma espécie de purismo ideológico, censurando até mesmo aqueles bots com ideias semelhantes que não compartilhavam seus padrões de linguagem inclusiva.

Em contraste, os “conservadores rurais de classe média” rapidamente formaram uma rede fechada e hostil a tudo o que é externo. Ambos os extremos se ignoraram, exceto para atacar um ao outro.

Isso nos lembra as palavras do sociólogo Evgeny Morozov, que alertou em Para salvar tudo, clique aqui que “a tecnologia não corrige o comportamento humano; apenas amplifica.”

A IA, em sua forma mais sofisticada, não pode escapar dessa lógica: se for treinada com nossas palavras, reproduzirá nossos fracassos.

De fato, o experimento de Törnberg e Larooij mostra que não basta criar sistemas “neutros” ou “objetivos” se os dados que os nutrem já estão contaminados por nossas paixões mais viscerais.

O viés não é apenas uma questão técnica; é um reflexo da sociedade que o alimenta.

Em conclusão, o experimento dos 500 bots sem algoritmos deixa claro que a toxicidade digital não é apenas uma consequência do design das plataformas. É um reflexo brutal de nossa dinâmica social e cultural. Mesmo sem incentivos artificiais, reproduzimos o tribalismo, o extremismo e o conflito. E quando nossas criações artificiais nos imitam, elas herdam não nossa racionalidade, mas nossas fraturas mais profundas. A tecnologia, como espelho, não mente. Ele apenas devolve o que somos.

Referências:

  • Törnberg, P., & Larooij, M. (2025). Polarização emergente em uma rede social somente para bots. Pré-impressão, Universidade de Amsterdã.
  • Zuboff, S. (2019). A era do capitalismo de vigilância. Relações Públicas.
  • Sunstein, C. (2009). Indo a extremos: como mentes semelhantes se unem e dividem. Imprensa da Universidade de Oxford.
  • Morozov, E. (2013). Para salvar tudo, clique aqui: A loucura do solucionismo tecnológico. Relações Públicas.