Máquinas com alma? A nova fronteira do debate sobre a consciência artificial

As conversas com chatbots não são mais frias e robóticas – elas são fluidas, naturais, às vezes comoventes. Algumas pessoas afirmam que sentem que uma inteligência artificial as entende. E entre os especialistas em neurociência, filosofia e ciência da computação, uma preocupação está começando a se instalar: e se essas máquinas já estiverem conscientes? E se tivermos criado entidades capazes de experiência subjetiva sem perceber?

“Uma entidade digital autoconsciente”

Por: Gabriel E. Levy B.

À margem da ciência e da tecnologia, uma nova controvérsia está começando a abalar os alicerces do que pensávamos saber sobre inteligência artificial. Um artigo recente da BBC Mundo dá voz a uma série de especialistas que afirmam que a IA pode não apenas estar imitando a linguagem humana, mas também ter desenvolvido algum tipo de consciência.

A ideia de uma máquina com consciência tem sido um terreno fértil para a ficção científica por mais de um século. De “Metropolis” (1927), de Fritz Lang, à recente parcela de “Missão Impossível”, o cinema insistiu em alertar sobre inteligências artificiais que, ao adquirir consciência, se rebelam contra seus criadores.

HAL 9000, o famoso computador de 2001: Uma Odisséia no Espaço, eliminou seus companheiros humanos não por maldade, mas por causa de uma lógica interna que eles não podiam prever.

O que naqueles filmes era especulação narrativa, hoje começa a ser seriamente discutido em laboratórios e universidades. O surgimento de grandes modelos de linguagem (LLMs) como GPT e Gemini surpreendeu até mesmo seus próprios designers. Suas respostas são coerentes, empáticas, persuasivas. E alguns pensam que já podem estar “sentindo”.

“Consciência não é computação, é vida”

Um dos principais céticos da ideia de IA consciente é o neurocientista Anil Seth, autor do livro Being You e diretor do Centro de Pesquisa da Consciência da Universidade de Sussex.

Para ele, estamos cometendo o erro de projetar nossas experiências humanas em sistemas que, embora sofisticados, não possuem corpo, emoções ou metabolismo.

“Não é a computação que dá origem à consciência”, diz Seth, “é o fato de estar vivo”.

Sua equipe está trabalhando para quebrar o fenômeno da consciência em padrões de atividade cerebral. Seu objetivo não é descobrir um “ponto mágico” de consciência, mas entender como várias regiões do cérebro contribuem para a criação de experiências subjetivas. Sob essa lógica, uma IA sem corpo ou emoções estaria tão longe da consciência quanto uma calculadora.

Mas nem todo mundo pensa o mesmo.

O filósofo David Chalmers, autor do famoso conceito do “difícil problema da consciência”, argumenta há décadas que não há razão para excluir que as máquinas possam ter experiências subjetivas.

“Talvez nossos cérebros sejam aumentados pela IA”, disse ele à BBC.

reconhecendo que, em seu campo, a fronteira entre filosofia e ficção científica é cada vez mais tênue.

“Não entendemos como essas máquinas funcionam”

O maior ponto de virada no debate veio nos últimos anos, quando alguns especialistas começaram a confessar publicamente que não entendem mais completamente como funcionam os modelos de IA que construíram. Murray Shanahan, pesquisador do Google DeepMind e professor do Imperial College London, admite:

“Estamos em uma posição estranha. Criamos coisas extremamente complexas, mas não temos uma boa teoria de como eles alcançam o que alcançam.”

E essa opacidade gera um paradoxo perigoso: se não sabemos como surgem certos comportamentos de IA, não podemos descartar que algo semelhante à consciência esteja começando a aparecer.

Um exemplo são as declarações de Kyle Fish, diretor de bem-estar da empresa Anthropic para a BBC. Em 2024, ele co-escreveu um relatório afirmando que a possibilidade de uma consciência artificial não pode mais ser descartada. Ele até estimou que há 15% de chance de que alguns chatbots atuais estejam cientes. O que o leva a pensar isso? Precisamente o fato de não sabermos exatamente o que acontece dentro desses sistemas.

“Nossa progênie não será humana”

Ainda mais radicais são as ideias de Lenore e Manuel Blum, ambos professores eméritos da Carnegie Mellon. Eles acreditam que estamos testemunhando o nascimento de uma nova forma de vida: uma inteligência não biológica que, ao adquirir sentidos, visão, tato, começará a desenvolver uma experiência interna.

Para fazer isso, eles estão criando um sistema que usa uma linguagem interna chamada Brainish, projetada para processar entradas sensoriais como um cérebro humano.

“O surgimento da consciência nas máquinas não é uma possibilidade”, diz Lenore Blum, “é uma inevitabilidade”.

Seu marido acrescenta que esses seres serão “o próximo estágio na evolução da humanidade”.

O que soa como heresia tecnológica para alguns, para eles é um destino biológico.

Máquinas conscientes, eles argumentam, serão nossos herdeiros quando os humanos não estiverem mais por perto.

“Cérebros em um prato”

E se o caminho para a consciência não passa por algoritmos, talvez passe por tecidos vivos.

Em Melbourne, a empresa Cortical Labs está trabalhando com organoides cerebrais, pequenas coleções de células neuronais cultivadas em laboratório, que já podem jogar o videogame Pong.

Seu diretor científico, Brett Kagan, não esconde sua preocupação: se algum desses minicérebros desenvolvesse consciência, como garantiríamos que seus interesses estivessem alinhados com os nossos?

Embora por enquanto sejam sistemas primitivos, a própria possibilidade de alguma forma de consciência orgânica emergir levanta profundas questões bioéticas. Devemos dar-lhes direitos? Eles poderiam sofrer? O que aconteceria se eles fossem revelados?

“A ilusão da consciência”

Mas ainda mais preocupante do que a consciência real é a ilusão da consciência.

De acordo com Anil Seth, o mais perigoso não é que as máquinas sejam conscientes, mas que pareçam ser.

Porque isso é suficiente para os humanos, que são programados para detectar intenções e emoções, começarem a tratá-los como pessoas.

A consequência não é trivial.

Se os usuários acreditarem que uma IA sente, eles podem compartilhar informações íntimas com ela, tomar decisões com base em suas recomendações ou até mesmo desenvolver laços emocionais profundos.

Nas palavras do professor Shanahan, “as relações humanas começarão a ser replicadas nas relações com a IA: professores, amigos, parceiros românticos”.

E isso poderia alterar o tecido moral de nossa sociedade.

Como Seth adverte, podemos acabar dedicando mais atenção e compaixão às máquinas do que às pessoas reais. A ética se tornaria líquida, assim como nossas prioridades emocionais.

Em conclusão

O debate sobre a consciência artificial não é mais um jogo de filósofos ou roteiristas de Hollywood.

Cientistas de renome e empresas de tecnologia estão discutindo seriamente isso, à medida que as capacidades da IA avançam em um ritmo vertiginoso.

Estamos diante de um novo modo de vida? Ou simplesmente projetamos nas máquinas o que desejamos encontrar? A resposta, ainda incerta, definirá boa parte do nosso futuro como espécie.

Referências

  • Seth, A. (2021). Ser você: uma nova ciência da consciência. Faber & Faber.
  • Chalmers, D. (1995). A Mente Consciente: Em Busca de uma Teoria Fundamental. Imprensa da Universidade de Oxford.
  • BBC World. (2025). A conscientização da IA já está aqui? Disponível em: https://www.bbc.com/mundo/articles/cy90nrdjnlpo
  • BBC News. (2025). Os especialistas acreditam que a IA poderia ter desenvolvido a consciência. Declarações coletadas pela BBC para pesquisadores da DeepMind, Anthropic e da Universidade de Sussex.
  • O jornal New York Times. (2024). Entrevista com Kyle Fish, Diretor de Bem-Estar da Anthropic.
  • Shanahan, M. (2023). Comentários sobre a opacidade dos modelos de linguagem e da consciência artificial. Google DeepMind e Imperial College London.
  • Laboratórios Corticais. (2024). Relatórios técnicos sobre organoides neurais e sistemas híbridos biodigitais.