A inteligência artificial tornou-se uma companheira regular do pensamento humano. GPT-4 responde, escreve, resolve, propõe.
E embora a promessa de sua eficiência pareça imbatível, um novo estudo levanta um alerta perturbador: confiar nessa ferramenta para tarefas complexas pode fazer com que nossos cérebros percam sua vantagem.
A delegação constante de processos cognitivos profundos pode estar anestesiando lentamente nossas habilidades mais valiosas.
“Quando paramos de pensar, algo dentro de nós também para”
Por: Gabriel E. Levy B.
Esta não é a primeira vez que a humanidade externaliza as funções mentais. Desde a invenção da escrita, como observou Walter Ong, cada tecnologia do conhecimento significou uma transformação na forma como processamos o mundo.
Escrevemos para não memorizar, navegamos por GPS para não orientar, perguntamos aos motores de busca antes da memória.
Mas nunca uma ferramenta ofereceu respostas tão complexas, tão convincentes e tão rápidas quanto o GPT-4.
Nicholas Carr já o antecipou em Superficiales (2010):
“O que a Internet parece estar fazendo é diminuir minha capacidade de me concentrar e contemplar.”
Um estudo recente publicado pelo MIT na revista Nature[1], mostrou que a inteligência artificial está dando um novo passo nessa direção.
O estudo que analisou 482 pessoas mostrou que aqueles que usaram o GPT-4 em dilemas morais ou raciocínio abstrato obtiveram resultados mais rápidos e aparentemente precisos, mas com menos profundidade e clareza.
É possível que estejamos começando a pensar menos e nem percebamos?
“A máquina pensa por mim”
O paradoxo de usar o GPT-4 não está em sua capacidade de ajudar, mas em nossa tendência de deixá-lo fazer tudo. O fenômeno identificado como “deslocamento cognitivo” envolve uma transferência gradual de esforço mental para a máquina. É uma delegação que, como acontece com qualquer músculo não exercitado, pode levar à atrofia funcional.
“Preguiça epistêmica”, outra descoberta importante do estudo, refere-se ao atalho mental que muitos usuários adotam. GPT-4 propõe e o usuário acena com a cabeça.
O problema não é usar a ferramenta, mas parar de questioná-la. Se tudo é automatizado, até mesmo o pensamento, que espaço resta para a dúvida, o erro, a introspecção?
O pesquisador dinamarquês Svend Brinkmann, em seu trabalho Stand Firm, argumentou que o pensamento profundo requer resistência, tempo e até desconforto.
O GPT-4, ao oferecer soluções instantâneas, parece apagar esse atrito e, com ele, os processos cognitivos que forjam o pensamento crítico e a autonomia.
“Imaginar não é o mesmo que resolver”
O estudo não condena o uso da IA, mas introduz uma distinção importante: o impacto varia de acordo com o tipo de tarefa. Em atividades como brainstorming ou escrita criativa, o GPT-4 pode atuar como uma centelha de inspiração. Mas quando se trata de lógica formal, dilemas éticos ou raciocínio analítico, sua intervenção pode corroer as capacidades humanas.
Por que isso acontece? Como as tarefas criativas são divergentes, abertas e nesse campo, a IA pode alimentar novas ideias.
Por outro lado, o pensamento lógico e ético exige rigor, consistência, construção paciente de argumentos. A facilidade com que o GPT-4 fornece respostas pode levar o usuário a confundir clareza com verdade e velocidade com profundidade.
O problema é duplo: não apenas delegamos à IA, mas exercitamos cada vez menos nossa capacidade de lidar com o complexo.
Resolver dilemas requer algo que a IA ainda não tem: consciência, intuição, conflito interno. Se deixarmos que isso os resolva para nós, estamos abrindo mão do direito de aprender pensando.
“Casos em que o pensamento foi diluído”
Os casos observados no estudo fornecem exemplos reveladores. Um grupo teve que resolver o clássico dilema do bonde, salvando cinco pessoas sacrificando uma. Aqueles que usaram o GPT-4 rapidamente propuseram a opção utilitária, sem explorar nuances éticas ou considerar valores como dignidade individual ou autonomia moral. Aqueles que raciocinaram sem IA ofereceram respostas mais diversas, com argumentos que refletiam tensão moral e consciência da ambiguidade.
Em outra tarefa, foi solicitado que justificasse por que um algoritmo deveria ou não decidir o acesso a tratamentos médicos com base na história genética. Os usuários de IA repetiram argumentos gerados pelo GPT-4, mas sem demonstrar uma compreensão dos riscos de discriminação ou das implicações sociais. Seu raciocínio, embora estruturado, carecia de profundidade.
Em contraste, tarefas de escrita criativa, como escrever um poema ou iniciar um romance curto, mostraram outro padrão. A IA ampliou a produtividade dos participantes, gerou imagens sugestivas e estimulou novas formas narrativas. Aqui, a delegação não extinguiu a criatividade, mas a multiplicou.
O caso é claro: não se trata de banir ou temer a inteligência artificial, mas de entender seus limites e, acima de tudo, os nossos.
Em conclusão, o uso constante do GPT-4 pode facilitar a vida intelectual, mas ao preço de torná-la mais superficial. Se deixarmos de exercitar o raciocínio profundo, a tomada de decisões críticas e a resolução autônoma, corremos o risco de perder o que nos faz pensar verdadeiramente. A inteligência artificial não é um inimigo, mas é um espelho: revela o quanto estamos dispostos a continuar pensando por nós mesmos.
Referências:
- Carr, Nicolau. Superficial: O que a Internet está fazendo com nossas mentes? Touro, 2010.
- Ong, Walter. Oralidade e escrita. Tecnologías de la palabra, Fondo de Cultura Económica, 1987.
- Brinkmann, Svend. Mantenha-se firme: resistindo à mania de autoaperfeiçoamento. Imprensa Política, 2017.
- Ahmad, SF, Han, H., Alam, MM et al. Impacto da inteligência artificial na perda de vidas humanas na tomada de decisões, preguiça e segurança na educação. Humanit Soc Sci Commun 10, 311 (2023). https://doi.org/10.1057/s41599-023-01787-8
[1] https://www.nature.com/articles/s41599-023-01787-8