Prêmio Nobel de Física 2024: Entre o progresso e o risco na IA

A Real Academia Sueca de Ciências premiou os pioneiros do aprendizado de máquina John Hopfield e Geoffrey Hinton por lançarem as bases para a inteligência artificial capaz de imitar aspectos do cérebro humano. Embora essa tecnologia impulsione avanços notáveis em áreas como medicina e astrofísica, o próprio Hinton alertou repetidamente sobre os perigos inerentes ao seu desenvolvimento.

Até onde a inteligência artificial pode ou deve avançar?

Por: Gabriel E. Levy B.

Em 1982, John Hopfield introduziu uma inovação radical ao criar um tipo de memória associativa que permitia que padrões complexos de dados fossem armazenados e recuperados.

Sua abordagem, inspirada em como a memória funciona no cérebro humano, lançou as bases para o desenvolvimento de redes neurais artificiais, um campo que explora o processamento de informações emulando estruturas cerebrais.

Por sua vez, Geoffrey Hinton, conhecido como “o padrinho da inteligência artificial”, foi ainda mais longe nessa linha. Seu trabalho em redes neurais profundas levou a métodos que permitem que as máquinas reconheçam padrões em imagens, sons e outros dados, sem intervenção humana direta.

O progresso de ambos os cientistas permitiu que a inteligência artificial alcançasse capacidades antes impensáveis.

Do reconhecimento facial à tradução automática, as redes neurais fazem parte do nosso dia a dia, resolvendo problemas e simplificando tarefas de forma cada vez mais autônoma.

Como destacou Ellen Moons, presidente do Comitê Nobel de Física, a inteligência artificial permite “reconhecer imagens e associá-las a memórias e experiências passadas“, emulando as habilidades cognitivas humanas.

Esse processo não seria possível sem os princípios da física aplicados por Hopfield e Hinton à computação, transformando as redes neurais em uma ponte fascinante entre biologia e tecnologia.

Inteligência artificial: avanços e desafios

No entanto, o desenvolvimento dessas tecnologias, como alerta Hinton, traz consigo uma série de riscos.

Sua renúncia do Google em 2023, um movimento que surpreendeu o mundo, veio com avisos claros sobre as ameaças potenciais da inteligência artificial.

Hinton alertou que essa tecnologia, tão poderosa quanto fascinante, pode ser manipulada ou mal utilizada de maneiras que nem imaginamos.

Em sua recente aparição pública durante a coletiva de imprensa do Nobel, ele insistiu: “Não temos experiência do que é ter coisas mais inteligentes do que nós” e alertou que, em sua opinião, há uma probabilidade de 50% de que nos próximos vinte anos enfrentaremos problemas significativos se a IA continuar avançando sem controle.

Esse medo não é apenas uma previsão apocalíptica. Como aponta o filósofo Nick Bostrom em sua obra “Superinteligência: Caminhos, Perigos, Estratégias”, uma inteligência artificial avançada poderia desenvolver “objetivos desalinhados com os nossos” e potencialmente agir em detrimento da humanidade.

Bostrom, como Hinton, considera crucial estabelecer regulamentos e estruturas éticas para orientar o desenvolvimento da IA, especialmente à medida que se aproxima de níveis sem precedentes de autonomia.

Na prática, isso pode implicar limitações no uso da IA em áreas onde os riscos superam os benefícios ou onde não há clareza sobre as possíveis consequências.

No entanto, Hinton, apesar de suas advertências, deixou claro que não se arrepende de suas contribuições, afirmando que “se eu não tivesse feito isso, outra pessoa teria feito”.

Essa frase reflete o dilema de muitos cientistas contemporâneos que, apesar de reconhecerem os riscos, continuam a explorar campos cujos impactos ainda não são totalmente compreendidos. Sua perspectiva sugere que a responsabilidade pelo controle não deve recair apenas sobre os desenvolvedores, mas sobre a sociedade como um todo.

Exemplos de um risco cada vez mais próximo

A renúncia de Hinton do Google coincidiu com um período de intensa competição entre gigantes da tecnologia como Google e Microsoft.

À medida que ambos procuram integrar chatbots e sistemas de IA mais avançados em seus produtos, foi desencadeada uma corrida na qual a cautela fica em segundo plano.

Como Hinton descreve, o crescimento acelerado da inteligência artificial, sem uma estrutura de controle clara, pode resultar na criação de ferramentas difíceis de regular.

Nesse contexto, o filósofo Yuval Noah Harari alertou que a IA “pode se tornar a ferramenta perfeita para regimes autoritários”, permitindo controle e manipulação em níveis inimagináveis até recentemente.

Além disso, outro aspecto preocupante que Hinton destacou é o impacto no emprego e no mercado de trabalho.

Ao automatizar tarefas rotineiras, a inteligência artificial desloca trabalhadores, afetando principalmente setores menos qualificados, mas com o tempo, profissões ainda mais complexas podem ser ameaçadas.

Isso levanta uma questão ética que se torna mais crítica à medida que a tecnologia avança. Como adverte Harari, a IA tem o potencial de transformar irreversivelmente a estrutura social, “decidindo quem tem emprego e quem não tem” e criando uma disparidade social que exacerba problemas pré-existentes.

A perspectiva de Hinton, que chegou a prever que em algum momento poderíamos enfrentar a criação de “robôs assassinos” autônomos, não é totalmente rebuscada quando se considera o interesse dos militares em inteligência artificial.

Em 2015, mais de mil cientistas, incluindo o próprio Hinton e o cofundador da Tesla, Elon Musk, assinaram uma carta aberta pedindo a proibição do desenvolvimento de armas autônomas que usam IA, descrevendo-as como “máquinas sem ética ou moral”.

Entre o progresso e o medo

Esse dilema entre progresso e medo nos confronta com uma pergunta inescapável: como garantir que a inteligência artificial permaneça alinhada com os interesses humanos? De acordo com Hinton, a chave está na colaboração global que impede que empresas ou governos busquem metas de curto prazo às custas da segurança coletiva. Essa ideia ressoa com a perspectiva de Bostrom, que defende a criação de órgãos internacionais dedicados à supervisão e regulação da inteligência artificial, algo semelhante à Agência Internacional de Energia Atômica, mas dedicado ao monitoramento de IA. No entanto, em um mundo cada vez mais competitivo e fragmentado, alcançar a regulamentação global parece um desafio quase utópico.

Nesse contexto, o progresso tecnológico e o medo de suas consequências atuam como forças complementares que exigem um equilíbrio delicado. À medida que a inteligência artificial continua a evoluir, seu futuro dependerá da capacidade da humanidade de encontrar um terreno comum no qual o lucro coletivo tenha precedência sobre interesses particulares. A inteligência artificial, nesse sentido, não é apenas uma ferramenta tecnológica, mas um espelho das prioridades e valores da sociedade que a desenvolve. Assim, o dilema entre progresso e medo torna-se um reflexo sobre nossa capacidade de construir um futuro em que a inteligência artificial trabalhe a favor dos interesses humanos, e não como um substituto incontrolável para eles.

Em conclusão, o Prêmio Nobel concedido a Hinton e Hopfield celebra o avanço científico e a engenhosidade humana no seu melhor, mas também destaca um aspecto essencial da inteligência artificial: seu potencial para transcender as expectativas originais de seus criadores. À medida que exploramos como essas tecnologias transformaram nossas vidas diárias, e diante dos pedidos de cautela de figuras como Hinton e Bostrom, fica claro que o debate sobre inteligência artificial não é apenas sobre o que podemos alcançar com ela, mas sobre que tipo de sociedade queremos construir à medida que progride.