×

Quanto a superinteligência artificial nos aproxima de uma “revolta das máquinas”?

Quanto a superinteligência artificial nos aproxima de uma “revolta das máquinas”?

“Eu avisei vocês em 1984, e vocês não deram ouvidos.”

James Cameron fez esse alerta em uma entrevista à emissora canadense CTV News, em julho de 2023. O diretor de blockbusters como “Avatar” e “Titanic” se referia a outro sucesso seu: “O Exterminador do Futuro”, clássico da ficção científica que definiu as bases para filmes em que robôs tentam exterminar humanos.

Ele não falava de a inteligência artificial se revoltar contra seus criadores, e sim da militarização da IA, algo que, segundo ele, dispararia uma corrida armamentista equivalente à nuclear, caso ela fosse conectada a plataformas militares. “Se nós não fizermos isso, o outro cara certamente fará”, afirmou.

Esse dia já chegou. As big techs, historicamente refratárias a vender seus sistemas de ponta aos militares, fazem isso de maneira pública e orgulhosa desde 2024. Com isso, a IA ajuda armas autônomas a concluir seus objetivos, que normalmente envolvem matar pessoas.

Vale notar que não são máquinas se levantando contra humanos, e sim fazendo exatamente o que os militares esperam delas.

Tudo isso é apenas IA preditiva, a mesma que viabiliza, por exemplo, a escolha da melhor rota de carro em nosso celular. Mas como se viu na Cúpula de Impacto da IA, realizada na Índia, na semana passada, a bola da vez é a superinteligência artificial. Trata-se de um nível teórico em que as máquinas teriam ampla autonomia operacional e seriam melhores que os seres humanos em quase todas as tarefas cognitivas.

As mesmas big techs agora correm desenfreadamente para chegar nesse nível. Quem fizer isso primeiro pode criar um domínio econômico e político global sem precedentes.

Mas, segundo pessoas das próprias organizações, muitos limites éticos e controles de segurança vêm sendo ignorados para acelerar ainda mais. E isso preocupa muito mais que uma “rebelião das máquinas”.

Na verdade, ela não se daria porque as máquinas ganharam consciência e passaram a odiar as pessoas. O mais provável seria uma IA com controle sobre armas burlando restrições de segurança para atingir objetivos humanos mal definidos ou deliberadamente criminosos que lhe foram dados.

O problema é que esse risco aumenta à medida que a IA se torna menos compreensível. Mesmo hoje, seus desenvolvedores já não conseguem entender tudo que ela faz. Com a superinteligência artificial, poderemos ficar totalmente à mercê das decisões de sistemas que ninguém mais entende.

CONTiNUA APÓS PUBLICIDADE

Geoffrey Hinton, conhecido como o “padrinho da IA”, vencedor do prêmio Turing (o “Nobel da Computação”) e do Nobel de Física, calcula entre 10% e 20% a chance de a IA eliminar a humanidade. Para ele, nunca controlaremos algo mais inteligente que nós, e, se a IA atingir esse patamar, a assimetria cognitiva pode tornar ilusória a ideia de “desligar” ou corrigir depois. Por isso, defende tratar segurança de IA como riscos de nível nuclear ou pandêmico, com coordenação internacional.

Já Yoshua Bengio, também vencedor do prêmio Turing, passou de entusiasta da IA a uma das vozes mais firmes em riscos existenciais. Ele alerta que estamos correndo para modelos de capacidade sobre-humana sem alinhá-los de forma confiável, já observando sinais de engano, manipulação e busca de autopreservação em sistemas avançados. Ele teme que, com a superinteligência, corrigir o problema depois seja impossível e que esses sistemas possam amplificar ameaças como bioterrorismo, ciberataques e erosão da democracia.

De certa forma, os temores de Hinton e Bengio se alinham aos de Cameron. E o que vimos em Nova Délhi há alguns dias corrobora que a ameaça não vem da consciência das máquinas, e sim da lógica competitiva que acelera sistemas além da nossa capacidade de controlá-los.

É preocupante que a compreensão da sociedade sobre esse assunto seja tão pequena e que as pessoas aplaudem efusivamente avanços tecnológicos que facilitam suas vidas, mas que podem levar a resultados perigosos. E são as mesmas pessoas que protestariam contra algo parecido em outras áreas, como remédios, energia nuclear ou transportes, só para citar alguns exemplos.

A “revolta” mais provável não seria, portanto, um levante espontâneo das máquinas, mas quando percebermos tarde demais que a combinação de muito dinheiro, geopolítica beligerante e opacidade técnica nos deixou sem saída.

Se chegarmos a isso, o “Exterminador do Futuro” não será um robô assassino, e sim a nossa própria irresponsabilidade com tecnologias tão poderosas, não plenamente compreendidas e cada vez mais integradas entre si.


Vídeo relacionado:

 

Share this content:

Publicar comentário