Em um ano eleitoral, IA deve se tornar uma máquina de desinformação
O filósofo italiano Luciano Floridi, que afirma que a IA pode ser usada para o que chama de “hipersuasão” – Foto: Creative Commons
Estamos com 2026 batendo às nossas portas, ano de Copa do Mundo e de eleições, inclusive presidenciais. Como acontece de maneira crescente desde 2018, essa campanha será fortemente influenciada pela desinformação nas redes sociais, agora potencializada pela inteligência artificial.
Infelizmente, a mesma IA que nos oferece recursos incríveis também se presta àqueles que se beneficiam de uma população ignorante e contaminada por fake news. Nossa capacidade de nos mantermos bem-informados sofre dupla ameaça: a de conteúdos propositalmente falsos, porém mais críveis, e a de fontes pouco confiáveis capturando crescentemente a nossa atenção.
Nesse caldo, surgem pretensos “veículos de comunicação” totalmente criados por inteligência artificial, dispensando a ação de jornalistas ou de qualquer ser humano. Eles propõem que, ao delegar para a máquina a escolha dos assuntos e a produção dos conteúdos, seriam livres dos vieses que toda pessoa carrega e, por isso, mais confiáveis e relevantes que os veículos jornalísticos profissionais.
Para uma mente desavisada, isso pode parecer uma grande ideia. Infelizmente, ela, por si só, é falsa de diferentes formas. Por isso, penso que os criadores dessas plataformas são, no melhor dos casos, inocentes ou ignorantes e, no pior, intelectualmente muito desonestos. Qualquer que seja a situação, suas propostas enfraquecem o jornalismo e tornam a população ainda mais suscetível à manipulação de grupos de poder, algo que se torna mais perigoso em ano de eleições.
Vale observar que, quanto mais poderosa se torna a inteligência artificial, mais importante fica a nossa humanidade, para preservarmos o nosso protagonismo na sociedade. Ao abrirmos mão de nosso senso crítico, corremos o risco de sermos dominados pelas máquinas e -o que é pior- por pessoas que aprenderam a usá-las para impor seus interesses. E infelizmente é o que está acontecendo.
Veja esse artigo em vídeo:
Já em 2024, o filósofo Luciano Floridi, diretor do Centro de Ética Digital da Universidade de Yale (EUA), publicou um artigo em que aprofundou o termo “hipersuasão” para descrever esse problema. O italiano, uma das maiores autoridades globais na filosofia da informação, considera a IA a máquina perfeita de convencimento, pela sua capacidade de nos conhecer profundamente e de produzir conteúdos muito convincentes a partir das características e valores de cada indivíduo.
“A avaliação do poder de hipersuasão da IA é negativa e até potencialmente aterrorizante, por causa de todos os atores malignos que poderiam usá-la para os piores tipos de atos horríveis”, escreveu Floridi. “Milhões de pessoas poderiam estar sujeitas a tal hipersuasão e incapazes de resistir a ela criticamente”, acrescentou.
Para ele, “em uma sociedade decente, as formas aceitáveis de hipersuasão deveriam ser regulamentadas, enquanto as inaceitáveis deveriam ser banidas”. Floridi acredita que pessoas bem-educadas e engajadas minimizariam esse risco, mas reconhece que isso é utópico. “Um público mais instruído, que exprima coletivamente preocupações e participe em discussões sobre a utilização ética da IA como tecnologia persuasiva, pode influenciar os debates políticos e os processos democráticos.”
Um exemplo de veículo de comunicação totalmente feito por IA é o NewsGPT, cujo slogan é “a verdade não humana”. Sua descrição diz que “por ser uma plataforma orientada por IA, ele se baseia em dados e algoritmos -não em humanos- para gerar artigos jornalísticos, eliminando opiniões pessoais e agendas”. Afirma ainda que “tem a capacidade de processar enormes volumes de informação de diversas fontes, resultando em cobertura de notícias 24 horas por dia, em todo o mundo”.
CONTiNUA APÓS PUBLICIDADE
Não é o que acontece, a começar porque, em muitos dias, o serviço não publica notícia alguma. Suas produções rasas têm apenas três parágrafos, com textos e imagens com erros grosseiros. Além disso, não há nada relevante nos assuntos. Neste momento, entre seus destaques, estão textos sobre um casal que morreu em um incêndio em uma sauna em Tóquio, um rapper americano que foi preso na Romênia por fumar maconha no palco e o jogo de abertura da Copa Africana de Nações.
A plataforma incentiva seu público a denunciar o que considere notícias falsas. Mas as pessoas raramente têm preparo para identificar isso. É comum disseminarem o que gostam, mesmo que seja mentira, e denunciarem o que lhes desagrada, ainda que verdadeiro. Isso destrói a premissa de imparcialidade e precisão da plataforma.
Antijornalismo
O desserviço prestado pelo NewsGPT continua quando ele propõe criar “notícias personalizadas, adaptadas às preferências de cada espectador (…) entregando um noticiário personalizado, feito especialmente para você”.
Novamente, isso parece uma boa ideia. Mas o bom jornalismo nunca pode manter o público em sua zona de conforto. As pessoas precisam ser informadas sobre tudo que importa, mesmo que elas não gostem. Infelizmente, além de coisas divertidas, o mundo está repleto de casos tristes ou incômodos, que precisam ser conhecidos.
As “bolhas de filtro”, promovidas pelo NewsGPT como um diferencial, são, na verdade, a raiz da polarização patológica em que as redes sociais lançaram o mundo ao longo dos últimos 15 anos. Com seus algoritmos exibindo apenas o que cada um gosta, as pessoas abandonaram o jornalismo sério, que insiste em lhes mostrar o mundo como ele é, para abraçarem alegremente a ilusão de mentiras confortáveis.
Não podemos esquecer que, a despeito das falácias sobre as quais esses falsos veículos de comunicação se constroem, a própria IA possui vieses em sua concepção. A tecnologia os herda dos dados de seu treinamento, dos algoritmos e de escolhas humanas de design, mesmo que busque mitigá-los com verificação cruzada.
Não há garantias de que o NewsGPT não esconda uma agenda política, pois ele não divulga detalhes sobre seus acionistas, algoritmos ou auditorias externas de neutralidade. Mesmo assim, propostas como essa enfraquecem o jornalismo tradicional, pois as pessoas se acostumam a consumir um pretenso noticiário focado em seus gostos. Ao abandonarem os veículos sérios, eles ficam cada vez mais descapitalizados, perdendo a capacidade de fazer um bom trabalho informativo.
“O risco é que a hipersuasão explore as vulnerabilidades dos indivíduos ou os oriente para decisões contrárias aos seus interesses”, alerta Floridi. “Aproveitá-la de forma frutífera e responsável é factível, a questão em aberto é se o faremos”, conclui.
Mas infelizmente muita gente usará as redes sociais e a IA para mentiras confortáveis.


