Por Gaby Santana
Conteúdos audiovisuais produzidos por inteligência artificial estão cada vez mais sofisticados e difíceis de distinguir da realidade. Capazes de reproduzir rostos, vozes e situações com alto grau de verossimilhança, esses materiais ampliam o alerta para a desinformação, sobretudo diante do calendário eleitoral de 2026.
Especialistas ouvidos por órgãos de checagem apontam que a tecnologia já permite criar vídeos, áudios e imagens que simulam declarações oficiais, eventos públicos e anúncios governamentais inexistentes. Em cenários assim, informações falsas podem circular com rapidez, explorando emoções como medo, urgência ou comoção para induzir decisões precipitadas.
A preocupação cresce à medida que se aproxima 2026, quando o uso dessas ferramentas tende a se intensificar tanto no debate político quanto em fraudes financeiras. Segundo especialistas, o impacto não se limita à manipulação de opiniões: há riscos diretos à segurança do público, com pedidos falsos de doações, transferências bancárias e coleta indevida de dados pessoais.
Diante desse cenário, a recomendação é cautela redobrada. Informações que apelam para urgência ou prometem vantagens imediatas devem ser conferidas em fontes oficiais e veículos confiáveis. Evitar o compartilhamento automático e buscar checagens independentes são passos considerados essenciais.
Com o avanço acelerado da tecnologia, cresce também a necessidade de fortalecer o pensamento crítico. Analisar, questionar e confirmar antes de repassar conteúdos ou realizar qualquer transação financeira tornou-se uma prática de proteção coletiva.
O uso ético e responsável da inteligência artificial, aliado à atenção da sociedade e à transparência das instituições, será decisivo para conter os efeitos da desinformação e preservar o interesse público nos próximos anos.
