Quarta-feira, 18 de Junho de 2025
Por Redação Rádio Pampa | 17 de junho de 2025
A rápida evolução das ferramentas de inteligência artificial (IA) vem despertando preocupação crescente entre os órgãos fiscalizadores brasileiros. A Justiça Eleitoral há tempos acompanha o avanço das deepfakes e outros conteúdos manipulados, e recentemente houve um salto no número de processos relacionados – de três em 2022 para 109 em 2024, além de 51 ações já em curso neste ano.
Esses conteúdos falsos, muitas vezes ultrarrealistas, têm potencial para enganar o eleitorado e disseminar informações falsas de grande impacto – como vídeos atribuídos a lideranças políticas anunciando fictícios benefícios ou acusações graves. A professora Pollyana Ferreira, da USP, alerta que “vídeos ultrarrealistas” sincronizam voz e imagem com tal precisão que podem influenciar resultados eleitorais.
Em paralelo, cresce a pressão para regulamentar o uso da IA no Brasil. Um projeto de lei, o PL 2338/2023, estabelece um marco regulatório com criação de um Sistema Nacional de Regulação e Governança de IA, sob coordenação da ANPD, e já foi aprovado no Senado em dezembro de 2024. O texto tem foco em sistemas de alto risco e prevê governança, transparência e segurança, ainda aguardando análise na Câmara.
Enquanto isso, órgãos como o TCU e tribunais de contas estaduais estão adotando IA para aprimorar seus próprios processos de fiscalização. No 3º LabTCs, diversos Tribunais de Contas apresentaram ferramentas como o “Barbosa” (TCM‑BA) e o sistema ADA (TCDF), destinadas a automatizar análise de documentos e o monitoramento de decisões judiciais. O TCU, por sua vez, já recomenda o uso de IA para melhorar o controle de dados previdenciários e subsídios agropecuários.
Contudo, o uso generalizado de IA também coloca em risco a privacidade dos cidadãos. Pesquisa da FGV revelou que plataformas bastante utilizadas no Brasil, como ChatGPT e Grok, descumprem requisitos da LGPD, falhando em transparência, explicações sobre uso de dados e informações inteiramente em português. Esses gaps regulatórios alimentam o alerta de órgãos de fiscalização quanto ao uso indevido de dados pessoais.
Além de deepfakes e privacidade, surge outra preocupação: a IA facilitando ciberataques. Relatório do DBIR 2024 mostra que hackers usam IA para automatizar varreduras por vulnerabilidades, dobrando esse tipo de ataque em apenas um ano. Especialistas afirmam que, se antes defender era difícil, agora é um dilema sistêmico: defender-se com IA contra ataques feitos também por IA.
Em resposta, autoridades como o TSE pedem urgência na regulamentação – conforme evidenciado na análise da CNN. A criação de marcos legais capazes de conter os riscos gerados pela utilização e manipulação de IA em massa é vista como medida essencial para garantir integridade dos processos democráticos e sociais.
O cenário que se desenha é de um jogo de xadrez entre tecnologia e fiscalização. De um lado, ferramentas que potencializam fraudes, manipulação e invasões. De outro, órgãos que aceleram a adoção da IA para combater esses mesmos desafios.
No Ar: Pampa Na Madrugada