Quinta-feira, 16 de Outubro de 2025

Home em foco Lei da inteligência artificial no Brasil: entenda o projeto aprovado na Câmara dos Deputados

Compartilhe esta notícia:

Após leis sobre dados pessoais e governo digital, o Brasil está próximo de ter um marco para a inteligência artificial. O texto já foi aprovado na Câmara dos Deputados e aguarda apreciação do Senado Federal. Especialistas, porém, não gostaram do pouco tempo para discussões até agora. Além disso, eles dizem que a legislação não é suficientemente profunda e esperam que a outra casa do Poder Legislativo melhore essas questões.

O que é o marco legal da inteligência artificial?

Aprovado pela Câmara em 29 de setembro de 2021, o Projeto de Lei 21/2020 estabelece fundamentos e princípios para a inteligência artificial no Brasil, com diretrizes para o poder público.

Um ponto importante é que o texto define que a União é quem pode legislar e editar normas sobre a matéria. Recentemente, vimos algumas iniciativas municipais e estaduais sobre o assunto.

Um dos casos foi o do Ceará, que editou uma lei que definia que uma inteligência artificial só poderia operar sob supervisão humana. Se o texto já estivesse valendo, isso seria proibido.

O PL 21/2020 lista aspectos que dependerão de regulamentação e coloca nas mãos de órgãos e entidades setoriais a prerrogativa para isso, como agências reguladoras e o Banco Central. Eles também deverão monitorar o risco de sistemas de IA. O governo, porém, não poderá regular o tema, exceto quando for “absolutamente necessário”.

O projeto define princípios para a IA, como não discriminação, finalidade benéfica e centralidade do ser humano. O texto traz ainda fundamentos ao desenvolvimento e aplicação da tecnologia, como estímulo a autorregulação, a livre manifestação de pensamento, a livre expressão e a proteção de dados pessoais.

O texto foi apresentado em fevereiro de 2020 pelo deputado Eduardo Bismarck (PDT-CE). A votação aprovou o substitutivo da parlamentar Luiza Canziani (PTB-PR), relatora do projeto e presidente da frente digital da Câmara.

O resultado foi elogiado pela Associação Brasileira de Empresas de Software, em carta divulgada:

“Nós acreditamos que, dado o estágio inicial da tecnologia e sua dinamicidade de aplicação em diferentes setores, a atividade legislativa em andamento acerta na abordagem. Faz-se pertinente reforçar a competência institucional já existente para regulações setoriais aplicadas no Brasil também para os eventuais usos e aplicações que possam vir a ser feitos da inteligência artificial.”

A tramitação foi criticada por especialistas. Eles apontam que as discussões foram aceleradas — não houve nenhuma consulta pública sobre o tema — e que a pressão das big techs prevaleceu. Eles acreditam que as discussões no Senado vão precisar de mais qualidade e um ritmo mais adequado, que permita criar diretrizes mais concretas e objetivas, bem como níveis mínimos de governança.

E as queixas não param por aí.

Responsabilidade

Um dos pontos polêmicos do texto é que qualquer regulamentação do assunto só deve estabelecer punições a quem desenvolve ou administra esses sistemas se houver culpa ou dolo. Isso está no artigo 6º do projeto de lei. Em termos mais técnicos, ele diz que as normas sobre os agentes da que atuam com sistemas de inteligência artificial devem se pautar na responsabilidade subjetiva.

Um grupo de juristas e membros da sociedade civil enviou uma carta ao Senado para que esse trecho seja alterado. No documento, eles dizem que a responsabilidade subjetiva impõe custos ao cidadão, que fica sem medidas de precaução, e cria um cenário de “irresponsabilização generalizada”.

A proposta, ao contrário, ao privilegiar o regime da responsabilidade subjetiva, não somente impõe os custos do desenvolvimento de aplicações de Inteligência Artificial ao cidadão — em inversão patente da tábua de valores constitucional — como não fomenta os necessários incentivos para que as devidas medidas de precaução sejam tomadas quando do seu emprego.

“(…) A norma cria, antes, um cenário de irresponsabilização generalizada, na medida em que torna praticamente impossível a prova pelas vítimas da culpa dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial.”

Na prática, porém, a situação pode não ser tão grave.

Ivar Hartmann, professor do Insper, argumenta que responsabilizar objetivamente não é o melhor caminho, porque há cenários em que, mesmo com medidas tomadas e esforços, acontecem atos fortuitos.

O próprio PL 21/2020 determina que a exceção à responsabilização subjetiva são os casos de consumo — Hartmann diz que esses devem constituir a maioria das ocorrências.

Compartilhe esta notícia:

Voltar Todas de em foco

WhatsApp pretende adicionar movimento aos seus emojis de coração
Professora internada em estado grave após cirurgias plásticas morre em Santa Catarina
Deixe seu comentário
Baixe o app da RÁDIO Pampa App Store Google Play
Ocultar
Fechar
Clique no botão acima para ouvir ao vivo
Volume

No Ar: Programa Show de Notícias