Como as Inteligências Artificiais estão sendo regulamentadas ao redor do mundo? Veja as divergências e convergências

Como as Inteligências Artificiais estão sendo regulamentadas ao redor do mundo? Veja as divergências e convergências

Artigo Policial

Leia entrevista do colunista da Jovem Pan com o advogado e mestrando na Florida Christian University, Dr. Bruno de Almeida Vieira, sobre o tema

Reprodução/PixabayÀ medida que algoritmos passam a influenciar nosso dia a dia, cresce a pressão para que governos estabeleçam regras claras

Na arena jurídica, o debate sobre a Inteligência Artificial (IA) transformou-se no ponto de convergência entre inovação tecnológica, direitos fundamentais e estratégias de mercado. À medida que algoritmos passam a influenciar nosso dia a dia, cresce a pressão para que governos estabeleçam regras claras e capazes de proteger o cidadão sem sufocar a criatividade para o desenvolvimento. É justamente nesse ponto de encontro entre o direito e a inovação digital que desponta o entrevistado de hoje.

cta_logo_jp

Siga o canal da Jovem Pan News e receba as principais notícias no seu WhatsApp!

O Dr. Bruno de Almeida Vieira é advogado, Data Protection Officer certificado EXIN, renomada instituição holandesa e referência mundial em qualificação de profissionais na área, e mestrando na Florida Christian University, onde pesquisa Gestão das Tecnologias Digitais Avançadas, com foco particular na Regulamentação da IA. Hoje, ele conversa com o colunista da Jovem PanDr. Davis Alves, para discutir um mapa das convergências e divergências das legislações de IA ao redor do mundo e o que isso significa para empresas e cidadãos do Brasil e exterior.

Dr. Davis Alves: Dr. Bruno, por que regular a IA deixou de ser tendência e passou a ser uma necessidade urgente?

Dr. Bruno Vieira: Os sistemas de IA deixaram de ser curiosidade de laboratório e passaram a decidir coisas que mudam a vida das pessoas. Eles são complexos, difíceis de auditar e, se derem errado, podem causar grandes prejuízos. Por isso os países estão correndo para colocar regras antes que os problemas fiquem maiores que as soluções.

Dr. Davis Alves: Entre sistemas jurídicos tão variados, o doutor percebe alguma convergência nas regulamentações de IA?

Dr. Bruno Vieira: Sem dúvida. Quando comparamos projetos de lei de lugares tão diferentes quanto União Europeia, Canadá, Brasil ou até mesmo nas diretrizes publicadas pelos Estados Unidos, encontramos um verdadeiro “eixo central” em todas essas propostas. Primeiro, há a ideia de classificar cada uso da IA conforme o grau de perigo: quanto mais alto o risco para a sociedade, mais rigorosas se tornam as exigências. Depois vem a transparência: o usuário precisa saber que está conversando com uma máquina e os órgãos de fiscalização têm de conseguir examinar o sistema por dentro, como quem abre o capô de um carro. Em seguida, surge a exigência de olho humano no processo; ou seja, decisões realmente sérias não podem ficar sem supervisão de uma pessoa. Esse pacote se completa com uma proteção clara aos direitos fundamentais em busca de impedir discriminação, invasão de privacidade e riscos à segurança, e, por fim, com a identificação de responsáveis: quem treinou, quem opera, quem lucra com o modelo deve estar registrado, para que haja a quem recorrer se algo der errado. Em resumo, apesar das diferenças culturais, existe sim um consenso internacional de que IA só é bem-vinda quando combina risco bem definido, vitrine aberta, supervisão humana, respeito a direitos e responsabilidade clara.

Dr. Davis Alves: Se há tanto consenso em alguns aspectos, em que trechos as propostas de cada país realmente tomam rumos opostos?

Dr. Bruno Vieira: Quando comparamos as legislações, elas começam a divergir já no desenho institucional. A União Europeia optou por uma única lei abrangente, o AI Act, que vale, sem adaptações, para os 27 Estados-membros e prevê sanções que podem chegar a 7 % do faturamento global de uma empresa. Nos Estados Unidos, o quadro é fragmentado pois não existe uma norma federal exclusiva para IA, enquanto cada agência regula seu setor e o governo publicou apenas uma ordem executiva com recomendações gerais, deixando lacunas que se preenchem caso a caso. Já o Reino Unido trilhou um caminho intermediário, descentralizando a fiscalização, onde cada setor como saúde, transporte, mercado financeiro etc., recebem autonomia para aplicar as diretrizes técnicas dentro de suas respectivas áreas.

A segunda grande diferença está no rótulo “alto risco”. A Europa adota lista rígida de usos proibidos ou altamente controlados, como reconhecimento facial em tempo real para vigilância em massa. A China não proíbe esta prática, mas exige que empresas registrem algoritmos sensíveis e abram trechos de código para auditoria estatal, reforçando a supervisão governamental. No Brasil, o Projeto de Lei 2338/2023 segue a lógica europeia, mas o Congresso ainda discute se ferramentas de recrutamento, por exemplo, devem ser enquadradas de forma automática como sistemas de alto risco ou receber tratamento mais flexível. Por fim, há o alcance territorial. O modelo europeu adota o princípio do mercado-destino, onde basta oferecer um sistema de IA dentro da União Europeia para que a empresa tenha de seguir o AI Act, esteja onde estiver. Já o Canadá, no projeto AIDA, aplica o teste da “conexão real e substancial” com o país, o que possibilita uma margem maior para que empresas sediadas no exterior argumentem que suas operações não se enquadram na lei canadense.

Dr. Davis Alves: Entre a lei única da UE e as diretrizes setoriais dos Estados Unidos, quais pontos pesam de fato para quem opera IA a partir do Brasil?

Dr. Bruno Vieira: Na União Europeia, a mentalidade é preventiva: antes de a empresa colocar seu sistema no mercado, já precisa provar que ele está em conformidade com uma série de exigências pré-definidas. Há listas explícitas do que é proibido ou fortemente limitado, testes técnicos obrigatórios que simulam cenários de risco e até um cadastro público onde esses sistemas têm de ser registrados para consulta de qualquer interessado. O tom é de “autorizar primeiro, operar depois”. Por outro lado, os Estados Unidos preferem deixar a inovação correr e só intervêm quando surge um prejuízo concreto. Se um algoritmo enganar o consumidor ou cometer algum tipo de discriminação, por exemplo, as agências federais entram em cena, processam a empresa e exigem reparação. Para quem pretende atuar nos dois mercados, é mais recomendável adotar o padrão europeu, que é mais rigoroso desde o início, mas mantém dossiês e relatórios de impacto prontos para entregar às autoridades americanas caso alguém questione o sistema depois que ele já estiver em funcionamento.

Dr. Davis Alves: Fala-se que a regulação chinesa combina forte intervenção estatal com exigências técnicas exclusivas. Como essa fórmula funciona na prática?

Dr. Bruno Vieira: Na China, a lógica que norteia a regulamentação de IA parte de uma preocupação essencialmente estatal que visa garantir a segurança nacional e manter o controle sobre o fluxo de informações. A partir de 2021, qualquer empresa que disponibilize algoritmos considerados “sensíveis”, isto é, capazes de influenciar opinião pública ou afetar infraestruturas críticas, deve registrá-los em um banco oficial, disponibilizar partes relevantes do código para auditoria governamental e incorporar uma espécie de “botão de desligar” que permita às autoridades suspenderem o serviço se enxergarem risco à ordem pública. Em tese, há um ponto de convergência com o Ocidente: responsabilizar o fornecedor pelo bom funcionamento da tecnologia. A diferença está no propósito final. Enquanto Europa e Estados Unidos concentram-se em proteger o indivíduo contra abusos do setor privado, a abordagem chinesa volta-se principalmente a resguardar o próprio Estado, garantindo que a IA opere em sintonia com os objetivos de segurança e estabilidade social definidos pelo governo.

Dr. Davis Alves: Quando falamos do PL 2338, que elementos exclusivos ele traz para o debate sobre inteligência artificial por aqui?

Dr. Bruno Vieira: O PL 2338/2023 adota a mesma classificação de riscos da Europa, mas acrescenta três elementos próprios: a utilização de ambientes de teste controlados onde empresas podem experimentar soluções de IA; a criação de um “Selo IA Responsável” para quem adota boas práticas; e a redução de exigências para companhias com faturamento anual de até R$ 16 milhões. Vale destacar que o projeto ainda deixa vago quem será o verdadeiro responsável pelo cumprimento dessas regras, se à ANPD – Autoridade Nacional de Proteção de Dados, ao CGI- Comitê Gestor da Internet ou ainda a criação de uma agência completamente nova.

Dr. Davis Alves: Qual é a melhor estratégia para empresas que operam em vários países lidarem com as diferentes regras de IA?

Dr. Bruno Vieira: A estratégia mais segura pode ser resumida em três movimentos encadeados. Primeiro, adote o AI Act europeu como uma base pois ele contém as exigências mais duras hoje disponíveis, de modo que, se o sistema já nasce compatível com essas regras, dificilmente ficará abaixo do padrão em qualquer outro país. Em seguida, ajuste o produto ao contexto local, revendo bases de dados, traduções, declarações de impacto e políticas internas para refletir as particularidades legais, linguísticas e culturais de cada mercado onde a IA será oferecida para evitar erros de interpretação e multas pontuais. Por fim, mantenha presença ativa em fóruns técnicos e laboratórios regulatórios (ISO/IEC, por exemplo).

Dr. Davis Alves: Os Princípios de Hiroshima, lançados pelo G7 em 2023, podem virar o trilho comum que faltava para unificar as leis de IA?

Dr. Bruno Vieira: Embora os Princípios de Hiroshima não tenham força de lei, eles funcionam como um resumo de boas práticas já presentes em diversas propostas regulatórias, tais como avaliação de riscos, transparência, supervisão humana e prestação de contas. O diferencial é que esse documento não se limita a medir o perigo inerente ao modelo de IA, mas também leva em conta a finalidade do uso. Esse critério de “risco mais intenção” pode servir de ponte entre diferentes legislações, permitindo que países adotem exigências proporcionais ao contexto de aplicação, mesmo sem concordar em todos os detalhes técnicos.

Dr. Davis Alves: Para encerrar nossa conversa de hoje, qual é a mensagem principal que o senhor gostaria de deixar?

Dr. Bruno Vieira: Regular IA não significa frear inovação, e sim garantir que o avanço tecnológico traga benefícios sem gerar custos sociais invisíveis. Se o Brasil estabelecer regras claras, estimular pesquisa e preservar os direitos do cidadão, criará um ambiente de confiança que favorece usuários, empresas e o país.

Quer se aprofundar no assunto, tem alguma dúvida, comentário ou quer compartilhar sua experiência nesse tema? Escreva para mim no Instagram: @VisVisvSalphd.

*Esse texto não reflete, necessariamente, a opinião da Jovem Pan.



Conteúdo original

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *