Projeto de Lei 2338/2023

Da Wikipédia, a enciclopédia livre

Projeto de Lei 2338/2023

O Projeto de Lei 2338/2023, também conhecido como PL da Inteligência Artificial[1][2], é uma proposta legislativa apresentada no plenário do Senado Federal que visa estabelecer o marco regulatório para o desenvolvimento e uso de inteligência artificial no Brasil. O projeto é inspirado em legislações internacionais, notoriamente na Regulamentação sobre Inteligência Artificial da União Europeia[3]. O texto é um substitutivo do senador Eduardo Gomes (PL/TO) e incorpora dispositivos propostos em outras sete iniciativas legislativas, incluindo o Projeto de Lei 21/2020, já aprovado pela Câmara dos Deputados, além de contemplar emendas apresentadas por diversos senadores[4]. Sua autoria é de uma comissão especial de juristas presidida por Ricardo Villas Bôas Cuevas, ministro do Superior Tribunal de Justiça e foi apresentado pelo então presidente do Senado Rodrigo Pacheco[5].

Factos rápidos Congresso Nacional do Brasil, Histórico Legislativo ...
Projeto de Lei 2338/2023
Thumb
Congresso Nacional do Brasil
Citação PL 2338/2023
Jurisdição Todo o Brasil
Considerado por Câmara dos Deputados
Aprovado por Senado Federal
Aprovado em 10 de dezembro de 2024
Histórico Legislativo
Casa iniciadora: Senado Federal
Apresentado por Rodrigo Pacheco (PSD/MG)
Apresentado em 3 de maio de 2023
Primeira leitura 3 de maio de 2023
Aprovado 10 de dezembro de 2024
Casa revisora: Câmara dos Deputados
Resumo geral
Dispõe sobre o uso da Inteligência Artificial.
Estado: Pendente
Fechar

O projeto de lei define normas gerais de âmbito nacional para o desenvolvimento, a implementação e o uso responsável de sistemas de inteligência artificial (IA) no Brasil. Seu objetivo é proteger os direitos fundamentais, assegurar a implementação de sistemas seguros e confiáveis, e promover benefícios para a pessoa humana, o regime democrático, além de fomentar o progresso científico e tecnológico[6]. A proposta prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), com a coordenação atribuída à Autoridade Nacional de Proteção de Dados (ANPD). O texto também adiciona disposições voltadas à proteção dos trabalhadores contra possíveis impactos negativos da IA[7].

Comparação com a regulamentação europeia

Resumir
Perspectiva

Um dos aspectos principais da regulamentação europeia é sua metodologia organizada para a classificação de sistemas de IA com base nos diferentes níveis de risco. O regulamento europeu estabelece quatro categorias distintas para as aplicações: inaceitável, alto, limitado e mínimo. Essa estrutura determina que sistemas classificados como de alto risco estejam sujeitos a requisitos mais rigorosos, como avaliações de conformidade, medidas de segurança e monitoramento contínuo. O objetivo é garantir que as tecnologias mais suscetíveis a causar danos sejam regulamentadas com maior atenção e supervisão[3]. O texto do projeto brasileiro também divide os sistemas em risco, dependendo do impacto do mesmo na vida humana e nos direitos fundamentais, proibindo o desenvolvimento de aplicações consideradas de "risco excessivo"[4]. O art.14 do PL caracteriza como sistemas de alto risco aqueles que atuam em algumas áreas estratégicas, como recrutamento, educação, concessão de crédito e serviço público, as quais poderão ser revisadas e atualizadas periodicamente pela autoridade competente, sem, no entanto, definir especificamente quais sistemas de inteligência artificial estariam associados a essas classificações mais amplas, enquanto na regulamentação europeia há também a indicação de tecnologias, como infraestrutura, biometria, educação[8]. Assim como a regulamentação europeia, o texto ressalta a importância da conformidade a lei de proteção de dados, além da previsão que agentes de inteligência artificial possam elaborar códigos de boas práticas e governança, enfatizando a importância da intervenção humana. Ambos os regulamentos também estabelecem a obrigatoriedade de comunicação de incidentes à autoridade competente[8] e a transparência[1].

Uma diferença que foi alvo de crítica é a imposição de normas em sistemas independente do grau de risco, em contraponto a regulamentação europeia que é bem mais branda quando se trata de sistemas com baixo risco[8], mas, a partir de dezembro de 2024, a avaliação preliminar para sistemas de baixo risco será obrigatória somente a sistemas generativos e de propósito geral, sendo facultativa nos demais casos[4]. Há também um movimento por parte de artistas para que, diferentemente do que foi feito no regulamento europeu, haja um foco na proteção dos direitos autorais[4]. A nova legislação permite o uso de conteúdo protegido para fins de pesquisa, jornalismo e educação, desde que a fonte seja legítima, não seja uso comercial e que os direitos dos autores das obras sejam respeitados. A lei garante também o respeito a proteção da imagem e voz das pessoas, protegidas pelo Código Civil, sendo necessário o consentimento prévio para uso[1].

Governança

Resumir
Perspectiva

O projeto de lei estabelece diretrizes para garantir a transparência e mitigação de vieses em sistemas de Inteligência Artificial, com exigências adicionais para aqueles de alto risco ou de uso governamental. Também regula a avaliação do impacto algorítmico e reforça a proteção contra discriminação por meio do direito à informação, contestação e correção de vieses discriminatórios, além de medidas preventivas de governança[9].

O projeto estabelece que os agentes responsáveis pelos sistemas de IA devem implementar estruturas internas de governança, visando assegurar a segurança do sistema e garantir a proteção dos direitos das pessoas impactadas[4]. A avaliação de impacto algorítmico proposta pelo projeto é uma ferramenta essencial para garantir a governança de sistemas de IA que apresentem alto risco aos Direitos Fundamentais. Ela visa avaliar, documentar e garantir transparência nas suas aplicações[9]. Outra ferramenta é o sandbox regulatório, um ambiente controlado para testar novas tecnologias, com o objetivo de minimizar riscos aos usuários[10].

A atuação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) será na regulamentação de sistemas de alto risco, reforço da competência de autoridades setoriais e da ANPD e a realização de estudos frequentes, a fim de aprimorar a legislação quando necessário[4]. A regulação também traz regras específicas de governança, documentação detalhada sobre os riscos envolvidos, além de medidas voltadas à qualidade e à interoperabilidade dos dados[7]. Desenvolvedores e fornecedores de sistemas terão a possibilidade de adotar códigos de conduta como forma de assegurar o cumprimento das disposições estabelecidas pela futura legislação. A adesão a esses códigos será considerada um indicativo de boa-fé por parte do agente em situações que envolvam a aplicação de sanções administrativas. Além disso, a autoridade competente poderá credenciar associações de agentes e especialistas em governança de IA para conceder certificações que atestem a adoção de boas práticas de governança. Os agentes também terão a opção de criar entidades voltadas para a autorregulação[4].

Críticas

O projeto de lei recebeu diversas críticas ao longo de sua elaboração, algumas resultando em alterações, enquanto outras ainda não foram consideradas. A governança da IA no Brasil ainda está distante de um modelo ideal de colaboração entre setores. Cada setor apresenta contextos e implicações diferentes em relação à estrutura industrial, regulação e políticas para IA. As diretrizes e regulamentos devem adotar uma abordagem baseada em riscos, considerando os riscos de diferentes setores[11][12]. Espera-se que, na votação do PL, os algoritmos de redes sociais sejam classificados como de "alto risco" e que sejam implementadas medidas contra a desinformação[13][14][15]. Além disso, há uma expectativa de que seja proibido o uso de sistemas de IA para avaliar e penalizar trabalhadores sem supervisão humana, garantindo seus direitos de contraditório, transparência e explicabilidade dos sistemas . O Instituto de Defesa do Consumidor (Idec) acredita que o texto do Projeto de Lei pode ser aprimorado na Câmara dos Deputados. O instituto criticou a aprovação no Senado por não abordar questões importantes, como golpes digitais, proteção de crianças e adolescentes, os riscos do reconhecimento facial e as desigualdades ampliadas pelo score de crédito. Para o Idec, a tramitação do projeto reflete a priorização dos interesses das grandes empresas de tecnologia em detrimento dos consumidores. Também foi apontada a falta de menção à formação de professores e à inclusão de IA no currículo escolar, uma omissão relevante para preparar as futuras gerações para o uso ético e crítico da tecnologia.[13].

Referências

  1. «Senado aprova PL da inteligência artificial». Brasil de Fato. 10 de dezembro de 2024. Consultado em 26 de janeiro de 2025
  2. Ghirotto, Edoardo (5 de dezembro de 2024). «PL da IA: Quatro dias de incertezas sobre acordo em plenário para votar o PL 2338/2023 no Senado - JOTA». JOTA Jornalismo. Consultado em 26 de janeiro de 2025
  3. Camargo, Matheus (9 de novembro de 2024). «O Brasil está pronto para regular a IA? Desafios e promessas do PL 2.338/2023». JOTA Jornalismo. Consultado em 26 de janeiro de 2025
  4. «PL 2338/2023 - Senado Federal». www25.senado.leg.br. Consultado em 27 de janeiro de 2025
  5. «Publicado o AI Act na União Europeia». Souto Correa Advogados. Consultado em 27 de janeiro de 2025
  6. Souza, Luciana Cristina; Oliveira, Ana Carolina Vieira; Silva, Nikolle Bruna; Almeida, Samyra Aguiar; Souza, Shirley Neres (19 de dezembro de 2024). «A Importância da regulação do uso de inteligência artificial nas cidades inteligentes». Direitos Democráticos & Estado Moderno (12): 19–37. ISSN 2675-7648. doi:10.23925/ddem.v.3.n.12.67424. Consultado em 2 de fevereiro de 2025
  7. «Regulamentação de inteligência artificial e seu destino em 2024». Consultor Jurídico. Consultado em 2 de fevereiro de 2025
  8. «Organizações civis pedem mudanças nas regras para IA na Câmara». Agência Brasil. 12 de dezembro de 2024. Consultado em 2 de fevereiro de 2025
  9. Meirelles, Marcella (20 de dezembro de 2024). «O futuro da regulamentação da IA no Brasil». JOTA Jornalismo. Consultado em 2 de fevereiro de 2025
  10. «IA: Senado aprova regulamentação, mas "há pontos que precisam ser revistos", analisa especialista». Revista Fórum. 11 de dezembro de 2024. Consultado em 2 de fevereiro de 2025

Ligações externas

Wikiwand - on

Seamless Wikipedia browsing. On steroids.