Projeto de Lei 2338/2023
Da Wikipédia, a enciclopédia livre
O Projeto de Lei 2338/2023, também conhecido como PL da Inteligência Artificial[1][2], é uma proposta legislativa apresentada no plenário do Senado Federal que visa estabelecer o marco regulatório para o desenvolvimento e uso de inteligência artificial no Brasil. O projeto é inspirado em legislações internacionais, notoriamente na Regulamentação sobre Inteligência Artificial da União Europeia[3]. O texto é um substitutivo do senador Eduardo Gomes (PL/TO) e incorpora dispositivos propostos em outras sete iniciativas legislativas, incluindo o Projeto de Lei 21/2020, já aprovado pela Câmara dos Deputados, além de contemplar emendas apresentadas por diversos senadores[4]. Sua autoria é de uma comissão especial de juristas presidida por Ricardo Villas Bôas Cuevas, ministro do Superior Tribunal de Justiça e foi apresentado pelo então presidente do Senado Rodrigo Pacheco[5].
Projeto de Lei 2338/2023 | |
---|---|
![]() | |
Congresso Nacional do Brasil | |
Citação | PL 2338/2023 |
Jurisdição | Todo o Brasil |
Considerado por | Câmara dos Deputados |
Aprovado por | Senado Federal |
Aprovado em | 10 de dezembro de 2024 |
Histórico Legislativo | |
Casa iniciadora: Senado Federal | |
Apresentado por | Rodrigo Pacheco (PSD/MG) |
Apresentado em | 3 de maio de 2023 |
Primeira leitura | 3 de maio de 2023 |
Aprovado | 10 de dezembro de 2024 |
Casa revisora: Câmara dos Deputados | |
Resumo geral | |
Dispõe sobre o uso da Inteligência Artificial. | |
Estado: Pendente |
O projeto de lei define normas gerais de âmbito nacional para o desenvolvimento, a implementação e o uso responsável de sistemas de inteligência artificial (IA) no Brasil. Seu objetivo é proteger os direitos fundamentais, assegurar a implementação de sistemas seguros e confiáveis, e promover benefícios para a pessoa humana, o regime democrático, além de fomentar o progresso científico e tecnológico[6]. A proposta prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), com a coordenação atribuída à Autoridade Nacional de Proteção de Dados (ANPD). O texto também adiciona disposições voltadas à proteção dos trabalhadores contra possíveis impactos negativos da IA[7].
Comparação com a regulamentação europeia
Resumir
Perspectiva
Um dos aspectos principais da regulamentação europeia é sua metodologia organizada para a classificação de sistemas de IA com base nos diferentes níveis de risco. O regulamento europeu estabelece quatro categorias distintas para as aplicações: inaceitável, alto, limitado e mínimo. Essa estrutura determina que sistemas classificados como de alto risco estejam sujeitos a requisitos mais rigorosos, como avaliações de conformidade, medidas de segurança e monitoramento contínuo. O objetivo é garantir que as tecnologias mais suscetíveis a causar danos sejam regulamentadas com maior atenção e supervisão[3]. O texto do projeto brasileiro também divide os sistemas em risco, dependendo do impacto do mesmo na vida humana e nos direitos fundamentais, proibindo o desenvolvimento de aplicações consideradas de "risco excessivo"[4]. O art.14 do PL caracteriza como sistemas de alto risco aqueles que atuam em algumas áreas estratégicas, como recrutamento, educação, concessão de crédito e serviço público, as quais poderão ser revisadas e atualizadas periodicamente pela autoridade competente, sem, no entanto, definir especificamente quais sistemas de inteligência artificial estariam associados a essas classificações mais amplas, enquanto na regulamentação europeia há também a indicação de tecnologias, como infraestrutura, biometria, educação[8]. Assim como a regulamentação europeia, o texto ressalta a importância da conformidade a lei de proteção de dados, além da previsão que agentes de inteligência artificial possam elaborar códigos de boas práticas e governança, enfatizando a importância da intervenção humana. Ambos os regulamentos também estabelecem a obrigatoriedade de comunicação de incidentes à autoridade competente[8] e a transparência[1].
Uma diferença que foi alvo de crítica é a imposição de normas em sistemas independente do grau de risco, em contraponto a regulamentação europeia que é bem mais branda quando se trata de sistemas com baixo risco[8], mas, a partir de dezembro de 2024, a avaliação preliminar para sistemas de baixo risco será obrigatória somente a sistemas generativos e de propósito geral, sendo facultativa nos demais casos[4]. Há também um movimento por parte de artistas para que, diferentemente do que foi feito no regulamento europeu, haja um foco na proteção dos direitos autorais[4]. A nova legislação permite o uso de conteúdo protegido para fins de pesquisa, jornalismo e educação, desde que a fonte seja legítima, não seja uso comercial e que os direitos dos autores das obras sejam respeitados. A lei garante também o respeito a proteção da imagem e voz das pessoas, protegidas pelo Código Civil, sendo necessário o consentimento prévio para uso[1].
Governança
Resumir
Perspectiva
O projeto de lei estabelece diretrizes para garantir a transparência e mitigação de vieses em sistemas de Inteligência Artificial, com exigências adicionais para aqueles de alto risco ou de uso governamental. Também regula a avaliação do impacto algorítmico e reforça a proteção contra discriminação por meio do direito à informação, contestação e correção de vieses discriminatórios, além de medidas preventivas de governança[9].
O projeto estabelece que os agentes responsáveis pelos sistemas de IA devem implementar estruturas internas de governança, visando assegurar a segurança do sistema e garantir a proteção dos direitos das pessoas impactadas[4]. A avaliação de impacto algorítmico proposta pelo projeto é uma ferramenta essencial para garantir a governança de sistemas de IA que apresentem alto risco aos Direitos Fundamentais. Ela visa avaliar, documentar e garantir transparência nas suas aplicações[9]. Outra ferramenta é o sandbox regulatório, um ambiente controlado para testar novas tecnologias, com o objetivo de minimizar riscos aos usuários[10].
A atuação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) será na regulamentação de sistemas de alto risco, reforço da competência de autoridades setoriais e da ANPD e a realização de estudos frequentes, a fim de aprimorar a legislação quando necessário[4]. A regulação também traz regras específicas de governança, documentação detalhada sobre os riscos envolvidos, além de medidas voltadas à qualidade e à interoperabilidade dos dados[7]. Desenvolvedores e fornecedores de sistemas terão a possibilidade de adotar códigos de conduta como forma de assegurar o cumprimento das disposições estabelecidas pela futura legislação. A adesão a esses códigos será considerada um indicativo de boa-fé por parte do agente em situações que envolvam a aplicação de sanções administrativas. Além disso, a autoridade competente poderá credenciar associações de agentes e especialistas em governança de IA para conceder certificações que atestem a adoção de boas práticas de governança. Os agentes também terão a opção de criar entidades voltadas para a autorregulação[4].
Críticas
O projeto de lei recebeu diversas críticas ao longo de sua elaboração, algumas resultando em alterações, enquanto outras ainda não foram consideradas. A governança da IA no Brasil ainda está distante de um modelo ideal de colaboração entre setores. Cada setor apresenta contextos e implicações diferentes em relação à estrutura industrial, regulação e políticas para IA. As diretrizes e regulamentos devem adotar uma abordagem baseada em riscos, considerando os riscos de diferentes setores[11][12]. Espera-se que, na votação do PL, os algoritmos de redes sociais sejam classificados como de "alto risco" e que sejam implementadas medidas contra a desinformação[13][14][15]. Além disso, há uma expectativa de que seja proibido o uso de sistemas de IA para avaliar e penalizar trabalhadores sem supervisão humana, garantindo seus direitos de contraditório, transparência e explicabilidade dos sistemas . O Instituto de Defesa do Consumidor (Idec) acredita que o texto do Projeto de Lei pode ser aprimorado na Câmara dos Deputados. O instituto criticou a aprovação no Senado por não abordar questões importantes, como golpes digitais, proteção de crianças e adolescentes, os riscos do reconhecimento facial e as desigualdades ampliadas pelo score de crédito. Para o Idec, a tramitação do projeto reflete a priorização dos interesses das grandes empresas de tecnologia em detrimento dos consumidores. Também foi apontada a falta de menção à formação de professores e à inclusão de IA no currículo escolar, uma omissão relevante para preparar as futuras gerações para o uso ético e crítico da tecnologia.[13].
Referências
- «Senado aprova PL da inteligência artificial». Brasil de Fato. 10 de dezembro de 2024. Consultado em 26 de janeiro de 2025
- Ghirotto, Edoardo (5 de dezembro de 2024). «PL da IA: Quatro dias de incertezas sobre acordo em plenário para votar o PL 2338/2023 no Senado - JOTA». JOTA Jornalismo. Consultado em 26 de janeiro de 2025
- Camargo, Matheus (9 de novembro de 2024). «O Brasil está pronto para regular a IA? Desafios e promessas do PL 2.338/2023». JOTA Jornalismo. Consultado em 26 de janeiro de 2025
- «Senado aprova regulamentação da inteligência artificial; texto vai à Câmara». Senado Federal. Consultado em 26 de janeiro de 2025
- «Uso de inteligência artificial pelo poder público será sujeito a regulamentação». Senado Federal. Consultado em 26 de janeiro de 2025
- «PL 2338/2023 - Senado Federal». www25.senado.leg.br. Consultado em 27 de janeiro de 2025
- «Pontos Chaves do projeto de Lei 2.338/2023, que regulamenta o uso da inteligência artificial (IA) no Brasil». GFT. Consultado em 27 de janeiro de 2025
- «Publicado o AI Act na União Europeia». Souto Correa Advogados. Consultado em 27 de janeiro de 2025
- Brasil, Deilton Ribeiro (26 de agosto de 2024). «GOVERNANÇA DIGITAL DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL E A AVALIAÇÃO DE IMPACTO ALGORÍTMICO DO PROJETO DE LEI (PL) No 2338/2023 COMO FUNDAMENTOS ESTRUTURANTES DA ECONOMIA DIGITAL». Revista de Direito, Economia e Desenvolvimento Sustentável (1). ISSN 2526-0057. doi:10.26668/IndexLawJournals/2526-0057/2024.v10i1.10364. Consultado em 2 de fevereiro de 2025
- Souza, Luciana Cristina; Oliveira, Ana Carolina Vieira; Silva, Nikolle Bruna; Almeida, Samyra Aguiar; Souza, Shirley Neres (19 de dezembro de 2024). «A Importância da regulação do uso de inteligência artificial nas cidades inteligentes». Direitos Democráticos & Estado Moderno (12): 19–37. ISSN 2675-7648. doi:10.23925/ddem.v.3.n.12.67424. Consultado em 2 de fevereiro de 2025
- «Regulamentação de inteligência artificial e seu destino em 2024». Consultor Jurídico. Consultado em 2 de fevereiro de 2025
- «Regulação da inteligência artificial exige cuidado com dados pessoais, aponta debate». Senado Federal. Consultado em 2 de fevereiro de 2025
- «Organizações civis pedem mudanças nas regras para IA na Câmara». Agência Brasil. 12 de dezembro de 2024. Consultado em 2 de fevereiro de 2025
- Meirelles, Marcella (20 de dezembro de 2024). «O futuro da regulamentação da IA no Brasil». JOTA Jornalismo. Consultado em 2 de fevereiro de 2025
- «IA: Senado aprova regulamentação, mas "há pontos que precisam ser revistos", analisa especialista». Revista Fórum. 11 de dezembro de 2024. Consultado em 2 de fevereiro de 2025
Ligações externas
Wikiwand - on
Seamless Wikipedia browsing. On steroids.