
Em dezembro de 2024, o Senado Federal aprovou um Projeto de Lei que regulamenta o uso de Inteligência Artificial no país. Entre as novas regras adotadas está o uso de identificação biométrica para auxiliar na realização de prisões. O texto ainda precisa ser debatido na Câmara dos Deputados.
O objetivo da proposta foi definir tanto os limites quanto às permissões para o uso da tecnologia e o foco da matéria é o uso comercial da tecnologia. Assim, as novas regras não vão valer para o uso privado, para fins de defesa nacional nem para testes de sistemas de IA que ainda não entraram no mercado.
Além disso, o texto permite a identificação biométrica à distância, em tempo real, em locais públicos, para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Ainda autoriza o uso da tecnologia para contribuir com investigações, desde que com autorização da Justiça, e buscar vítimas de crimes e pessoas desaparecidas.
Neste caso, de sistemas de IA de alto risco, as decisões virão, preferencialmente, após supervisão humana, para minimizar riscos para direitos e liberdades de grupos que possam ser afetados.
Entraram nesse grupo de "alto risco", no âmbito da segurança pública:
identificação biométrica para reconhecimento de emoções, desde que não seja para confirmar uma pessoa específica;
pesquisa, por polícias, em bancos de dados para identificar padrões e perfis comportamentais que auxiliem na investigação de crimes;
avaliação de provas, com objetivo de prever crimes ou a "recorrência" de infrações com base na "definição de perfis" de pessoas específicas.
Em outras áreas, serão consideradas de alto risco, entre outras:
controle de trânsito e abastecimento de água e energia;
avaliação e classificação de chamadas prioritárias em serviços essenciais, como bombeiros e SAMU;
auxílio em diagnósticos e procedimentos médicos;
As big techs como Google, Microsoft e Meta ficaram de fora da classificação de atividades de "alto risco", que sofrem mais restrições no projeto de lei.
Também houve amplo debate acerca da manutenção de garantias já previstas pelo Direito Autoral no projeto de lei, que passou com a seguintes garantias, entre outras:
a big tech precisará informar, ainda no treinamento do sistema de IA, quais conteúdos protegidos por direitos autorais foram usados;
o autor da obra, se preferir, poderá proibir o uso do conteúdo;
o dono da obra poderá negociar e liberar o conteúdo de forma direta ou coletiva, se unindo a outros autores numa associação de titulares de diretos conexos, por
exemplo.
fica autorizado o uso, mesmo de conteúdos protegidos, no caso de pesquisa e desenvolvimento de sistema de IA por organizações e instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais.
Por fim, a companhia que descumprir as regras poderá ser punida com multa de até R$ 50 milhões, ou 2% do faturamento, para cada violação cometida pelas empresas de tecnologia. As sanções poderão ocorrer tanto no âmbito administrativo, bem como da responsabilização civil por danos a terceiros.
Outras sanções previstas são:
suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA;
proibição de tratamento de determinadas bases de dados; e
proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos.
Gostou de saber mais sobre esse assunto? Fique por dentro das últimas notícias do universo jurídico acompanhando nossas redes.
📞 Fixo: (51) 3395-3226
📱 Whatsapp: (51) 99521-6702
コメント