Matéria segue para análise da Câmara, envolvendo princípios, sistemas de IA e risco de classificar pessoas.
Na próxima fase, o marco regulatório deve ser objeto de discussão e votação na Câmara dos Deputados, antes de ser enviado à sanção do Presidente da República. Este novo marco legal visa estabelecer regras claras para o desenvolvimento, a utilização e a responsabilidade pela inteligência artificial no país.
Com o objetivo de garantir o uso seguro e transparente da inteligência artificial em todos os setores da economia, o marco regulatório pretende gerenciar as implicações éticas e legais de sistemas de IA e inteligência artificial. Além disso, este marco visa promover a inovação e garantir a competitividade do país no mercado global. A inovação com base na inteligência artificial pode trazer grandes vantagens para o Brasil, como a melhoria da eficiência na gestão pública e a criação de novos empregos de alta qualificação. A inteligência artificial pode ser empregada em diversas áreas, como saúde, educação e segurança pública, o que pode trazer benefícios significativos para a sociedade.
Parâmetros para a Inteligência Artificial.
Desenvolvendo normas para a Inteligência Articial, o projeto estabelece diretrizes para o uso e desenvolvimento da IA, garantindo que a tecnologia seja transparente, segura, confiável, ética, e livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. Além disso, o texto incentiva o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência. Nesse contexto, o projeto também define sistemas de IA de alto risco, como os utilizados para controle de trânsito, redes de abastecimento de água e energia, entre outros, e proíbe o desenvolvimento de tecnologias que possam causar danos à saúde, segurança ou a direitos fundamentais.
Exemplos de sistemas de alto risco.
Alguns exemplos de sistemas de IA de alto risco incluem aqueles utilizados para controle de trânsito, redes de abastecimento de água e energia, além de sistemas aplicados na educação para determinar o acesso a instituições de ensino, monitorar estudantes, ou usados no recrutamento e promoção de trabalhadores. Também entram na categoria de alto risco os sistemas que repartem tarefas e controlam o desempenho e comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria. Outros exemplos incluem sistemas de IA para priorização de serviços públicos essenciais, como bombeiros e saúde. Além disso, sistemas usados pela Justiça para investigações criminais, quando houver risco às liberdades individuais ou ao Estado Democrático de Direito, também são considerados de alto risco. Sendo assim, o projeto visa garantir que a inteligência artificial seja utilizada de forma ética e responsável, respeitando os direitos humanos e valores democráticos.
Proibição do uso de sistemas de IA em certos contextos.
O projeto proíbe o uso de sistemas de IA em certos contextos, como a utilização de sistemas para classificar ou ranquear pessoas com base no comportamento social para acesso a bens, serviços ou políticas públicas de forma ilegítima ou desproporcional. Além disso, o texto também proíbe a utilização de sistemas que facilitem o abuso ou exploração sexual de crianças e adolescentes. Nesse sentido, a proibição visa garantir que a inteligência artificial seja utilizada de forma ética e responsável, respeitando os direitos humanos e valores democráticos.
Implicações para as big techs.
Durante a tramitação no Senado, foi excluído o dispositivo que classificava como de alto risco os sistemas de IA usados por plataformas digitais – as chamadas big techs – para produção, recomendação e distribuição de conteúdos. Segundo o relator, senador Eduardo Gomes, a exclusão ocorreu após um acordo entre as bancadas para que o projeto de lei 2.338/23, de autoria do presidente do Senado, Rodrigo Pacheco, pudesse avançar. O texto foi aprovado de forma simbólica na comissão temporária criada para discutir o tema. Com informações da Agência Senado.
Fonte: © Migalhas
Comentários sobre este artigo