Pular para o conteúdo principal da pagina
representação de cérebro em branco sob fundo amarelo

Tecnologia

Regulação da Inteligência Artificial pode ser votada no primeiro semestre, diz Pacheco

Publicado por: Broadcast Exclusivo

conteúdo de tipo Leitura7 minutos

19/01/2024 às 17:23

Atualizado em

19/01/2024 às 17:23

Por Aline Bronzati, Cristiane Barbieri e Marcela Villar, do Broadcast

São Paulo, 19/01/2024 - O projeto de lei que dispõe sobre o uso da Inteligência Artificial (IA) pode ser votado ainda no primeiro semestre deste ano. A afirmação é do presidente do Senado, Rodrigo Pacheco, que diz estar confiante de que seja aprovado. Segundo ele, o PL é "relativamente simples".

O texto já passou pela Câmara dos Deputados no ano passado e aguarda tramitação no Senado. Ao longo do primeiro semestre, o Congresso deve acelerar o passo, antes das eleições municipais no País. Mais do que isso, Pacheco vê a necessidade de disciplinar o uso da tecnologia.

"Minha preocupação é mais ampla, mais macro em relação a isso, do que eleição propriamente", disse Pacheco, a jornalistas, durante o evento 'Brazil Economic Forum', promovido pelo Grupo de Líderes Empresariais (Lide), em Zurique, na Suíça. "Costumes, relação com as pessoas, relação entre casais, entre amigos, entre colegas de trabalho, entre patrão-empregado, entre instituições. Tem que disciplinar essa inteligência artificial, senão pode se perder o controle", acrescentou Pacheco, que é autor do projeto de lei de IA.

Como é o PL de IA no Brasil e o que está em discussão?

O PL 2.338/2023 , que regulamenta o uso de inteligência artificial (IA) no país, tem como relator o senador Eduardo Gomes (PL-TO). Além das normas gerais para o desenvolvimento, implementação e uso responsável de sistemas de IA no Brasil, o PL também prevê sanções aos agentes que não se adequarem a parâmetros de governança previstos na proposta.

Há emendas em análise, enviadas após audiência pública de 1 de novembro passado, promovida pela Comissão Temporária Interna sobre o tema, com juristas, representantes setoriais e acadêmicos. Alguns dos assuntos tratados na ocasião foram os potenciais riscos da aplicação de IA em determinados setores. Por exemplo, todas as aplicações na área da saúde são classificadas pelo projeto como de alto risco, o que, segundo alertam especialistas, pode impedir o avanço do uso da IA no setor.

Advogados e juristas ouvidos pelo Broadcast consideram o projeto robusto e alinhado com o debate internacional, mas que há pontos de atenção. Uma das principais inspirações para o texto, inclusive, é o "EU AI Act", futura lei de IA na Europa, para a qual se chegou a um acordo político no final do ano passado e aguarda formalização.

"As discussões na esfera legislativa podem ser uma oportunidade para construção de uma regulação equilibrada, assegurando a proteção de interesses coletivos e individuais e a promoção de inovação e desenvolvimento tecnológico no País", afirma Carolina Giovanini, especialista em Inteligência Artificial no escritório Prado Vidigal Advogados.

A responsabilização atribuída aos desenvolvedores é um ponto que deve ser mais debatido, segundo os especialistas. As multas por descumprir as obrigações do PL, se convertido em lei, chegam a R$ 50 milhões ou 2% do faturamento do grupo.

"O PL é super necessário, não só para o Brasil entrar no debate, mas começar a trazer um cenário regulatório com base em algumas premissas", afirma o advogado especialista em direito digital Márcio Chaves, sócio do escritório Almeida Advogados. No entanto, ele vê alguns pontos negativos na responsabilização dos danos causados pelas ferramentas, em dissonância com o Código de Defesa do Consumidor e com a Lei Geral de Proteção de Dados Pessoais (LGPD). No projeto, existem apenas duas situações nas quais as empresas ou desenvolvedores seriam isentos: quando a vítima é única culpada ou quando comprovada a não participação da empresa ou desenvolvedor.

"Quando se tira a hipótese de isenção de responsabilidade por ter seguido as regras da lei, se tira o único mecanismo que estava no controle da pessoa ou empresa que faz uso da ferramenta", diz Chaves. "A gente não consegue dizer como a vítima vai se comportar e vai ter muita dificuldade de dizer se teve ou não envolvimento. Mas consegue comprovar o que fez efetivamente para evitar um dano. Por isso, é um ponto que traz uma certa insegurança para quem desenvolve ou contrata a inteligência artificial", acrescenta.

Um dos marcos do PL é o estabelecimento de graus de risco para cada tipo de sistema de IA. Segundo o advogado Fabrício da Mota Alves, sócio do Serur Advogados e que integrou a comissão no Congresso para discutir o tema, as ferramentas que podem oferecer um risco maior para a sociedade devem ter penalidades maiores.

"Um chatbot para atender a reclamação de um cliente tem impacto mínimo para o cidadão. Já um sistema que processa o reconhecimento facial possui impacto maior", afirma. Alguns dos sistemas considerados de alto risco são os de análise para obtenção de crédito e endividamento das pessoas, seleção de candidatos pela área de Recursos Humanos (RH) de uma empresa, dentre outros.

O PL prevê ainda a criação de um "sandbox" para que as empresas testem seus algoritmos antes de oferecer para público geral. A ideia é fomentar a criação de ambientes seguros para a inovação tecnológica.

"Esses sistemas de machine learning aprendem por meio de exemplos, por isso, esses dados que alimentam os sistemas precisam ser corretos, representativos e não discriminatórios", afirma a professora da Universidade de Brasília (UnB) Laura Schertel Mendes, que também integrou a comissão legislativa responsável por elaborar o projeto.

Quer dar uma nota para este conteúdo?

Utilizamos cookies para oferecer uma melhor experiência e personalizar os conteúdos de acordo com a nossa

Política de Privacidade.