IAB apoia PEC que propõe proteção à privacidade mental de usuários de neurotecnologias
IAB apoia PEC que busca proteger a integridade e a privacidade mental de usuários de neurotecnologias e promover transparência algorítmica, combatendo discriminação digital e racismo algorítmico
A proposta de emenda à Constituição (PEC) 29/23, que tem o objetivo de proteger a integridade e a privacidade dos dados mentais de usuários de equipamentos neurotecnológicos, recebeu o apoio do Instituto dos Advogados Brasileiros (IAB). O plenário da entidade aprovou, nesta quarta-feira (25/9), pareceres das Comissões de Direito Constitucional, de Criminologia, de Direito Penal e de Direitos Humanos, cujas avaliações apontaram que a proposta contribui para a proteção da dignidade da pessoa humana na Era Digital e com o combate às discriminações perpetuadas nesse ambiente.
A PEC, apresentada pelo senador Randolfe Rodrigues (Rede/AP) e outros parlamentares, propõe a proteção da integridade e da privacidade dos dados mentais de usuários de equipamentos neurotecnológicos (métodos ou dispositivos utilizados para registrar ou modificar a atividade cerebral). A proposta também prevê a promoção da transparência algorítmica, com o objetivo de inibir a reprodução de preconceitos sociais por parte das tecnologias e combater o racismo algorítmico.
Relatora do parecer da Comissão de Direito Constitucional, Carmela Grüne afirmou que a proposta se adequa aos objetivos constitucionais que dizem respeito à proteção da dignidade da pessoa humana e à promoção do bem de todos, sem preconceitos de qualquer natureza. “A regulação de neurotecnologias deve ocorrer para assegurar a transparência dos algoritmos, a preservação da autonomia e da privacidade, pela construção de sistemas equitativos, éticos, plurais, vedando qualquer forma de discriminação”, enfatizou a advogada.
Ao comentar a promoção da transparência algorítmica, Melina Fachin, que fez a relatoria do tema pela Comissão de Direitos Humanos, ponderou que o texto constitucional é dotado de uma plasticidade que permite a expansão de sua interpretação para a realidade contemporânea. Isso significa, segundo a relatora, que é possível encontrar na Carta Magna embasamento para o combate às novas formas de expressar preconceitos no mundo virtual: “Diante da ciência da existência de um espaço que foge da proteção específica constitucional e onde massivamente se reproduzem atos discriminatórios, se impõem a aplicação e ampliação dos direitos humanos”.
Apesar de destacar a importância do combate às discriminações, Gustavo Britta Scandelari, relator pela Comissão de Direito Penal, defendeu que as finalidades da PEC não devem se confundir com a criação de novos tipos penais. “Não é necessária a promulgação de lei federal para a tipificação da conduta de racismo algorítmico, pois a Lei 7.716/89 já a descreve de modo suficiente a permitir a prevenção e repressão por parte do Estado”, argumentou.
Para Scandelari, a inovação de incriminação seria inócua do ponto de vista do controle da criminalidade e, por isso, deve ser dispensada. Segundo o relator, os legisladores podem enfrentar o tema por outro ângulo, criando uma lei não penal que “discipline de modo detalhado os algoritmos voltados ao controle de pessoas com base em suas características físicas e psicológicas, de modo a permitir a fiscalização de entes reguladores e da sociedade civil”.
Já o parecer da Comissão de Criminologia, que teve relatoria de Ana Carolina Lourenço, apontou que a legislação deve promover uma regulação capaz de direcionar o crescimento e o uso das tecnologias algorítmicas, a fim de mitigar as infrações aos direitos fundamentais e as ameaças ao bem-estar social. Nesse sentido, a advogada sugere que haja na PEC a inclusão de artigo cuja determinação imponha que “a inovação científica e tecnológica assegurará a integridade mental, a igualdade e a transparência algorítmica, em prol do desenvolvimento nacional sustentável”.
Autora da indicação que deu origem ao parecer, a consócia Laura Berquó elogiou as análises feitas pelas comissões e reiterou sua posição a favor da proteção da privacidade dos usuários de neurotecnologias. No entanto, a advogada disse que deve existir uma lei penal para criminalizar o racismo algorítmico. “Não creio que a legislação atual seja suficiente para abordar com profundidade todas as questões que tratam desse crime em suas novas modalidades”, argumentou ela.