18/09/2023 - 19:23 | última atualização em 18/09/2023 - 19:26

COMPARTILHE

Relator do PL que institui o marco da inteligência artificial no país participa de debate na OABRJ sobre regulamentação da tecnologia

“Regramentos não são suficientes para dar conta de questões propostas pelas IAs”, afirma o relator

Yan Ney



A OABRJ recebeu, nesta segunda-feira, dia 18, debate sobre a regulamentação das inteligências artificiais, que tem ganhado força no Congresso Nacional. Senador e relator do Projeto de Lei que visa dispor o uso da tecnologia no Brasil, Eduardo Gomes (PL-TO) esteve no evento para dar seu parecer sobre a legislação, ao lado de professores e especialistas do campo jurídico e tecnológico. 

O PL 2338/2023 estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil. Com objetivo de proteger os direitos fundamentais, manter a centralidade da pessoa humana, o respeito aos direitos humanos, aos valores democráticos e a não discriminação, a legislação surge como um instrumento que pode se tornar pioneiro no sul global.


“A IA envolve questões jurídicas relativas à proteção dos direitos autorais, dados pessoais, a operação de plataformas digitais, entre inúmeras outras coisas. Cada uma dessas questões vinha sendo discutida em diferentes propostas legislativas, sem parâmetros comuns”, observou o senador Eduardo Gomes, ao afirmar que os códigos Civil e de Defesa do Consumidor e a Lei Geral de Proteção de Dados não dão conta das novas inteligências artificiais.



Professor de Direito Civil na FGV Direito Rio e membro da Comissão de Juristas do Senado Federal, responsável pela elaboração do anteprojeto de Marco Legal da inteligência artificial no Brasil, Filipe Medon alertou para as novas legislações. Segundo ele, é preciso garantir a inovação enquanto se protege os direitos fundamentais com a pessoa humana no centro. O palestrante também abordou a temática da coleta de dados para treinar e alimentar as inteligências artificiais generativas, ou seja, aquelas que criam textos e imagens conforme lhe for solicitado.

Questionei o Chat GPT, uma conhecida IA generativa de texto, sobre os eventos que estariam acontecendo na OABRJ nesta segunda-feira. Ela admitiu que há uma base de dados a ser alimentada para que seja possível responder perguntas, mas que não é atualizada desde 2021. O Chat GPT sugeriu, portanto, que buscasse esta informação no site ou redes sociais da Seccional, ou seja, trouxesse esta questão para o trabalho humano.

“Peço desculpas, mas minha capacidade de fornecer informações em tempo real está desativada, e minha base de dados foi atualizada pela última vez em setembro de 2021. Portanto, não tenho acesso a informações atualizadas sobre eventos específicos que podem estar ocorrendo na OABRJ hoje. Recomendo verificar o site oficial da OABRJ, redes sociais ou entrar em contato diretamente com a organização para obter informações atualizadas sobre os eventos que estão acontecendo hoje”, respondeu a ferramenta.

Neste caso, a tecnologia não conseguiu responder um questionamento com exatidão. Em outros casos ele é falho ou duvidoso quanto à sua imparcialidade. O presidente da Comissão de Proteção de Dados e Privacidade da OABRJ, idealizadora do evento, Rodrigo Dias de Pinho Gomes, deu exemplo de que as IAs e ferramentas digitais de automação de processos podem ser questionáveis.

“Na advocacia a gente vê o sistema de distribuição de processos e recursos. No STF, como é o sistema de sorteio de ministros e relatores? Como funciona isso? Não há transparência alguma”.

Doutora em Direito pela PUC Rio e professora de Direito Digital no IDP Brasília, Bianca Kremer, alertou para essas automações e principalmente no que envolve população vulnerável, como admissão e revisão de processos de INSS e benefícios sociais.

“É importante a gente entender como se está utilizando a automação de processo, como as inteligências artificiais têm auxiliado no processo de tomada de decisões, tomado decisões que não têm sido questionada por órgãos públicos, em que medida há qualquer tipo de ferimento de acesso à Justiça e direitos com processos automatizados. A gente cai na falta de transparência”, alertou. 

Carlos Affonso Souza, professor e um dos idealizadores do Marco Civil da Internet, parafraseou o jurista americano e professor de Direito Constitucional de Yale para dizer que, quando criada para o bem, a inteligência artificial tem dono, mas quando foge das mãos humanas, ninguém quer levar a responsabilidade.


“Quando a aplicação de inteligência artificial traz enormes benefícios ao seu criador, dizemos que ela é um objetivo criado. Os direitos caem sobre seu criador, ou seja, a IA é burra. Quando a IA causa um dano e cria danos, ela resolve causar um dano. Foi a autonomia da máquina inteligente. Então o regime de responsabilidade cai sobre a máquina inteligente. É um regime de substituição, em que a gente quer os proveitos, não os ônus”, concluiu.

Abrir WhatsApp