Brasil é mais vulnerável do que outros países aos riscos da inteligência artificial, diz Laura Schertel
16 de agosto de 2024, 16h45
Por não contar com uma regulação específica sobre o uso da inteligência artificial (IA), o Brasil está mais vulnerável do que outros países aos riscos dessa tecnologia. Por isso, o Tribunal Superior Eleitoral deu um o importante ao editar, em fevereiro, resoluções que buscam mitigar eventuais abusos referentes a essa ferramenta durante as campanhas deste ano, trazendo uma regulação mínima ao cenário eleitoral.

Para Laura Schertel, TSE terá de atuar de forma equilibrada nas eleições
Essa avaliação é da professora da Universidade de Brasília e do IDP Laura Schertel, que foi relatora da comissão de juristas do Senado para a regulação da inteligência artificial no país. Ela tratou do assunto em entrevista à série Grandes Temas, Grandes Nomes do Direito. Nela, a revista eletrônica Consultor Jurídico conversa com algumas das personalidades mais importantes do Direito sobre os assuntos mais relevantes da atualidade.
“Eu considero que o Brasil está mais vulnerável do que outros países, sim, pelo fato de não termos algumas dessas legislações tão fundamentais. Nesse sentido, a atuação do TSE é importante. Nós sabemos que essas tecnologias se desenvolvem de forma bastante rápida e, em especial quando chegamos a um momento delicado como é o das eleições, é fundamental que também tenhamos respostas rápidas. E isso claramente não poderia ser feito por meio do processo legislativo, com um projeto de lei”, disse a professora sobre as resoluções aprovadas pela corte que tratam do uso de ferramentas tecnológicas nas campanhas.
Conforme uma das normas, específica sobre o uso da inteligência artificial, os candidatos poderão recorrer a conteúdo criado por essa tecnologia, mas ele precisará ser rotulado, para que o eleitor saiba que o material foi submetido à IA.
Laura observou que, embora o TSE tenha atuado dentro de sua competência e de forma necessária diante do cenário atual, a corte tem diante de si um enorme desafio, pois terá de atuar em situações para as quais não há uma legislação estabelecida.
“Isso requer um equilíbrio muito delicado, pois é preciso proteger a liberdade de expressão e o livre o à informação política para todos, por um lado, ao mesmo tempo em que é preciso trazer uma regulação mínima, já que o Brasil não conta ainda com uma regulação das plataformas. Nós não temos uma regulação para moderação de conteúdo, nem de IA.”
Potencial e riscos
Para além do uso da IA no período eleitoral, a professora afirmou que é preciso reconhecer o enorme potencial de aplicações dessa tecnologia. Ela pode, por exemplo, diminuir custos de obtenção de informações cruciais tanto para o setor público quanto para o privado. Por outro lado, a gama de riscos também é muito grande.
“O primeiro deles é que a aplicação dessa tecnologia é feita de uma forma opaca. Ou seja, não se sabe com base em quais dados determinado sistema foi treinado e não se sabe que tipo de modelo estatístico está por trás dos resultados que saem do sistema. Assim, a opacidade é uma das características mais importantes. Há uma dificuldade de compreender como e por que aquele sistema tomou determinada decisão.”
Outra ameaça significativa tem a ver com o potencial de discriminação de minorias. Um exemplo disso, segundo ela, é que vários estudos demonstram que, no uso da IA para o reconhecimento facial, pessoas negras são vítimas de erros muito mais frequentemente do que pessoas brancas, o que pode levar a prisões equivocadas.
“Houve também problemas relacionados à discriminação em softwares usados em seleção para emprego. Esse também é um problema bastante grave, porque pode resultar em uma seleção maior de homens do que de mulheres para determinadas funções. Isso também já está amplamente documentado na literatura.”
Por essas razões, Laura Schertel considera fundamental que seja feita uma regulação básica do uso da IA no país. E isso, segundo ela, está em vias de ser alcançado por meio do Projeto de Lei 2.338, que estabelece o Marco Civil da Inteligência Artificial.
“Ele visa, basicamente, a fazer com que a aplicação da IA no Brasil seja feita de forma segura, mais transparente e respeitando os direitos fundamentais”, disse a professora, que dirige o Centro de Direito, Internet e Sociedade do IDP.
Clique aqui para assistir à entrevista ou veja abaixo:
Encontrou um erro? Avise nossa equipe!