Cautela é a essência do bom uso da inteligência artificial
27 de setembro de 2024, 15h16
A adoção generalizada de inteligência artificial para os mais diversos fins e segmentos sociais e econômicos transformou e impactou diretamente todas as áreas da vida humana. Especialmente no campo das ferramentas que fornecem respostas escritas a partir dos inputs dos usuários, podemos destacar aquelas que se valem da IA generativa.

Essa é capaz de aprender a partir do treinamento a ela submetido e resolver novos problemas e questões a ela propostas, com é o caso do ChatGPT. Nesse contexto, pode-se depreender que uma das áreas em que a IA generativa vem sendo cada vez mais utilizada é na elaboração de instrumentos jurídicos, tendo como base a premissa de que ferramentas baseadas em tais tecnologias disruptivas tornam o processo de criação de contratos mais rápido e ível, pois basta que o usuário peça à ferramenta, e esta realizará prontamente.
Em que pese os sistemas de IA, como o ChatGPT, serem muito úteis e poderem ser usados como ferramentas de apoio eficientes, é essencial ter em mente que os resultados que apresentam carecem de profunda análise jurídica e compreensão especializada, que somente advogados possuem, devido à natureza das atividades eminentemente intelectuais e privativas, definidas pela Lei nº 8.906/94 (Estatuto da Advocacia e da Ordem dos Advogados do Brasil).
A cautela é da essência do bom uso da IA para fins jurídicos, pois há riscos em todas as fases do trâmite contratual, desde as tratativas preliminares até a fase pós-contratual.
Inicialmente, fundamental pontuar que os contratos não são apenas um amontoado de palavras e regras escritas em um papel.
Ao contrário, são instrumentos que visam a traduzir e materializar um negócio jurídico que muitas vezes é complexo, com desdobramentos, termos e condições que exigem um conhecimento profundo não só das implicações legais, requisitos regulamentares e padrões do setor, mas também um domínio técnico negocial capaz de entender e captar a real vontade das partes para traduzi-la da forma mais fiel possível em palavras. Assim, não seria exagero dizer que depender apenas da IA para criar contratos pode levar a descuidos e consequência jurídicas graves.
Risco de interpretação equivocada
Os sistemas de IA funcionam com base em padrões e dados e, embora possam analisar grandes quantidades de texto, podem interpretar mal, ou até mesmo de forma equivocada, o contexto em determinadas situações.
Os contratos muitas vezes exigem uma compreensão diferenciada das partes envolvidas, das especificidades da transação e do ambiente jurídico. Não partir de uma situação negocial única, sopesando todas as variáveis e condições sobre a mesa para aquele caso concreto, aumenta potencialmente os riscos de uma transação gerar problemas futuros. Deixar ao arbítrio da IA gerar toda a formalização dessa relação torna esse cenário de risco exponencialmente maior.
Sob esse aspecto, vale exemplificar o dever de diligência de um advogado na elaboração de um contrato de compra e venda de imóvel, no qual devem ser observados determinados pontos, sendo estes: tratativas negociais entre as partes (preço e forma de pagamento); condições suspensivas e resolutivas, que podem alterar a eficácia do contrato; conformidade do imóvel com as legislações urbanísticas; transmissão da propriedade etc.

Outro ponto que merece destaque é o compartilhamento de dados e informações nas ferramentas de IA. Uma vez que, para a elaboração de contratos frequentemente tem-se a partilha de informações confidenciais ou sensíveis, o uso de prestadores de serviços de IA levanta preocupações sobre a segurança e as restrições de o aos dados, sobretudo quando os limites de armazenamento e compartilhamento não são claros nas políticas e termos de condições de uso.
Quando consideramos o campo dos dados pessoais, o cenário é ainda mais delicado. Sob a égide da Lei Geral de Proteção de Dados (Lei nº 13.709/2020 — LGPD), o tratamento de dados pessoais, por pessoa física ou jurídica, deve observar os preceitos legais, os quais, no mínimo, devem observar boa-fé, a essencialidade, necessidade e a finalidade, de acordo com o artigo 6º do dispositivo supracitado. Em razão da responsabilidade legal, não apenas o compartilhamento deve ser informado ao titular, mas toda a cadeia que tratará aquele dado pessoal deve estar em conformidade com a LGPD.
Neste sentido, tratando-se de enriquecimento de dados para o treinamento de IA na elaboração de contratos, mediante o uso de uma base de dados pessoais de outros indivíduos, ocorre uma incompatibilidade com a LGPD, tendo em vista que a lei objetiva assegurar maior transparência e controle sobre os dados pessoais.
Boas práticas
No que diz respeito às boas práticas e compliance social, é elementar ponderar que os sistemas de IA podem perpetuar inadvertidamente os preconceitos presentes nos dados nos quais foram treinados. Ao redigir contratos, estes preconceitos podem manifestar-se em termos injustos ou em linguagem discriminatória. Garantir que os contratos gerados pela IA sejam isentos de preconceitos e cumpram os padrões éticos exige uma supervisão cuidadosa.
Porém, antes de que se possa concluir uma posição contrária ao uso da IA no âmbito da formalização de obrigações, é preciso jogar luz aos pontos positivos que a inovação nos traz. A IA otimiza muitas buscas e ações burocráticas que, antes, demandavam um grande investimento de tempo. E, sendo tempo o maior ativo contemporâneo, não podemos ignorar a vantagem em poder utilizá-lo de forma mais eficiente.
O fato é que não podemos nos furtar a acompanhar as evoluções tecnológicas e, nessa linha, o uso da IA não ará desapercebido pelo meio jurídico, como demonstra a pesquisa Future Ready Lawyer Survey, a qual indicou que 73% dos advogados esperam integrar IA generativa em seu trabalho jurídico nos próximos 12 meses [1].
Isso demonstra que os operadores do direito estão em um processo de transição e adaptação a importantes ferramentas tecnológicas, especificamente no uso da IA. O que precisamos levar em conta é a análise e verificação, sempre, por um advogado, já que um instrumento jurídico traduz situações de fato, que acontecem e impactam a vida cotidiana das pessoas. Os riscos são grandes, e tocam tanto a esfera material/patrimonial, como moral. Não é adequado que tamanha responsabilidade seja confiada exclusivamente a um sistema.
[1] Wolters Kluwer Legal & Regulatory. “The 2023 Future Ready Lawyer Survey: Embracing innovation, adapting to change. Disponível: https://www.wolterskluwer.com/en/know/future-ready-lawyer-2023#. ado em: 05/08/2024.
Encontrou um erro? Avise nossa equipe!