A AB2L iniciou suas atividades em 2017 e, desde então, escreve os capítulos de uma história que tem muito para contar sobre o ecossistema de tecnologia jurídica.
Conheça nossas associadas.
Programas para educar o mercado, fomentar o ecossistema e participar ativamente do processo de regulamentação brasileiro entre direito e tecnologia.
Capítulos regionais/locais exclusivos para associados e grupos abertos ao público em geral.
Mais de 300 horas de conteúdo educacional focado no ecossistema jurídico e tecnológico.
Exclusivo para associados.
Recebi com muita alegria a crítica de Lenio Luiz Streck (LLS — aqui) sobre o livro em que, juntamente com Daniel Boeing: “Ensinando um robô a julgar” (EMais, 2020 — veja mais aqui), buscamos apresentar uma leitura do uso de Inteligência Artificial fraca no campo do Direito, especialmente propondo três modelos: a) Robô Classificador; b) Robô Relator, e c) Robô Julgador. Cada um fala do seu lugar e o sujeito quando objeta, em si, traz sua razão, no que não se pode mais do que aplaudir. Esse aplauso, todavia, dá-se pelo amor ao debate. Somente. Isso porque as objeções apresentadas demandam uma resposta a quem, embora jurássico, muito se é grato e se admira. A explicação do predicado jurássico estava primeiro em pé de pagina, mas no final, prefiro trazê-la pra cá: na época em que nos reuníamos na Cainã, com professores brasileiros e europeus, na mesa de LLS sempre havia um dinossauro, representativo da “Bancada Jurássica”; era muito divertido.
Pois bem, a oposição jurássica situa-se no que Richard Susskind (Tommorrow’s Lawyers e Online Courts and future of Justice — 2019) denomina como sendo “irrational rejectionism“, a saber, a rejeição forte de um cético que nem ao menos possui experiência no campo da tecnologia aplicada ao Direito. Para isso, faz uso da “falácia do espantalho”, que consiste em criar uma caricatura da proposta para então desmerecê-la. Não se dedica à proposta, mas ao espantalho que a proposta nunca foi.
A aposta que fizemos (Daniel e eu) foi a de estudar e aprofundar o uso da Inteligência Artificial no Direito, seus limites éticos e suas possibilidades para contornos processuais democráticos. Isso considerado, aceitamos o desafio de nos lançarmos sobre as possibilidades da IA para o Direito. Esse é um mundo novo, sobre o qual o articulista reconhece não entender sequer os gráficos de “como” os algoritmos funcionam. Assim, o primeiro obstáculo a ser superado é o medo do novo. O segundo consiste em ver o novo com os olhos do velho. É neste ambiente em que a crítica de LLS é feita: sem aceitar as premissas do novo, joga a criança com a água da banheira. Como não entende de IA, joga fora a proposta toda, como se de nada pudesse servir.
Nossa proposta no livro, introdutório registre-se, foi bem mais modesta. A tecnologia não solicita autorização, nem assentimento dos juristas para avançar; dá de ombros. O jurista, com suas coordenadas simbólicas ultrapassadas, tenta cercar/objetar, muitas vezes apavorado com o que não domina. Hoje se fala até de “Sandbox”, com acerto. O medo do novo, do novo que não compreende e, ao que parece, se nega mesmo a tentar, faz com que LLS afirme nossa expectativa de completude quanto à IA, que ela será capaz de resolver todos os problemas. O livro está repleto de críticas à IA, contendo, inclusive um item (3.3) dedicado aos erros e, finalmente, às propostas de ajustes com vistas a viabilizar um uso democrático da IA. Embora tenhamos apontado robustez e alto grau de acurácia em casos simples, o leitor atento percebe que todo o livro propõe a supervisão humana da operação, excluindo, por enquanto, a decisão exclusivamente por máquinas. Até já demonstramos como funciona em casos de guarda de crianças e adolescentes (aqui). A crítica quanto à substituição pelo julgamento exclusivo por máquinas é, portanto, infundada.
Além disso, tampouco cabe a aproximação ao realismo jurídico. De acordo com LLS, nossa proposta seria realista. Mas atenção: Jurimetria não equivale à realismo jurídico (nem americano, nem escandinavo). No fundo, mais uma falácia: a “previsão das decisões ”não é futurologia, senão replicação de critérios já fixados nas decisões do próprio juiz/tribunal, bem como dos critérios fixados na jurisprudência e nas súmulas. (vale ler o livro de Marcelo Gomes Nunes, em especial o prefácio de Fabio Ulhôa Coelho, inclusive sobre as críticas opostas por LLS – e conferir a Associação Brasileira de Jurimetria – ABJ), Diretamente, trata-se de Coerência e Integridade, prevista no art. 926 do CPC, ao qual LLS ajudou a inserir do CPC/2015. É isso: conforme demonstrado por diversas pesquisas, a máquina faz muito melhor do que qualquer humano. (Datalaywer; Jurimetria Neural, LegalNeoway, Digesto, Softplan, Neuralmind, Turivius, Deep Legal, Fore Legal, dentre outros — AB2L). Nossa proposta é, portanto, normativa, em nada podendo ser confundida com o descritivismo característico das propostas realistas. Aliás, para que nossa proposta pudesse ser, de algum modo, reconduzida à alguma versão realista, seria necessário que afirmássemos que a decisão é mera repetição do já constatado no passado. Reprodução das razões fortes e fracas de decisões anteriores. Distinguishing e overruling precisariam ser desconsiderados — ou caberia ao juiz simplesmente assinar, sem ler, minutas de decisões judiciais feitas pela IA. Tudo ao contrário da proposta apresentada pelo livro, que é de suporte ao trabalho judicial, não de substituição do juiz.
Propomos a automatização das atividades repetitivas e burocráticas que podem ser automatizadas. Não mais do que isso. Neste sentido, a aplicabilidade de um preceito legal ou de uma razão de decisão (forte ou fraca) a um determinado caso, sendo mais do que a simples repetição, fica fora do que pode ser automatizado. E é assim em razão das imprecisões linguísticas: vaguezas e ambiguidades da linguagem humana não são solucionadas nem por humanos. Tendo isso em conta, não há como se esperar de máquinas o que, para ela, representa uma tarefa ainda mais complexa do que o é para humanos. Não por outra razão, todo item 3.3 do livro é dedicado a tratar de alguns erros da IA. Nesse título, são apontadas soluções para uma construção democrática do modelo. Isso não pode ser feito sem a participação ampla da doutrina. Entretanto, não há critérios e nem respostas para as dúvidas sobre qual a literatura que alimentará o judiciário. Essa e outras fragilidades fazem parte da proposta de crítica do livro, no mesmo item 3.3. Cabe aos doutrinadores participar do duelo para a produção do conhecimento e implementação da IA, dimensão na qual estão inseridos o livro, a crítica, e esta réplica.
Em que pese a aplicação da IA resulte em “predições”, não se trata de futurologia. O termo predição na IA é um termo técnico: a IA não tem memória no sentido humano, operando por meio de comparações entre os dados pré-existentes e os novos dados inseridos (Lógica não monotônica). Quando se pensa no dispositivo legal aplicável a um caso, por exemplo, a integridade do art. 926 do CPC, recorda-se o que se sabe sobre o tema. A IA pode comparar as informações utilizadas na alimentação (input) para “prever” o significado. Não há “recordação”, mas “predição”. E a “predição” é feita com base no material acumulado: legislação, doutrina e jurisprudência (dados). É justo essa dimensão de mitigação de erros (vieses e heurísticas) que se pretende defender na proposta formulada no livro.
Há mais duas falácias presentes na crítica de LLS. De acordo com LLS, a proposta seria de substituição de juízes por IA. Muito pelo contrário, a proposta é de uso da IA para suporte às atribuições; algo que estagiários e assessores fazem há muito. Segunda, os juízes não participariam em momento algum na prolação das decisões. Dois dos tipos de robôs propostos (robô-classificador e robô-relator) operam em corrobótica e o terceiro (robô-juiz) precisa de revisão das tarefas realizadas – por juiz humano. Quanto às atividades jurídicas, são aquelas desempenhadas pelos profissionais do direito: pesquisa legal, doutrinária ou jurisprudencial; redação de documentos extraprocessuais ou processuais etc. As pesquisas com IA não são novidade alguma. A identificação de palavras em documentos digitais existe há muito: sites de pesquisa, ferramentas de pesquisas etc. O que há de recente (mas já não mais tão novo) é a elaboração, por IA, de minutas de documentos jurídicos, dentre os quais de decisões. As perguntas não são feitas pela IA, mas por quem desenvolve os algoritmos e por quem os utiliza, embora a máquina possa também as fazer em certa medida (Black Box e White Box, p. ex.). Daí a proposta inclusiva no item 3.3 do livro. Se até mesmo as definições de vagueza e de ambiguidade são questões interpretativas e se todos os textos são interpretados, como de fato ocorre, é certo, também, que o texto é ponto de partida da interpretação/aplicação. A compreensão, pressuposta no ato de interpretar/aplicar, não é atingida pela IA. Afirmamos claramente no livro que a IA opera na dimensão da inteligibilidade, comparando e “predizendo”, a partir de um cálculo probabilístico feito com base nos dados de treinamento e validação; uma resposta, uma “tradução”, por assim dizer, de um termo ou conjunto de termos. Daí porque todo o livro se volta para o apoio à decisão e não para a substituição dos juízes. Dado que as palavras que compõem os textos têm sentidos plurívocos, não há como se ignorar que demandam um contexto de empregabilidade. Em razão disso, o ato de interpretação/aplicação pode se abrir para mais de um sentido. Nunca dissemos que só se interpreta diante de imprecisões, mas que a atividade interpretativa/aplicativa exige maior esforço em relação às vaguezas e ambiguidades – e disso há pouca dúvida. LLS acusa o livro de ter uma perspectiva positivista e de cunho analítico; algo desnecessário dado o explícito reconhecimento dos autores.
A cisão entre hard e easy cases foi tomada do ponto de vista da máquina: o que é easy e o que é hard para a máquina executar, embora na segunda edição vamos beber em Schauer. Por óbvio, não se cometeu a ingenuidade de se crer que o emprego deste tipo de tecnologia se preste para qualquer litígio no atual estágio do emprego da IA e em face dos verdadeiros riscos que são apresentados, por exemplo, pelos vieses algorítmicos. No livro, estão tratados casos repetitivos, com poucas variações de teses, dando ênfase a execuções fiscais que formam a grande massa de processos distribuídos pelo Judiciário brasileiro (39%), responsáveis por consumir parcela significativa do orçamento. A sofisticação teórica oposta parece excessiva para tratar de um caso de compensação de ICMS ou inexistência de crédito tributário. Um complexo raciocínio de interpretação/aplicação pode existir, mas a constatação do direito material e a “predição” de que se trata de hipótese de extinção do processo com resolução do mérito diante dos documentos que comprovam o direito é muito mais simples para um algoritmo do que decidir sobre a existência de provas testemunhais, pericial e documental de alienação parental. Não seria inteligente poupar esforços desnecessários para a solução deste tipo de casos para logo gastá-los em casos de maior complexidade? Nada perde a coerência e a integridade, todo o oposto, uma vez que o esforço, a dedicação, o comprometimento profissional poderão ser testados onde de fato poderão fazer a diferença. Aliás, essa lógica de economia de esforços quanto a casos menos complexos para que logo as energias possam ser dedicadas a casos maior representatividade já representa a divisão de tarefas a serem executadas por assessores e estagiários. Com isso, não estamos a defender a substituição de assessores e estagiários, senão enfatizar que é possível e conveniente aproveitar aquilo que a máquina pode de melhor oferecer: agilidade na execução de tarefas repetitivas, que podem ser feitas em muito menos tempo do que fazem os humanos. Basta ver que os motores de pesquisa de jurisprudência encurtaram o tempo de pesquisa jurisprudencial de vários dias para poucos minutos.
Quanto às opiniões enviesadas dos algoritmos, são criticáveis tanto quanto as dos juízes. Embora o articulista esteja certo ao se preocupar com vieses, acerta o alvo errado: é muito mais fácil tratar com algoritmos do que juízes. Não é possível controlar a priori as opiniões que os juízes consideram relevantes, mas podemos sim controlar a priori o que será decidido por algoritmos. O algoritmo é um conjunto de instruções para a máquina executar tarefas de pesquisa, comparação e elaboração de propostas/predição de interpretações/aplicações. Por isso é importante assegurar participação democrática no planejamento dos algoritmos. Além disso, um juiz humano precisa participar de todo o processo, pois não é possível colocar o Juízo em piloto automático e se esquivar da responsabilidade da decisão. Daí a razão da recém editada Res. 332 CNJ pontuar em seu art. 25:“qualquer solução computacional do Poder Judiciário que utilizar modelos de Inteligência Artificial deverá assegurar total transparência na prestação de contas, com o fim de garantir o impacto positivo para os usuários finais e para a sociedade”, ou seja, accountability.
Significa dizer, como se já não tivéssemos dito, que a pré-elaboração é necessária para que a máquina possa realizar a tarefa. Ademais, não somente as partes podem divergir da solução, mas o próprio juiz responsável pode discordar e, com isso, elaborar toda a decisão. A resposta para a pergunta do articulista permeia todo o livro: as perguntas serão feitas pelos humanos e respondidas pelos algoritmos, ainda que a máquina possa, sozinha, também perguntar. Serão, em geral, as mesmas perguntas já feitas pelos juízes e respondidas por, por estagiários e assessores. A tarefa executada será equivalente ao ato de compulsar os autos em busca do que disse a testemunha A, o autor, réu, o que consta na perícia etc. Quase todas as respostas passam por dois caminhos: o juiz permanece, agora assessorado também por algoritmos, e as decisões continuam a poder ser impugnadas.
De fato, o movimento de Direito e Inteligência Artificial conta hoje com diversos professorxs sérios dedicando-se à temática – Flaviane Barros, Jose Luiz Bolzan de Morais, Dierle Nunes, Keith Saboya, Juarez Freitas, Fabiano Hartmann Peixoto, Roberta Zumblick da Silva, Ricardo Fernandes, Philip Gil, Luiz Eduardo Cani, Alexandre Mendes, Rodrigo Chemin, Juliano Maranhão, Heloisa Estellita, Alaor Leite, Luis Greco, Aires Rover, José Cella, S. Tavares Pereira, Rômulo Valentini, Isabella Fonseca, Natanael Lud, Marcílio Drummond, Bráulio Gusmão, Isadora Weneck, Flávio Pedron, Paulo Lucon, Bernardo de Azevedo, Jaime de Paula, Janaína Matida, Izaías Otacílio da Rosa, Giovani Ravagnani, Bruno Feigelson, Rafael Leite, Thiago Junqueira, Daniel Becker, Erik Navarro, Pepe Chaves, Ademir Picolli, Fábio Porto, Rogério Zuel Gomes, Paola Wojciechowski, Rafael Mendonça, Aírton Ruschel, Raimundo Teive, Cesar Albenes Zeferino, Barbara Guasque, Fernanda Pacheco Amorim, Isabela Camilla Paolinelli, Vinícius Mozetic, somente no Brasil (não consegui colocar todos, perdoem-me xs amigxs do IDEA, AMBLab e dos grupos de pesquisa). No exterior as iniciativas são muitas. A Associação Brasileira de LegalTechs — LawTechs (AB2L) encontra-se em movimento exponencial.
Vale destacar as máquinas já estão funcionando ou em vias de se implementar e que, por isso, precisam do olhar atento dos juristas para sua auditagem. Somente para elencar alguns: a) Victor, no STF; b) Sócrates, no STJ; c) Victoria, TJRJ; d) Poti, Clara e Jerimum; TJRN; e) Elis; TJPE; f) Radar; TJMG; muitos, inclusive, dentro do projeto guarda-chuva Sinapse do CNJ). As máquinas já estão auxiliando hoje, mesmo que o meu amigo LLS não saiba ou não queira saber. Essa cegueira deliberada digital, contudo, não impede que todos os dias se continue pensando sobre o tema com mais de 72 projetos catalogados no CNJ. Tanto assim que o CNJ, na linha da Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais, sob a coordenação de Bráulio Gusmão e participação, dentre outros, do Des. Marcos Alaor (TJRO), editou a referida a Resolução 332/2020 para discutir os limites éticos da AI aplicada ao Poder Judiciário.
Por isso que o livro criticado por LLS indicou os primeiros passos e aportou a discussão no patamar da mitigação da discricionariedade. Nossa pretensão foi a de demonstrar o significado de Algoritmo, Machine Learn, Deep Learn etc. dos impasses dos vieses e heurísticas que precisam ser utilizados para que se ensine a máquina a inteligir. Percebam que falamos que a máquina pode inteligir, em lógica binária; jamais falamos em compreensão da máquina, até por estamos longe da “singularidade” (Neumann/ Kurzweil). Então, por ser uma atividade tipicamente humana e por nunca termos defendido compreensão, é injusta a crítica por algo que não problematizamos, justamente porque reconhecemos nossos limites.
Parece que LLS está no estágio de negação (quanto à tecnologia, neste caso), indicado por Susskind e que, contudo, se se abrir ao diálogo, pode ampliar o horizonte cognitivo. Talvez, quem sabe, aceitar o que a tecnologia pode oferecer. Eu não queria mais debater com quem vira de costas para tecnologia, até tinha prometido, mas como gosto muito de LLS, por tudo que já fez por mim e representa, decidi escrever esse texto de resposta carinhosa. A tecnologia em apoio à decisão, naquilo que se chama de IA Fraca já é realidade em diversos órgãos públicos e privados, especialmente de investigação criminal e escritórios de advocacia que, literalmente, voam abaixo do radar. Nesse mundo que se abriu à tecnologia, a máquina realiza diversas atividades repetitivas, classifica documentos, pesquisa jurisprudência, analisa editais de licitações (TCU – Alice, Sofia e Mônica), sugere minutas, conversa, enfim, opera independentemente das objeções dos juristas. As escolhas estão dadas, muito se pode produzir. Eu fiz a minha escolha e sigo pesquisando o uso da Inteligência Artificial no Direito no âmbito do Programa de Mestrado/Doutorado da UNIVALI, junto ao SpinLawLab, com diversos projetos em funcionamento e/ou em testes (PoC), com resultados bem positivos. LLS ficaria ainda mais assustado. Anuncio, por fim, que juntamente com Bernardo de Azevedo lançaremos dia 07/09/20 o Legal Driver Podcast (legaldriver_podcast) em que iremos testar as soluções disponíveis no mercado. O futuro já chegou: GPT3, veja o vídeo de Diogo Cortiz.
Fonte: Conjur
Nossas novidades direto em sua caixa de entrada.