A AB2L iniciou suas atividades em 2017 e, desde então, escreve os capítulos de uma história que tem muito para contar sobre o ecossistema de tecnologia jurídica.
Conheça nossas associadas.
Programas para educar o mercado, fomentar o ecossistema e participar ativamente do processo de regulamentação brasileiro entre direito e tecnologia.
Capítulos regionais/locais exclusivos para associados e grupos abertos ao público em geral.
Mais de 300 horas de conteúdo educacional focado no ecossistema jurídico e tecnológico.
Exclusivo para associados.
Minority Report é um filme de ficção científica lançado no ano de 2002, protagonizado por Tom Cruise e dirigido por Steven Spielberg, ambientado no ano de 2054, em que há um departamento de polícia especializada, que apreende criminosos tendo por base o “Pré-Crime”, ou seja, o conhecimento prévio de crimes que ainda acontecerão no futuro, mas que a partir da previsão por três videntes chamados “precogs”, o departamento de justiça se mobiliza no sentido de evita-los e dessa forma, age punitivamente antes dos delitos ocorrerem.
Na década de 1960, Helen Chan Wolf, Woody Bledsoe e Charles Bisson usaram computadores no reconhecimento de rostos humanos. A abordagem inicial de Bledsoe envolvia a marcação manual de vários pontos de referência na face, como a exemplo de centros oculares, boca, entre outros pontos faciais. Estes pontos eram rotacionados matematicamente por computador para compensar a variação de poses. As distâncias entre pontos de referência também foram automaticamente calculadas e comparadas entre imagens para determinar a identidade.
Existem vários métodos por meio dos quais os sistemas de reconhecimento facial funcionam, mas, em geral, eles operam comparando os recursos faciais selecionados de uma determinada imagem com os de um banco de dados. Também é descrito como uma aplicação baseada em Inteligência Artificial Biométrica que pode identificar exclusivamente uma pessoa, analisando padrões baseados nas texturas faciais e na forma da pessoa. Os dois países de maior utilização desses recursos são os Estados Unidos e a China.
De acordo com uma matéria realizada pela CNN, atualmente, nos Estados Unidos essa tecnologia vem sendo utilizada pelo FBI (Federal Bureau Investigation) através de dois programas: o Next Generation Identification (NGI) e o Facial Analysis Comparsions and Evaluation (FACE).
O NGI é apenas utiliza as imagens disponíveis no sistema prisional, as mugshots (fotos tiradas no momento da prisão). O FACE utiliza mais de 411 milhões de imagens desde fotos de carteira de motorista a passaporte, ou seja, não somente os criminosos foram catalogados neste programa. Tanto o NGI e o FACE são utilizados com a finalidade de identificar possíveis criminosos.
A Major League Baseball afirmou que em um futuro próximo pretende utilizar a IA para admitir fãs nos estádios.
Já houve uso dessa tecnologia aqui no Brasil. O caso ocorreu no primeiro turno das eleições do ano de 2018, quando a polícia federal e a polícia civil conseguiram identificar um homem que gravou um vídeo enquanto votava. Neste filme, o indivíduo pressionava as teclas da urna utilizando uma pistola. Ao realizar uma análise minuciosa do vídeo, foi possível isolar um frame onde o rosto do indivíduo era refletido na tela da urna. A partir desta imagem, agentes da polícia conseguiram realizar sua identificação e prendê-lo.
A China, sem dúvida, é um grande exemplo de uso do reconhecimento facial, dispondo de mais de 600 milhões de câmeras equipadas com a inteligência artificial. Ao se utilizar deste vasto aparato tecnológico, vem sendo possível realizar prisões de criminosos mesmo que estes se encontrem em uma multidão com 50.000,00 (cinquenta mil) pessoas. A polícia chinesa utiliza uma espécie de óculos inteligente que permite realizar o reconhecimento facial de pessoas e cruzar seus dados com as informações disponíveis no banco de dados do governo chinês. Algumas escolas desse país também utilizam essa tecnologia em sala de aula para monitorar o nível de atenção dos alunos.
Um estudo realizado pelo Instituto de Tecnologia de Massachussests (MIT, sigla em inglês) e pela Universidade de Stanford em fevereiro do ano de 2018, apurou que a margem de erro no reconhecimento facial para homens brancos é de: 0,8% ou seja uma precisão de 99,2% e para mulheres negras é de: 20% a 34%, neste caso a precisão cai para 66%. Isso ocorre porque grande parte dos sistemas são “treinados” por homens brancos, ou seja, é muito mais provável que o software identifique uma mulher negra ou um homem negro como um indivíduo perigoso.
Na China, o governo afirmou que utilizará um sistema de “Ranking Social” que deve ser implantado a partir de 2020. O “ranking” funcionará da seguinte forma: os cidadãos com “bom comportamento” terão regalias, desde a entrada em universidades de elite a descontos em hotéis, enquanto os cidadãos que não possuem um comportamento adequado, serão penalizados. Para o governo chinês, o que se classificaria como um “bom comportamento” é: comprar produtos de origem chinesa, pagar seus impostos em dia, não comprar bebidas alcoólicas, ou seja, caso um cidadão compre um produto que não seja de origem chinesa ou uma bebida alcoólica, ele poderá sofrer alguma sanção. A pontuação final do ranking será pública e isso determinará se o cidadão chinês irá ter um emprego, se poderá conseguir um empréstimo, uma inscrição em uma escola e até mesmo, em alguns casos, poderá ter a velocidade de sua internet reduzida.
No ano de 2017, desenvolvedores russos criaram um aplicativo chamado Find Face. Esse aplicativo era capaz de realizar o reconhecimento facial de qualquer pessoa natural. Para que isso acontecesse, bastava que o usuário adicionasse a foto da pessoa que ele desejava descobrir a identidade e o aplicativo imediatamente mostrava as redes sociais desse indivíduo.
De fato, ainda não há uma legislação ou sequer uma regulamentação especifica para o uso dessa inteligência, porém, vemos muitos movimentos de direitos civis cobrando uma fiscalização mais rígida a respeito do uso dessa tecnologia. Permitir o uso dessa tecnologia para aplicativos como o FindFace, por exemplo, é algo que conflita diretamente com nossa constituição de 1988 e com o princípio do the right to be let alone.
O uso da tecnologia pode e deve ser adotado para a identificação de criminosos, todavia, deve-se observar outros fatores para que não ocorram prisões arbitrárias e penalidades injustas, porquanto se a tecnologia não tem 100% de precisão -e nunca terá-, uma condenação errônea, pode causar danos irreversíveis na vida do indivíduo.
Como exemplo desse problema um episódio aconteceu há alguns anos nos Estados Unidos, quando o FBI identificou erroneamente um homem por assalto a um banco. E mesmo sendo este inocentando pela funcionária do banco ao afirmar que a pessoa que estava diante dela sendo julgada naquele tribunal era diferente do verdadeiro culpado, ainda assim, o judiciário insistiu na sua condenação baseando-se no uso da inteligência artificial de reconhecimento facial.
Posteriormente, só foi possível inocentá-lo, ao utilizar o mesmo recurso que o havia anteriormente condenado. A defesa do réu apresentou um outro vídeo mais esclarecedor, que mostrava o assaltante de pé. A partir desse novo padrão procederam com as devidas análises no vídeo, quando foi possível observar que o homem que havia sido condenado e o real criminoso tinham alturas bem distintas.
A não regulamentação dessa tecnologia tem implicações assustadoras para nossa liberdade. Cada pessoa que passa por essas câmeras terá seu rosto – seu recurso mais identificável – digitalizado e armazenado em um banco de dados da polícia, de maneira imperceptível. Não há como escapar especialmente quando você não sabe o que está acontecendo. Ademais, corre-se o risco de erroneamente o indivíduo ser identificado como um criminoso e, neste caso, poderá ser obrigado a provar sua identidade para a polícia ou poderá ser preso por um crime que não cometeu.
Em vista disso, a regulamentação é necessária para garantir direitos aos indivíduos previstos em nossa legislação constitucional, assim como nas legislações estrangeiras que devem ser seguidas pelo Brasil, como no caso da GDPR (general data protection regulation).
Por Vanessa Guerra
Fonte: https://aguirresvanessa.jusbrasil.com.br/artigos/687824351/minority-report-ficcao-ou-realidade
Nossas novidades direto em sua caixa de entrada.