Pesquisar
Close this search box.

Ética by design no desenvolvimento de tecnologias: precisamos de equipes multidisciplinares

Publicado em
Ética by design no desenvolvimento de tecnologias precisamos de equipes multidisciplinares

A ética by design tem que ser adotada no desenvolvimento de tecnologias de inteligência artificial, não só pelas implicações pelo uso de dados pessoais, como também pelos impactos sociais em áreas sensíveis à sociedade como trabalho, educação e saúde.

Facebook anunciou, em 15 de junho, o lançamento no Brasil do Facebook Pay, seu novo sistema de pagamentos pelo WhatsApp. Alguns dias depois, dia 23, o Banco Central e o Conselho Administrativo de Defesa Econômica (Cade) determinaram sua suspensão temporária. Dentre as preocupações das autoridades brasileiras estão: a) a proteção dos dados pessoais gerados no aplicativo, incluindo seu potencial compartilhamento com as três redes sociais controladas pela corporação (Facebook, WhatsApp e Instagram), e b) assegurar que não haja vantagem indevida, comprometendo a livre concorrência, dada a quantidade de seus usuários (consequentemente, dados). Segundo os envolvidos, o projeto levou dois anos em desenvolvimento, mas, pelas informações divulgadas, aparentemente, não atentou para as questões éticas associadas ao uso de dados pessoais.

O modelo econômico que tende a prevalecer no século XXI, orientado a dados (Data-driven economy), essencialmente, extrai inputs de grandes conjuntos de dados com técnicas estatísticas de Inteligência Artificial (IA) com o objetivo de personalizar, prever, automatizar e otimizar processos, produtos e serviços. Sendo os dados pessoais a base desses modelos de negócio, torna-se mandatório contemplar as questões éticas. As leis de proteção de dados — LGPD europeia, GDPR brasileira e CCPA californiana -, inclusive, implicitamente, recomendam a adoção do conceito de privacy by design.

Para tal, contudo, requer equipes multidisciplinares de desenvolvedores. Em geral, os pesquisadores de tecnologia, seja na academia ou nas empresas, não atentam para os impactos éticos e sociais, impactos tratados a posteriori tornando mais complexa a identificação, a regulação e a fiscalização.

A suposta ausência de sensibilidade para as questões éticas dos cientistas de tecnologia esteve no cerne da polêmica que agitou a comunidade de IA ao envolver alguns de seus renomados representantes, dentre eles o chefe de IA do Facebook, Yann LeCun, vencedor do Prêmio Turing, como um dos pioneiros em redes neurais/deep learning.

A polêmica explodiu num dos maiores eventos de IA, a conferência Computer Vision and Pattern Recognition (CVPR), realizada virtualmente em 14-19 de junho. Polemizando em primeiro plano com LeCun esteve a cientista da computação etíope-americana Timnit Gebru, co-líder técnico da Equipe de Inteligência Artificial Ética do Google, cujas pesquisas sobre o preconceito de raça e gênero nos sistemas de reconhecimento facial têm subsidiado os congressistas americanos a favor da proibição pelo governo federal desses sistemas, e influenciou, igualmente, as decisões da IBM, Microsoft e Amazon de interromper seu uso pela polícia (tema da coluna de 19/jun).

A polêmica começou na semana anterior à conferência, quando um observador introduziu no PULSE uma foto do ex-presidente Obama e o sistema gerou uma foto de um homem branco; na sequência, o sistema transformou Muhammad Ali em branco, traços de mulheres asiáticas em traços de mulheres brancas, dentre outras distorções claramente de viés racial. PULSE é um modelo de visão computacional desenvolvido por pesquisadores da Universidade de Duke utilizando redes GANS (Generative adversarial networks), um tipo de arquitetura de aprendizado de máquina, e cujo algoritmo (StyleGAN/NVIDIA) foi treinado com dados do Flickr Face HQ; ele cria rostos humanos assustadoramente realistas usados em perfis falsos de mídia social.

O estopim da polêmica foi a declaração de Yann LeCun à essas evidências: “os sistemas de ML (Machine Learning) são tendenciosos quando os dados são tendenciosos”, imediatamente contestado por diversos especialista que o acusaram de minimizar o problema ou até mesmo de se isentar da responsabilidade (lembrando que o tema do racismo está na “pauta” nos EUA nesse momento). Timnit Gebru, do Google, convidou LeCun para assistir seu tutorial GPRR — apresentado na abertura da Conferência CVPR – cuja mensagem central é que o viés nos modelos de IA não pode ser reduzido apenas aos dados. A polêmica se estendeu por dias nas redes sociais, principalmente no Twitter, alcançando tons não recomendados entre pesquisadores.

Diante da repercussão negativa, o chefe de IA do Google, Jeff Dean, pediu que a comunidade reconhecesse que o viés vai além dos dados e o vice-presidente de IA do Facebook, Jerome Pesenti, se desculpou afirmando ser importante ouvir as experiências de pessoas que sofreram injustiça racial.

Do ponto de vista estritamente técnico, a resposta de LeCun é correta, o preconceito e a injustiça nos sistemas de IA quase sempre vêm da base de dados usada na concepção do modelo, e amplificados no processo posterior de treinamento dos algoritmos. Não há dúvida que as recomendações desses sistemas inteligentes são influenciadas pelos dados, por isso recomenda-se que a base de dados utilizada seja representativa do universo em estudo.

A forte reação de alguns membros importantes da comunidade de IA deve-se mais a forma sucinta da resposta, sendo ele um dos líderes da área esperava-se que fizesse ponderações mais amplas, alertando, por exemplo, sobre as limitações e distorções dos sistemas e reconhecesse que, efetivamente, falta desenvolvimento técnico para compensar o potencial viés. Esperava-se, igualmente, uma recomendação aos desenvolvedores sobre a necessidade de um exame mais cuidadoso da base de dados em busca de sinais de viés ou, alternativamente, treinar os algoritmos usando conjuntos maiores e mais diversificados de dados. Por último, esperava-se que LeCun aconselhasse os desenvolvedores a explicitar que trata-se de modelos estatísticos de probabilidade, logo seus resultados nunca são 100% assertivos (independente da base de dados). Ou seja, que ele se portasse como um líder da comunidade e da função que desempenha em uma das Big Techs (Facebook).

A ética by design tem que ser adotada no desenvolvimento de tecnologias de IA, não só pelas implicações pelo uso de dados pessoais, como também pelos impactos sociais em áreas sensíveis à sociedade como trabalho, educação e saúde. Daí a importância de formar equipes multidisciplinares com pesquisadores de ciências exatas e humanas, trabalhando juntos desde a concepção à implementação das tecnologias. É imprescindível agregar distintas visões, oferecer à sociedade soluções mais amigáveis, menos ameaçadoras, que construam igualdades e não desigualdades.

Fonte: Época Negócios

COMPARTILHAR
VEJA TAMBÉM
Imagem: Pixabay

Inovação na Tomada de Decisão

Imagem: Pixabay

O Impacto do DJE na Modernização do Sistema Judiciário Brasileiro

computer-4484282_1280

Uso de sistemas low/no code para gerenciamento de rotinas jurídicas

Imagem: Pixabay

Evolução da criatividade - da teoria para a prática

artigo obs

Ausência da parte Autora e do Preposto nas Audiências Judiciais Cíveis e Juizados Especiais. Quais as diferenças e quais as consequências?

Imagem: Pixabay

Advogados contra a Tecnologia: as máquinas irão substituir os advogados?

interface-3614766_1280

Desenvolvimento responsável da IA com a nova norma ISO/IEC 42001.

laptop-5673901_1280

DJe ou Painel de Intimações? Como acompanhar as intimações e não perder prazos!

EMPRESAS ALIADAS E MANTENEDORAS

Receba nossa Newsletter

Nossas novidades direto em sua caixa de entrada.