A AB2L iniciou suas atividades em 2017 e, desde então, escreve os capítulos de uma história que tem muito para contar sobre o ecossistema de tecnologia jurídica.
Conheça nossas associadas.
Programas para educar o mercado, fomentar o ecossistema e participar ativamente do processo de regulamentação brasileiro entre direito e tecnologia.
Capítulos regionais/locais exclusivos para associados e grupos abertos ao público em geral.
Mais de 300 horas de conteúdo educacional focado no ecossistema jurídico e tecnológico.
Exclusivo para associados.
Um robô não pode ferir um ser humano ou, por inação, permitir que ele aja de forma a causar dano a si próprio. Essa é a primeira das três leis para a robótica inicialmente desenvolvidas por Isaac Asimov nos anos 40. Mais tarde, o autor introduziu a chamada “lei zero”: um robô não pode causar dano para a humanidade ou, por inação, permitir que ela sofra algum mal. As mencionadas normas, ainda que de inspiração literária, marcam o início da preocupação com o desenvolvimento seguro de inteligências artificiais (IA) e robôs, bem como com as suas interações com os seres humanos.
Nos últimos anos, muito se tem discutido sobre as possibilidades de regulação das novas tecnologias. Questiona-se, com frequência, se seria necessária a criação de normas e institutos específicos para tratar de matérias relativas à inteligência artificial e robôs ou se deveriam ser aplicadas as normas já existentes para as novas situações. Os regimes de responsabilidade civil existentes seriam suficientemente flexíveis para lidar com os novos conflitos frutos da relação humano-IA e humano-robô?
Para a regulação de tecnologias, é comum a seleção, por parte das autoridades competentes, de fatos relevantes sobre a temática para assim decidir sobre o que, quando, como e se deve haver uma intervenção em termos normativos. Contudo, essa tarefa nem sempre é simples, em razão da falta de amostras adequadas e dados confiáveis sobre os efeitos e interações das novas tecnologias a longo prazo na sociedade. Simplesmente nem sempre se tem dados, experiência e imaginação suficientes para prever quais impactos negativos podem ser associados a um determinado robô ou IA.
Por tal razão, uma eventual intervenção legislativa deve ocorrer apenas após ampla consulta de caráter multissetorial e, idealmente, quando o potencial da tecnologia for mais conhecido. Deve-se também considerar as consultas relevantes que estejam ocorrendo sobre o assunto em outros países, bem como discussões sobre temas correlatos, como, por exemplo, proteção de dados e cibersegurança.
No campo da responsabilidade civil, algumas questões vêm aparecendo: quem deve ser responsável por garantir a segurança de um robô ou de uma IA? Como as responsabilidades devem ser alocadas no caso de uma determinada tecnologia se comportar de forma insegura e equivocada, causando danos a seus usuários e/ou terceiros? Se uma máquina causar dano a um ser humano, quem deve responder civilmente? Conforme questionado em texto desta série, pode um ser sem personalidade jurídica responder diretamente por um eventual dano praticado? Em caso afirmativo, como ele promoveria a compensação financeira da vítima?
No ordenamento jurídico brasileiro, apenas pessoas podem titularizar direitos e contrair obrigações, o que traz uma série de dúvidas no campo da reparação civil. Aparentemente, as vítimas poderão imputar a responsabilidade pela reparação ao proprietário/responsável final pela IA ou robô e/ou para seu fabricante, a depender da situação e da tecnologia envolvida. Sendo a dignidade da pessoa humana o princípio maior do Estado brasileiro, é necessário que, de um lado, o operador do direito investigue formas de reparar integralmente os danos sofridos pelas vítimas e, de outro, elabore soluções condizentes com o presente estágio tecnológico, que não desincentivem a inovação e o desenvolvimento de tecnologias.
Considerando que robôs gradativamente conseguem efetuar atividades que, em geral, costumavam ser exclusivamente realizadas por humanos e que alguns possuem autonomia e certas habilidades decorrentes de aprendizado, conseguindo assim tomar decisões de forma praticamente independente, tornou-se urgente discutir a responsabilidade jurídica decorrente de uma conduta lesiva por parte de um robô.
Não há dúvida de que quanto mais autônomo for o robô, menos poderá ser encarado como um simples instrumento nas mãos de outros intervenientes, como, por exemplo, o fabricante, o operador, o proprietário, o utilizador, etc. Diante disso, será necessário desenvolver um sistema diferenciado para tratar das responsabilidades dos vários e diversos agentes que participaram direta ou indiretamente do dano causado pela máquina, levando-se em consideração sua participação na cadeia causal, o tipo de tecnologia envolvida e seu grau de autonomia e o conhecimento científico da época.
Além do questionamento sobre a quem imputar a responsabilidade, costuma-se também levantar a importância do estabelecimento de uma espécie de seguro obrigatório para os fabricantes e usuários de determinadas tecnologias. No início de 2017, diante da complexidade de se atribuir responsabilidade pelos danos causados por robôs, o Parlamento Europeu adotou Resolução em que sugeriu o estabelecimento de um regime de seguros obrigatórios, conforme já acontece, por exemplo, com os carros tradicionais. No entanto, o mencionado seguro não deveria cobrir apenas os danos decorrentes de atos e falhas humanas. Um regime para a robótica teria que considerar todos os elementos potenciais da cadeia de responsabilidade. À semelhança do que acontece com os veículos motorizados, esse regime de seguros poderia ser complementado por um fundo de garantia de reparação de danos nos casos não abrangidos por qualquer seguro.
No documento europeu, recomendou-se que, seja qual for a solução jurídica aplicável à responsabilidade civil pelos danos causados por robôs, em caso de danos não patrimoniais o futuro instrumento legislativo não deverá limitar o tipo ou a extensão dos danos a indenizar nem as formas de compensação à parte lesada, pelo simples fato de os danos terem sido provocados por um agente não humano. Considerou-se que, em princípio, uma vez identificadas as partes às quais caberia, em última instância, a responsabilidade, ela deveria ser proporcional ao nível efetivo de instruções dadas ao robô e ao nível de sua autonomia. Nesse sentido, quanto maior fosse a capacidade de aprendizagem e autonomia do robô e quanto mais longo fosse seu treinamento, maior seria a responsabilidade de quem o treinou.
As competências resultantes do aprendizado da máquina não deveriam ser confundidas com as competências estritamente dependentes de sua capacidade de autoaprendizagem, quando se procurasse identificar a pessoa a quem o comportamento danoso do robô pudesse ser atribuído. Observou-se que, pelo menos na fase atual, a responsabilidade deve ser imputada a um ser humano e não a um robô.
Por fim, vale destacar sugestão para debate deixada pela Resolução que versa acerca da criação de um status legal específico para robôs. Nesse caminho, pelo menos os robôs autônomos mais sofisticados poderiam ser determinados como detentores do status de pessoas eletrônicas que seriam responsáveis por sanar quaisquer danos que causassem. Poderia também ser aplicada a personalidade eletrônica aos casos em que os robôs tomassem decisões autônomas ou interagissem por qualquer outro modo com terceiros de forma independente. Uma proposta polêmica, sem dúvida.
Sistemas dotados de IA vêm interferindo diretamente em nossos corpos e nos espaços públicos e privados que ocupamos e a tendência é que essa interação se torne cada vez mais presente e necessária, fazendo parte do nosso dia-a-dia de tal maneira que esses laços se tornem praticamente invisíveis. Diante disso, eventualmente, tais tecnologias terão que tomar decisões e definir caminhos, os quais muitas vezes esbarrarão em questões éticas e de responsabilidade. Imagine no caso de um carro autônomo: seu compromisso deve ser matar o menor número de pessoas ou proteger seu usuário sempre que possível? Caso um assistente pessoal perceba que seu “chefe” está premeditando um crime ou armazenando imagens de crianças nuas, deverá ele reportar tal fato para as autoridades? Haveria um dever de informar por parte da inteligência artificial quando verificasse a existência de informações suspeitas ou preocupantes para a segurança nacional?
Tomando as duas situações, pergunta-se: quem responderia civilmente no caso de um acidente provocado por um carro autônomo? É possível aqui a aplicação do Código de Defesa do Consumidor para responsabilizar objetivamente seu fabricante, por exemplo? É razoável perquirir se houve culpa por parte da IA para atrair sua respectiva responsabilidade? A respeito da possibilidade de responsabilização, é necessário observar que se de um lado ela pode incentivar o desenvolvimento de produtos e serviços mais seguros e claros ao consumidor em relação aos seus riscos, de outro pode acabar impactando negativamente as taxas de desenvolvimento de inovação e adoção de tecnologias, o que seria nocivo para a sociedade de forma geral. Há, portanto, um delicado e importante equilíbrio de interesses a ser atingido.
Na segunda situação narrada, caso o assistente pessoal analisasse equivocadamente uma informação e indicasse uma pessoa como suspeita para as autoridades, ela poderia pedir uma reparação? A análise dos conteúdos por si só já não violaria a intimidade da pessoa que contratou os serviços do assistente? Pessoas que foram objeto de análises discriminatórias por parte de IAs poderiam pleitear uma reparação (já que se o ofensor fosse humano isso seria viável)?
Um tema que se relaciona diretamente com as questões apresentadas é o do risco do desenvolvimento, visto que ele eventualmente poderá ser arguido para se tentar afastar a responsabilidade do fabricante ou proprietário de robôs e demais tecnologias dotadas de inteligência artificial. O risco do desenvolvimento tem como objetivo tratar daqueles riscos não cognoscíveis pelo mais avançado estado da ciência e da técnica no momento da introdução do produto ou serviço no mercado e que só vêm a ser descobertos após um período de uso do mesmo, seja em razão de acidentes e danos, seja por avanços nos estudos e testes realizados.
Em razão da condição narrada, há quem entenda que, nessa hipótese, a responsabilidade do fornecedor deveria ser excluída. Isso ocorreria não porque o fornecedor falhou em seus deveres de diligência e segurança, mas sim porque a incognoscibilidade do defeito era absoluta diante do presente estado da arte. Nesse raciocínio, não haveria subversão de uma legítima expectativa de segurança do consumidor, visto que nenhuma expectativa poderia ser tida como legítima se pretende ir além do próprio estado mais avançado da tecnologia de sua época. Por outro lado, há quem entenda que sua aplicação poderia acabar permitindo que o consumidor arcasse sozinho com a incerteza da tecnologia adquirida. Além de não ter plena ciência dos riscos e do grau de conhecimento alcançado pela ciência, ele ainda assumiria integralmente os danos que viesse a sofrer decorrentes do uso normal do produto ou serviço.
Hoje, busca-se por meio de técnicas de aprendizado de máquina que a tecnologia seja autossuficiente e possa analisar uma dada situação de múltiplas perspectivas, com o máximo de dados, para tomar a melhor decisão estatisticamente comprovada. Assim, computadores e dispositivos conectados podem desempenhar suas funções sem que pareçam programados, bem como podem aprender durante o processo de uso, utilizando o máximo de informações que conseguirem captar e gerar.
Vale ressaltar que, no campo da IA, vem crescendo exponencialmente o uso da chamada Deep Learningque, de forma simples, permite oportunidades de aprendizagem profundas com o uso de redes neurais e algoritmos genéticos para melhorar e otimizar o uso de instrumentos. As máquinas inspiradas em Deep Learning conseguem aprender abstrações complexas dos dados por meio de um processo de aprendizagem hierárquica em alguma medida similar ao que ocorre no cérebro humano. O método tem produzido importantes resultados em diferentes aplicações, incluindo reconhecimento de voz, visão computacional e processamento de linguagem natural, sendo a tecnologia base por detrás de inúmeras ferramentas como o Google Translate e os assistentes virtuais de inteligência artificial da Amazon (Alexa), Microsoft (Cortana) e Apple (Siri).
A interação entre humanos e seres dotados de inteligência artificial já é uma realidade e será cada vez mais intensa. Uma abordagem jurídica pessimista para a evolução tecnológica pode prejudicar o desenvolvimento de novos instrumentos que efetivamente venham a atuar no sentido de melhorar a qualidade de vida da população, garantindo a um maior número de pessoas a dignidade assegurada pela Constituição e maior inclusão na sociedade. Além disso, se bem exploradas, essas tecnologias poderão incrementar o desenvolvimento dos espaços urbanos e rurais e diminuir a dependência tecnológica de países em desenvolvimento.
Fonte https://jota.info/artigos/quem-responde-pelos-danos-causados-pela-ia-24102017
Chiara Spadaccini de Teffé – Doutoranda e mestre em Direito Civil pela Universidade do Estado do Rio de Janeiro (Uerj), pesquisadora do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) e professora da Universidade Federal do Rio de Janeiro (UFRJ).
Nossas novidades direto em sua caixa de entrada.