Pesquisar
Close this search box.

Carta ao STF: poder e dever das plataformas

Publicado em
c26fcd61186af0ee079c1f7cfe08e65c-1024x683

A constitucionalidade do artigo 19 do Marco Civil da Internet no Brasil e o processo que envolve o Facebook

Escrevo para compartilhar carta que enviei ao STF logo antes do recesso, em relação à aguardada decisão de nossa suprema corte sobre a constitucionalidade do artigo 19 do Marco Civil da Internet no Brasil (Lei 12.965/14). Essa decisão virá em Recurso Extraordinário envolvendo o Facebook.

O artigo 19, como todos sabem, é aquele que exclui qualquer responsabilidade das plataformas de internet por conteúdo ilícito de seus usuários, mesmo quando as plataformas saibam estar hospedando tal conteúdo e nada façam a respeito—e mesmo quando o conteúdo viole direitos fundamentais.

O que normalmente não se discute é que tal dispositivo não retira das plataformas o poder de examinarem o conteúdo como bem entenderem; retira delas tão somente o dever de fazerem-no de acordo com quaisquer regras e padrões de comunicação responsável. Podem tudo as Plataformas. Não devem nada.

Na carta, busco explicar, com base em artigo mais detalhado sobre o assunto, os problemas dessa dinâmica.

Fim Legítimo

Vale de início registrar: o artigo 19 persegue fim legítimo e muito importante. Busca proteger a liberdade de expressão ao evitar o conhecido problema da censura colateral (collateral censorship), que é causado por sistemas de responsabilização objetiva das plataformas.i

Em tais sistemas, não importa o cuidado dedicado pelas plataformas ao exame do conteúdo. Após notificadas de que hospedam certo conteúdo, mesmo que as plataformas dediquem todo cuidado a examiná-lo, as plataformas respondem por qualquer juízo equivocado quanto a sua licitude se decidirem mantê-lo online.

As consequências desses sistemas são bastante óbvias. Com a espada de Dâmocles sobre suas cabeças, as plataformas tenderão a retirar o conteúdo do ar tão logo notificadas de sua existência—o que resulta em uma forma de censura.

Tais sistemas de responsabilidade são os que encontramos na Diretiva Europeia de Comércio Eletrônico, e na disciplina da difamação por vários países da common law. Era também de responsabilidade objetiva o sistema encontrado na jurisprudência de nossos tribunais antes do Marco Civil (ver Carta, Nota 7).

Meios Desproporcionais

Evitar a censura colateral que resulta de sistemas de responsabilidade objetiva é, portanto, um fim legítimo do artigo 19. O problema do artigo 19, porém, não é a falta de um fim legítimo. O problema são os meios desproporcionaisescolhidos para atingir esse fim.

O que o artigo 19 adota, em resposta ao sistema de responsabilidade objetiva, é um modelo de imunidade que buscou na Section 230 do Communications Decency Act, dos EUA (embora o Marco Civil, como explico na carta, seja ainda mais extremo). Tal modelo cria um regime de completo desincentivo para as plataformas protegerem direitos fundamentais potencialmente violados pelo conteúdo. Podem agir com completo desprezo a tais direitos e ainda assim sairão impunes.

As plataformas não têm, em outras palavras, um dever jurídico de agirem de acordo com práticas responsáveis de exame do conteúdo.

Essa ausência de um dever jurídico originário em relação ao conteúdo cria também uma espécie de curto-circuito no sistema de direito civil—especialmente quando, em um segundo momento, as plataformas podem responder ao violar ordem judicial. Note-se que se cuida ali de caso curioso de responsabilidade que surge sem que tenha havido dever jurídico anterior, e de relação jurídica processual que se instaura sem a existência prévia de uma relação jurídica de direito material. Com efeito, se não havia dever anterior, o que traz as Plataformas ao polo passivo do processo? Qual a autoridade do judiciário para lhes ordenar qualquer coisa?

Ao mesmo tempo, o artigo 19 deixa as Plataformas inteiramente livres para violarem a liberdade de expressão quando bem entenderem. A ausência de dever, que corta de um lado, corta também do outro. Não estão obrigadas por quaisquer critérios as Plataformas, senão aqueles por que quiserem estar obrigadas. As lataformas são tornadas verdadeiros soberanos de um universo jurídico paralelo, em que suas decisões formam uma jurisprudência invisível e incontrastável. O problema é que não é um universo paralelo. É o nosso universo. E essa jurisprudência privada culmina por formar um campo normativo cujas consequências têm tremendo alcance em nossas vidas—inclusive, vale a lembrança, em relação ao desenvolvimento de nossos processos políticos e à afirmação de nossa democracia.

Se o processo sempre permanece como possibilidade para os insatisfeitos com as decisões das plataformas, ele permanece também como ficção distante. O tempo e o espaço da Internet são diversos do tempo e espaço das precatórias, das rogatórias, da judicialização. Para cada caso que chega ao judiciário há milhares de outros que jamais chegarão, que restarão sujeitos ao inteiro arbítrio das plataformas. Além disso, as dificuldades que o §1º. do artigo 19 cria, ao exigir decisão específica para remoção de cada instância do conteúdo, asseguram que, mesmo nos casos que eventualmente chegarem ao judiciário, o conteúdo permanecerá online para sempre.

Alguém talvez pudesse dizer, com alguma razão, que parece um sistema feito para não funcionar.

Por um Dever de Comunicação Responsável

Veja-se, aqui, algo curioso: enquanto o modelo da responsabilidade objetiva reconhece prevalência automática a direitos como o direito à privacidade, em detrimento da liberdade de expressão (pois leva à censura colateral), o modelo da imunidade reconhece prevalência automática à liberdade de expressão, em detrimento de outros direitos fundamentais. Ou seja, em perseguindo os fins que afirmam perseguir, nem um modelo nem outro reflete um compromisso real com a ideia de proporcionalidade dos meios empregados.

O que seria, porém, um modelo proporcional de reconhecimento dos deveres e responsabilidades das Plataformas? Seria um modelo que focasse não em prevalências automáticas, não no pender necessário da balança para um lado ou de outro, mas sim no próprio exame do conteúdo pelas plataformas. Ou seja, para proteger a liberdade de expressão—e para protege-la verdadeiramente, como o artigo 19 não faz—o que se deve requerer das plataformas é um compromisso real com os direitos de um lado e de outro.

Para tanto, deve-se também dar às plataformas garantia de que não serão responsabilizadas tão somente por interpretações equivocadas. Quando responderem as plataformas, responderão não pela correção do juízo que formularem—responderão pela negligência ou imprudência que dedicarem ao exame do conteúdo. Responderão também por abusarem de seus direitos ao procederem a esse exame.

Plataforma que remove o conteúdo automaticamente sem lhe dedicar qualquer atenção deve responder da mesma forma que Plataforma que assim procede ao deixar o conteúdo no ar. Mas tanto não deve responder a Plataforma que, ao proceder de forma razoável ao exame do conteúdo, culmina por atingir conclusão diversa daquela eventualmente atingida pelo judiciário em um momento posterior.

Num sistema realmente proporcional, também, importa levar em conta as possibilidades econômicas e tecnológicas das plataformas. Se um dos objetivos originais da Section 230, nos EUA, foi precisamente encorajar o desenvolvimento de um então nascente setor de “serviços de computação interativa”, tal objetivo pode ser igualmente atingido por um sistema que gradue a responsabilidade das plataformas de acordo com o que delas é razoável esperar. Em outras palavras, não se pode exigir de uma startup o mesmo grau de diligência que se deve exigir do Facebook.

Forma de responsabilidade subjetiva como a sugerida aqui—baseada não em um dever puro e simples de retirada, mas sim em um dever de exame do conteúdo—não é estranha ao Direito. Como explico em detalhes no artigo referido acima, ela tem análogos tanto em um dever de comunicação responsável reconhecido por países da common law em casos como Grant v. Torstar Corp, decidido pela Surpema Corte Canadense, quanto de regimes como o do recente Network Enforcement Act 2018, na Alemanha, que cria mecanismos regulatórios para verificar os procedimentos adotados por redes sociais quanto ao exame do conteúdo que hospedam.ii

Doutrinariamente, relatório recente da Truth, Trust & Technology Commissionda London School of Economics and Political Scienceiii cita meu artigo, ao lado de artigo do Professor Jack Balkin, de Yale,iv como exemplos da emergência de um consenso em relação a caminhos intermediários de responsabilidade das plataformas. E é para uma ideia de proporcionalidade que tais caminhos apontam.

Conclusão

Nenhum dos problemas do artigo 19 é, portanto, inevitável. Mesmo que se entenda que a liberdade de expressão goza de uma posição preferencial (preferred position) em nosso ordenamento constitucional, há formas de tutelá-la sem calcar aos pés outros direitos fundamentais—sem violar, portanto, a coerência e a integridade do sistema de direito civil brasileiro, bem como a unidade das normas constitucionais.

O modelo da Section 230 foi adotado há mais de 20 anos nos EUA, em momento completamente diverso, quando, como visto, se buscava incentivar o desenvolvimento das plataformas e talvez não se pudesse antever o poder extremo que alcançariam neste início de século. Hoje, porém, aquele modelo é tido em desfavor por grande e crescente parte da própria academia americana—e tal já era o caso em 2014, quando o Marco Civil foi adotado.v

Entre nós, relembre-se, o Marco Civil foi adotado já após as revelações de Edward Snowden, quando já conhecíamos a dimensão do poder de certas Plataformas, bem como sua propensão a abusarem desse poder. Os escândalos subsequentes envolvendo o Facebook só vieram demonstrar o desacerto de nossa solução, e recentemente levaram inclusive o próprio relator do Marco Civil na Câmara dos Deputados, o deputado Alessandro Molon, a assinar declaração em sentido diametralmente oposto ao do artigo 19 (ver Carta, Nota 14).

Daí ser de profunda importância a decisão que se aproxima sobre a constitucionalidade do artigo 19. Não é exagero dizer que o STF estará lidando com o problema constitucional central de nosso tempo. Em questão está a reafirmação da vitalidade de nosso contrato social, o que hoje requer a limitação das novas e extremas formas de poder que emergiram na era da informação. Há que se limitar o poder extremo das plataformas—ao menos por inclui-las na rede de compromissos jurídicos que conecta e deve conectar todos nós.

A disciplina das Plataformas requer, decerto, muito mais. Requer um regime que verdadeiramente reconheça a natureza pública de suas atividades e as regule como tal. No universo do direito privado, porém—aquele de que predominantemente cuida o artigo 19—, o mínimo que importa reconhecer, por princípio, é que todo agente do processo comunicativo tem o dever de se comunicar de forma responsável. As plataformas inclusive. Não há, aqui, falar em neutralidade. Por trás das ilusões de neutralidade vendidas pelo artigo 19, grande poder se esconde. E se esconde também grande irresponsabilidade.

 

—————————————

i V. e.g. Jack M. Balkin, “Free Speech and Hostile Environments” (1999) 99 Columbia Law Review 2295 e Felix T. Wu, “Collateral Censorship and the Limits of Intermediary Immunity” (2011) 87 Notre Dame Law Review 293.

ii Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (em Alemão). V. Carta, par. 41 ss., para explicações de como a disciplina Alemã reflete uma dinâmica focada em responsabilidades em relação ao processo de exame do conteúdo (em que pese coexistindo com mecanismos, menos recomendáveis, de retirada pura e simples do mesmo).

iii V. The London School of Economics and Political Science, Tackling the Information Crisis: A Policy Framework for Media System Resilience (The Report of the LSE Commission on Truth, Trust, and Technology), online: http://www.lse.ac.uk/media-and-communications/assets/documents/research/T3-Report-Tackling-the-Information-Crisis.pdf, p. 22.

iv V. Jack M. Balkin, “Information Fiduciaries and the First Amendment” (2016) 49(4) UC Davis Law Review 1183.

v V. Joel R. Reidenberg et al, Fordham Law School-Center on Law and Information Policy, Fordham L. Legal Stud. Res. Paper No. 2046230, Section 230 of the Communications Decency Act: A Survey of the Legal Literature and Reform Proposals (2012).

Por Marcelo Thopson

Fonte: https://www.jota.info/opiniao-e-analise/artigos/carta-ao-stf-poder-e-dever-das-plataformas-22012019

 

 

COMPARTILHAR
VEJA TAMBÉM
Imagem: Pixabay

Inovação na Tomada de Decisão

Imagem: Pixabay

O Impacto do DJE na Modernização do Sistema Judiciário Brasileiro

computer-4484282_1280

Uso de sistemas low/no code para gerenciamento de rotinas jurídicas

Imagem: Pixabay

Evolução da criatividade - da teoria para a prática

artigo obs

Ausência da parte Autora e do Preposto nas Audiências Judiciais Cíveis e Juizados Especiais. Quais as diferenças e quais as consequências?

Imagem: Pixabay

Advogados contra a Tecnologia: as máquinas irão substituir os advogados?

interface-3614766_1280

Desenvolvimento responsável da IA com a nova norma ISO/IEC 42001.

laptop-5673901_1280

DJe ou Painel de Intimações? Como acompanhar as intimações e não perder prazos!

EMPRESAS ALIADAS E MANTENEDORAS

Receba nossa Newsletter

Nossas novidades direto em sua caixa de entrada.