Aprovado há nove anos, em abril de 2014, o Marco Civil da Internet foi considerado à época uma lei inovadora, tanto pela sua abrangência quanto pela complexidade. Menos de uma década depois, todavia, parte de seu texto está sob fogo cruzado. Mais do que isso: a norma dá sinais de obsolescência.
Por Patricia Peck, sócia do Peck Advogados e professora de Direito Digital da ESPM
De um lado, há a iminência da aprovação do chamado PL das Fake News, que pode criar novas balizas para a aplicação da lei; de outro, há o controle de constitucionalidade do Supremo Tribunal Federal, que deve verificar ainda neste semestre se o artigo 19 do Marco Civil — principal ponto de discussão — é compatível com a Constituição.
O dispositivo, parte de um conjunto criado para coibir a censura ou a autocensura, isentou de responsabilidade as empresas de tecnologia pelo conteúdo postado por terceiros, à exceção de casos em que haja descumprimento de decisão judicial para remoção de publicações. A norma criou precedentes pouco usuais no ordenamento jurídico brasileiro, com inúmeros casos de descumprimento judicial, sendo o mais proeminente deles o que envolve o aplicativo Telegram.
“Temos de ter uma noção muito clara do que significa violação do dever de diligência das plataformas e do que significa censura de conteúdo. A tendência dessas empresas tem sido encarar qualquer restrição ou determinação judicial como se se tratasse de censura, e, em várias vezes, não é o caso. Da mesma forma, a ideia de que, simplesmente por não ter produzido o conteúdo, a plataforma não pode ser responsabilizada parece-me equivocada”, diz o advogado André Portugal, do escritório Klein Portugal Advogados Associados.
Na única hipótese prevista pelo Marco Civil em que o provedor é considerado responsável subsidiário (artigo 21), a norma se restringe a casos de “violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado”.
Para Portugal e outros especialistas em Direito Digital entrevistados pela revista eletrônica Consultor Jurídico, há dois caminhos para sanar as zonas cinzentas que permeiam trechos do Marco Civil, levando em conta a análise feita pelo STF. A primeira delas é expandir o rol de casos detalhados que resultam em responsabilização. Além de atos sexuais e nudez, poderiam ser incluídos crimes de ódio, como racismo e homofobia.
Outro ponto citado é a formação de uma agência reguladora, nos moldes do que foi feito com o Conselho Nacional de Autorregulamentação Publicitária (Conar) no âmbito do mercado de publicidade brasileiro. A ideia, no entanto, já foi sepultada pelo PL das Fake News, cujo texto deve ser votado na próxima terça-feira (2/5). Dessa forma, a discussão no Supremo ganhou contornos ainda mais decisivos.
Pagamentos irrisórios
O debate sobre a efetividade do Marco Civil, em especial os dispositivos que deixam de responsabilizar as empresas de tecnologia, passa também pelo crescimento econômico dessas corporações. Seu poderio financeiro contrasta com a negligência em relação às decisões da Justiça brasileira. Os registros de descumprimento de ordens judiciais vão de meras obrigações de fazer até casos que envolvem investigações de crimes como estupro e pedofilia.
Nos casos de indenização, as penas pecuniárias baixas, tendo em vista os faturamentos dessas empresas, estimulam o não cumprimento de decisões, segundo os especialistas ouvidos pela ConJur.
Em março deste ano, por exemplo, a Justiça do Paraná obrigou o Google a desvincular o nome de um homem das buscas que levavam a reportagens que o citavam como alvo de operação policial. Antes da decisão do TJ-PR, a big tech não cumpriu decisão liminar, conforme exposto nos autos, que estão sob sigilo. Foi, então, estipulada multa de R$ 1 mil por dia, com valor máximo de R$ 100 mil.
“Essas empresas operam com valores multibilionários, e, por isso, elas propriamente não têm tido um incentivo para cumprir esse tipo de ordem judicial, com valores muito baixos. O que são, afinal, R$ 100 mil de multa judicial, por exemplo, para uma corporação dessas? Em síntese, a figura do Estado hoje encontra limites de ordem prática para atingir essas grandes companhias”, diz Portugal, que atuou no caso.
“As empresas cresceram, se desenvolveram e seu modelo está completamente orientado à monetização. Nesse sentido, quando a gente fala de monetização, e quais conteúdos geram audiência, a gente sabe que, muitas vezes, o que mais atrai é o pior, não o melhor. Logo, esse artigo (19), sem exigir prazos claros de resposta, acabou deixando margem para a corrida da monetização, mesmo que seja em cima do dano”, complementa a professora da Escola Superior de Propaganda e Marketing (ESPM) e advogada Patricia Peck, do Peck Advogados.
A especialista, que participou das audiências públicas do STF que debatem a constitucionalidade do Marco Civil, diz ainda que o lado contratualista das plataformas, que têm termos próprios, sem padronização e pouco transparentes, gera subjetividade e insegurança jurídica. “Isso dá uma margem muito grande, é como um cheque em branco.”
Discurso de ódio e judicialização
À época da aprovação do Marco Civil, os dispositivos que isentavam as empresas de responsabilidade eram vistos com bons olhos pelas comunidades jurídica e digital por coibirem a censura e, em alguma proporção, impedirem uma judicialização excessiva de casos referentes a conteúdos publicados.
A presunção de boa-fé das empresas, no entanto, gerou distorções. As companhias de tecnologia passaram a usar indiscriminadamente o argumento de censura em processos questionando suas responsabilidades. E a lei se deteriorou na mesma medida em que se registrou o aumento exponencial do discurso de ódio nas redes sociais desde a aprovação do Marco Civil, com destaque para os últimos cinco anos.
Em suma, se por um lado houve crescimento do número de publicações com teor racista, xenófobo e homofóbico nas redes sociais, preconceitos que também ferem a honra das pessoas, por outro houve decréscimo da judicialização buscando reparação. No caso do discurso de ódio, há ainda o agravante dos recentes ataques violentos em escolas, que foram precedidos por publicações em redes sociais abertas, como o Twitter.
“A partir do momento em que a inteligência artificial da rede social distribuiu, por meio de algoritmo, conteúdos neonazistas e não puniu, você deveria, sim, responsabilizar. É necessário um aperfeiçoamento da lei, uma entidade reguladora que traga uma série de procedimentos. Os bancos digitais, por exemplo, exigem foto e CPF para cadastro. Isso poderia fazer sentido na rede social, você começa a cercear e criar mais eficácia para a responsabilização”, diz o advogado Vitor Saldanha, especializado em Direito Digital e diretor jurídico da JL Health Group. “Em casos de publicações com homofobia e racismo, em uma democracia a rede social deveria retirar de forma espontânea.”
Como exemplo, um parecer da Terranova Consultoria, elaborado a partir de pedido do Google, constatou que, nos cinco anos subsequentes à aprovação do Marco Civil, houve prevenção da “judicialização de aproximadamente seis mil conflitos”. O estudo levou em consideração dados internos do Google referentes a ações contra o YouTube que correm no Tribunal de Justiça de São Paulo, além de informações públicas de cinco cortes estaduais: TJ-RJ, TJ-RS, TJ-MS, TJ-BA e o próprio TJ-SP.
Em contrapartida, as denúncias sobre discurso de ódio nas redes cresceram nos últimos cinco anos, em especial nos períodos eleitorais, conforme análise da Safernet. O ano passado registrou um recorde: foram mais de 74 mil denúncias, maior número desde 2017, de acordo com a organização.
Para Saldanha, todavia, o Marco Civil tem seus méritos em evitar judicializações desnecessárias e genéricas. “Derrubar o artigo 19 pode gerar um efeito rebote. Vai haver crescimento das demandas judiciais, o que vai onerar o Estado. As redes são facilitadoras desses discursos de ódio, por disponibilizarem os espaços para que esses comentários sejam proferidos, mas também temos de ficar atentos aos reflexos negativos que esse julgamento no Supremo pode ter.”
Casos concretos no STF
Os dois recursos especiais que ganharam repercussão geral no Supremo (Temas 987 e 533) mostram como a junção da falta de regulamentação com a conduta negligente das empresas culminou na intervenção do Judiciário para preencher as lacunas deixadas — mais um traço da obsolescência legislativa.
Um dos casos trata de uma comunidade no Orkut, rede que não existe mais, mas é controlada pelo Google, criada para ofender uma professora de português de Belo Horizonte. Nos autos, a profissional alegou que, quando soube do grupo, não viu problema, “achando se tratar de uma brincadeira inocente”.
A comunidade, entretanto, tomou grandes proporções e foi inundada com comentários ofensivos contra a professora, que se viu constrangida. À época, ela fez um pedido extrajudicial ao Google para que a comunidade fosse tirada do ar, e obteve resposta negativa. O processo corre desde 2010.
A outra ação versa sobre um perfil falso criado no Facebook em nome de uma mulher de Capivari (SP), que passou a ofender pessoas conhecidas na cidade, incluindo sua própria irmã. O processo, analisado há quase dez anos, registra que os ofendidos foram tirar satisfação na porta da casa da autora, cuja vida “tornou-se um inferno”.
Ela denunciou a página, pedindo sua remoção, e fez um boletim de ocorrência na polícia. O Facebook, no entanto, recusou-se a tirar o perfil falso do ar. Para os especialistas consultados pela ConJur, as próprias plataformas, quando negligenciaram as denúncias, corroboraram para que agora a situação seja tratada no Supremo.
“Seja por meio de um ente regulador ou pela ampliação das hipóteses de responsabilização direta dos provedores de aplicações de internet, pela aplicação do Marco, fato é que tais iniciativas podem melhorar a legislação. Vai ficar mais oneroso do ponto de vista operacional? As redes sociais vão perder usuários? Paciência, se desejarem operar no Brasil, precisarão se adequar aos novos tempos”, afirma Saldanha.
Processo 0028066-39.2018.8.16.0001
RE 1.037.396
RE 1.057.258
Fonte: CONJUR