Peck Advogados
post-header-blog-8917

Entenda a evolução da responsabilidade dos provedores de aplicação – plataformas – e como os conteúdos criados, publicados e compartilhados impactam a violência em ambiente escolar no Brasil.

Por Patricia Peck Pinheiro, Henrique Rocha e Júlia Bessa Sanzi, sócia-fundadora, sócio e advogada do Peck Advogados respectivamente.

A evolução da responsabilidade dos provedores de aplicação – conhecidos por plataformas – devido aos conteúdos criados, publicados ou compartilhados de terceiros passou por diferentes fases no Brasil. Desde um momento inicial, de maior isenção, no início dos anos 90, até alcançar demandas por mais responsabilização. Tudo isso considerando os avanços da tecnologia, o grau de relacionamento dos usuários com as plataformas e a mudança do modelo de negócio, que vem ocorrendo principalmente nos últimos 10 anos.

No Brasil, cuja digitalização da sociedade se deu de forma tardia, apenas após as privatizações das telecomunicações, percebeu-se uma tendência natural de se buscar aplicar inicialmente as mesmas premissas do Código de Defesa do Consumidor, com dever de agir a partir da ciência, ou seja, da notificação extrajudicial. 

Porém, após intensa articulação legislativa, foi promulgada a Lei n.º 12.965/2014 (Marco Civil da Internet), que trouxe uma nova interpretação para a matéria e consolidou a corrente que aplica a responsabilidade civil apenas nas hipóteses de omissão ou negligência após ciência expressa de ordem judicial (responsabilidade subjetiva). Ainda assim, a responsabilidade será aplicada apenas se não houver a remoção do conteúdo, diante das limitações técnicas do serviço, sem que haja qualquer previsão de prazo expresso no diploma legal. 

Provedores de aplicação x conteúdo de terceiros

No entanto, foi trazida uma exceção de urgência. Um caso específico do conteúdo gerado por terceiros conter imagens, vídeos ou outros materiais com cenas de nudez ou de atos sexuais de caráter privado, situação em que o provedor deve adotar medidas imediatas, independentemente de ordem judicial, hipótese em que ainda assim a limitação técnica dos serviços também deve ser observada.  

Portanto, no atual modelo, o legislador buscou tutelar a liberdade de expressão e coibir a censura prévia. Trouxe, de certo modo, uma escolha entre direitos constitucionais, visto que a prerrogativa da prevalência inicial é o da liberdade em detrimento ao da proteção da dignidade humana. Com isso, tornou-se um ônus para a vítima ter que socorrer ao Poder Judiciário para lhe ver acolhida qualquer pretensão quanto à sua imagem, honra, vida privada, reputação, e não sendo certo o cumprimento da ordem judicial pelas plataformas – ainda quando há ato ilícito incontestável. 

Neste mesmo período, outros países seguiram um rumo diferente. Nos Estados Unidos, por exemplo, o provedor de aplicação não é responsabilizado pelo conteúdo de terceiros se, uma vez notificado, removê-lo imediatamente (Notice and Takedown). 

Dinâmica semelhante é adotada pela Comunidade Europeia, que isenta o provedor de qualquer responsabilidade por controle prévio de conteúdos publicados, desde que não seja devidamente notificado de eventual prática ilícita. Isso porque, na maioria dos países, há o entendimento de que, se há ciência, existe o dever de providência para mitigar danos que podem ser diminuídos se houver uma ação rápida de resposta por aquele que tem meios técnicos para tanto. 

Problemas da regulação por via judicial

Contudo, não há dúvidas de que a imposição da via judicial para solução do mérito no Brasil, por vezes, perpetua a prática ilícita, podendo gerar danos ainda maiores à sociedade, tendo em vista a facilidade de propagação do conteúdo infringente, a dinâmica viral decorrente da utilização de algoritmos pelas redes, além da demora na apreciação judicial. Mas pior que isso, pode gerar ganhos econômicos para aquele que está violando direito alheio e para o provedor de aplicação, hipótese em que ambos monetizam o sofrimento da vítima – o que fez então o modelo ficar totalmente distorcido. 

Neste contexto, ainda que os provedores de aplicação sejam livres para adotar suas próprias regras, através de contratos conhecidos como Termos de Uso e Políticas de Privacidade, na prática, os usuários se deparam com a ausência de padronização na moderação do conteúdo. Isso porque, mesmo que haja comprovação da infração (do ponto de vista legal e contratual), as plataformas não agem com cooperação compactuada a qual se espera para a coibição de práticas ilícitas no meio digital. Este cenário se torna ainda mais delicado na medida em que as mídias sociais têm sido cada vez mais utilizadas para a propagação de discursos de ódio, apologia à violência e disseminação de desinformação e, mais recentemente, ameaças colocando em risco crianças e adolescentes em idade escolar.

Prevenção de conteúdos flagrantemente ilícitos

Após os recentes casos de ataques em escolas e diante do radicalismo visto nas redes sociais, com práticas como discurso de ódio e relativização de violências, no chamado “efeito de contágio”, o Ministério da Justiça e Segurança Pública editou a Portaria n.º 351/2023 às pressas, buscando prevenir a disseminação de conteúdos flagrantemente ilícitos, prejudiciais ou danosos, determinando a Secretaria Nacional de Defesa do Consumidor (SENACON) como órgão responsável pela apuração e responsabilização das plataformas pelo eventual descumprimento do dever geral de segurança e de cuidado. 

Referido normativo traduz ato do Poder Executivo e não possui força de lei, o que tem gerado grandes discussões acerca de sua legalidade. Apesar do instrumento utilizado pelo Governo não ser o adequado, contudo, a Portaria cumpre o papel de conceder célere resposta à sociedade, especialmente em atenção à gravidade dos últimos acontecimentos e a relevância do tema. 

O assunto também tem sido pauta de discussões no âmbito do Poder Legislativo, considerando o Projeto de Lei n.º 2630/2020 (PL das Fake News) que tem como objetivo estabelecer as regras para regulação das plataformas digitais. O Poder Judiciário também levou o tema para debate em audiência pública convocada pelo Supremo Tribunal Federal (STF) para a discussão quanto à constitucionalidade do artigo 19 do Marco Civil da Internet. O dispositivo trata sobre a responsabilidade de provedores de aplicação por conteúdo gerado por terceiros e possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial, questões que são objeto dos Recursos Extraordinários 1037396 e 1057258 (Temas 533 e 987 da repercussão geral).

Portanto, não há dúvidas de que os provedores de aplicação devem adotar boas práticas para garantir a segurança de seus usuários, buscando um ponto de interseção com os princípios norteadores previstos na legislação, tais como a liberdade de expressão, o livre discurso na rede e inviabilidade de controle prévio ou censura, de forma a combater conteúdos lesivos à dignidade da pessoa humana de maneira sólida, facilitada e padronizada. 

Combate à violência e a desinformação

Ainda, os riscos decorrentes do atual cenário de apologia à violência presente na internet geram um contexto de maior gravidade e urgência, sendo necessária uma revisitação do modelo vigente para que existam obrigações quanto à adoção de mecanismos eficientes e imediatos de combate à violência e desinformação pelos provedores de aplicação, com previsão de responsabilidades significativas quanto à moderação do conteúdo. 

Dificilmente haverá a redação ideal para uma lei perfeita, razão pela qual a lei vigente deve ser aplicada por todos, inclusive pela Justiça, para reduzir o cenário de insegurança vivido atualmente pelos cidadãos digitais.

Fonte: Tech Compliance

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.