Peck Advogados

Deepfake de apresentadora do Jornal Nacional viraliza na internet e propaga informações falsas

No início do período eleitoral, foi divulgado um vídeo da apresentadora do Jornal Nacional, Renata Vasconcellos, supostamente informando sobre os dados de uma pesquisa eleitoral, como se fosse uma reportagem normal do telejornal. Contudo, apesar do vídeo ter boa similitude entre o cenário do jornal e a imagem e a voz da apresentadora, imediatamente, o vídeo foi identificado como deepfake, até mesmo pelo conteúdo da reportagem falsa.

Por conta da divulgação reiterada desta deepfake nas redes sociais e aplicativos de mensageria, o Jornal Nacional teve de ressaltar o ocorrido e criar página específica de consulta para que os telespectadores possam identificar os reais vídeos de pesquisa eleitoral que são transmitidos no noticiário. Com isso, um dos principais noticiários do país serve como sinal de alerta para estimular a preocupação técnica, judicial e legislativa sobre o tema.

Antes, fazer a edição de imagens, áudios e vídeos era algo complicado e o usuário precisava ter habilidades técnicas específicas para manusear esses arquivos. Hoje, o desenvolvimento das tecnologias de comunicação permite que o público comum tenha acesso a variadas técnicas de edição podendo até ser considerado que cortes, sobreposições, regulagem de tom, de cores e de sons não são tão difíceis de realizar e existem diversos aplicativos que permitem fazer isso a um click do celular.

Contudo, dentro do contexto da desinformação que acontece no mundo virtual, a facilidade de edição colabora para a propagação de notícias fraudulentas, e, uma vez que consiga alcançar alguma similaridade de realidade na edição, o conteúdo pode ser considerado deepfake, palavra que surge diante da junção de deep (deep learning/aprendizagem profunda) e fake (manipulação/mentira).

O deep learning é uma técnica de desenvolvimento de inteligência artificial que permite a análise de dados não categorizados, pois atua de maneira análoga a um neurônio humano, estabelecendo padrões mediante um banco de dados. A referida técnica vem sendo utilizada para reconhecimento de imagens e de áudio, de caracteres e para o reconhecimento facial, sendo que grandes companhias do setor tecnológico têm usufruído da ferramenta para elaboração de projetos de carros autônomos, óculos inteligentes e aprimoramento dos resultados de motores de busca.

O deep learning combinado com a manipulação, ao reconhecer padrões de condutas, por exemplo modos de comportamento, fala, tom de voz, alteração e dinâmica de expressões faciais e corporais, possibilita realizar sobreposições e combinações de áudios e imagens em um vídeo preexistente, a fim de manipulá-lo, tornando-o falso. Trata-se, portanto, de uma alteração realística, logo, diante de um deepfake.

Por ter esse caráter de realidade, seja na modificação de falas e de gestos de indivíduos, substituição de rostos, sincronização de movimentos sonoros e labiais, o deepfake impossibilita que cidadãos sem conhecimentos técnicos específicos sejam capazes de verificar a autenticidade dos vídeos produzidos, especialmente em um contexto no qual ainda há dificuldade em identificar a existência de notícias falsas em texto.

Um desafio prático para verificar a dificuldade de identificar uma deepfake: o site https://thispersondoesnotexist.com/ usa IA para criar diversos rostos humanos. A cada F5, um rosto novo. Após ver alguma das fotos, você conseguiu identificar algum traço que indicassem que esses rostos não eram realmente humanos?

Assim, considerando o difícil entendimento sobre o funcionamento das deepfake, e a velocidade de disseminação de informação na internet, são variadas as consequências e impactos do uso inadequado de imagem e voz dos cidadãos, sobretudo de pessoas públicas. Em caso de chefes de estado, lideranças políticas, CEOs e cargos de demasiada notoriedade, as implicações vão além da esfera privada, com a possibilidade dos rumores gerarem severos efeitos político-econômicos.

Nesse viés, ao que tange ao processo eleitoral, a deepfake não é um problema novo, ao contrário, é basicamente o centro da discussão sobre eleições e democracia nos últimos anos: a desinformação. Uma campanha desinformativa tem o intuito de prejudicar algo ou alguém, e a intenção de uma deepfake política não seria diferente.

O uso da deepfake para construir notícias falsas sobre candidatos ou até mesmo divulgar de forma inverídica fatos que não foram falados pelos candidatos é prejudicial para o exercício da democracia, pois, além de utilizar de meio fraudulento para criar artifício de enganação para os eleitores, caso seja bem-feita, ainda vai restar dúvidas acerca se o conteúdo é realmente falso.

Uma deepfake bem elaborada, que não seja uma sátira ou trata de um assunto muito absurdo, pode passar por realidade sendo muito difícil de identificar se determinado vídeo ou áudio foi produzido por um computador ou realmente foi realizado pelo candidato, o que torna a situação uma mera discussão de lados, como já aconteceu em outras oportunidades. O ambiente politizado e radical em determinados pleitos pode, ainda, ser mais um reforço para se acreditar em conteúdos criados e refutar a verdade fática.

Inclusive, a deepfake pode ser utilizada para além do ambiente político gerando fraude e manipulação da opinião, já que pode lançar dúvida entre o que é real e o que é inventado tornando ainda mais difícil o combate à desinformação das redes. Atualmente, a a deepfake vem sendo utilizada para atos moralmente reprováveis, como a pornografia e o crime de falsidade ideológica, mas, com os avanços tecnológicos a tendência é que essa prática se torne mais comum, por isso, é necessário se antecipar as possíveis soluções.

Assim como a desinformação, um caminho que se apresenta como primordial para tentar impedir as consequências negativas da deepfake é a legislação. Atualmente, o que existe no ordenamento jurídico para conter esse tipo de conduta é a proteção da imagem e da personalidade em caso de utilização indevida e abusiva da imagem capaz de gerar danos a seu titular.

Contudo, não existe uma legislação específica que trata sobre o assunto, apesar do Marco Civil e da Lei Geral de Proteção de Dados serem importantes marcos para a proteção online. Os arts. 9º e 9º-A da Resolução 23610/2019 do TSE, que regula a propaganda eleitoral nas eleições de 2022, prevê punição para a desinformação na propaganda eleitoral, então, se algum candidato utilizar a deepfake nesse sentido, até poderia ser incluído nessa previsão.

Mas, essa perspectiva é limitada somente aos candidatos, partidos, federação ou coligação, e não há, até o presente momento, qualquer caso prático de punição de deepfake pela Justiça Eleitoral. O que poderia ser feito já para prevenir maiores impactos das deepfakes nas próximas eleições, inclusive dentro do programa permanente de combate à desinformação, é fazer como a União Europeia no Code of Practice on Disinformation, que, na versão de 2022, estabelece a necessidade de os signatários terem maior atenção com o assunto.

Mas, ainda seria necessário pensar em uma legislação que pudesse englobar problemas que a deepfake também causa fora do período eleitoral, o que poderia ser feito até mesmo no âmbito do próprio PL 2630/2020, já que tem um escopo mais amplo de regulação.

Assim, é preciso acompanhar o tema com atenção para observar e filtrar medidas legislativas e técnicas adotadas por outros países que foram eficazes no combate do uso ilícito das deepfakes no processo eleitoral e na sociedade como um todo com o objetivo de evitar que os prejuízos advindos dessas condutas tenham influência nas eleições vindouras e em qualquer outra interação social.

Por Patricia Peck, Henrique Rocha, Jéssica Guedes e Jorge Pompeu, sócia-fundadora, sócio e integrantes da equipe de Contencioso, Gestão de Crise e Eleitoral do Peck Advogados, respectivamente.

Fonte: Exame

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.