PL das Fake News será votado em regime de urgência pela Câmara
A proposta quer estabelecer as regras para regulação das fake news nas plataformas digitais, que hoje é feita pelas próprias empresas. O texto deve criar […]
Dr. Cezar Augusto Najjarian [1]
Dr. Guilherme Oliveira da Silva [2]
Em 10/04/2026, foi proferida decisão que concedeu liminar suspendendo o imposto de importação de petróleo bruto com base em disposição de medida provisória que não existe[3]. Em meados de 2025, o Exmo. Min. Cristiano Zanin negou seguimento à Reclamação Constitucional que citava julgados inexistentes, atribuía conteúdo errado à Súmula Vinculante e, segundo o Ministro, tentava induzir o Supremo a erro[4]. Advogados substituem o ato solene de sustentação oral por gravação de voz[5], magistrados se utilizam de erros grosseiros[6] e precedentes inventados para proferir decisões[7]. Todos esses casos ocorreram em razão do mau uso de inteligência artificial (IA).
O cenário atual do uso da IA no processo contencioso representa grande risco, mas, ainda assim, o maior risco atual parece ser o de não utilizar essas tecnologias. O ganho de produtividade exponencial e a melhora na qualidade das pesquisas e redação é significativo e tem o condão de diferenciar advogados perante concorrentes e auxiliar juízes em eficiência e precisão.
O ponto central é que o uso de sistemas de IA generativa (IAGen) deve, necessariamente, ser acompanhado de revisão humana. A IA deve ser apoio, mas não substituta. A intervenção humana, como destaca Cláudio Luiz Bueno de Godoy, deve se dar na revisão e explicação de decisões automatizadas[8].
De acordo com o Conselho Nacional de Justiça, o Judiciário inicia 2026 com o menor estoque de processos pendentes em seis anos[9], e pesquisa mostra que 76% dos advogados usam IA para elaboração de peças processuais[10]. Com os evidentes benefícios existentes, é preciso realizar exercício de ponderação com os riscos envolvidos, especialmente quando há falta de instrução, governança e revisão humana.
Com isso, o presente artigo visa, sem qualquer intenção de exaurir a doutrina existente, explorar o uso da IA no processo contencioso nacional. Em primeiro, será analisado o avanço da IA no Judiciário brasileiro – tanto em relação ao uso quanto às regulamentações envolvidas no desenvolvimento dessas tecnologias. Após, serão explorados os dilemas envolvidos no seu uso na advocacia, apontando os benefícios e riscos com a utilização das tecnologias. Ao fim, serão indicadas medidas de governança basilares sobre o uso ético da IA.
Diversos Tribunais do Judiciário Brasileiro já estão utilizando tecnologias de IA, em especial de aplicações desenvolvidas e treinadas com bases internas, para o apoio na redação de decisões, pesquisas e análise de documentos.
No Superior Tribunal de Justiça, destaca-se o lançamento do STJ Logos, desenvolvida internamente e implementada em fevereiro de 2025. De acordo com a própria Corte Superior,
“A solução auxilia na análise de documentos e na elaboração de minutas, reduzindo tarefas repetitivas. Entre fevereiro e junho de 2025, milhares de documentos foram produzidos com apoio do sistema. Pesquisa interna indicou aumento de produtividade nos gabinetes que começaram a utilizar o STJ Logos de forma mais ampla.
A ferramenta opera em ambiente controlado, com salvaguardas voltadas ao uso ético e responsável da tecnologia. Mais de 600 servidores participaram de capacitações sobre aplicação prática e impactos da IA no Sistema de Justiça. Em parceria com a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), o tribunal promoveu oficina sobre inteligência artificial e Estado Democrático de Direito.”[11]
O Supremo Tribunal Federal também vem ampliando o uso de inteligência artificial em apoio à atividade jurisdicional[12]. Desde 2018 a Corte Suprema vem demonstrando pioneirismo, em especial com a criação da plataforma “Victor”, em especial para apoiar a triagem de recursos extraordinários e a identificação de processos vinculados a temas de repercussão geral. No final de 2024 foi lançada a ferramenta “MARIA”[13], que vem sendo responsável por maior agilidade no STF.
Além do STJ e STF, diversos outros tribunais utilizam soluções com uso de IA. Em 2022, o CNJ informava que 53 tribunais desenvolviam soluções com uso de IA, ante 32 órgãos no levantamento anterior. Já a pesquisa divulgada em 2024, referente ao mapeamento de 2023, apontou 140 projetos de IA identificados em 94 órgãos do Poder Judiciário e registrou aumento de 17% no número de tribunais com algum projeto de IA, chegando a 62 órgãos, contra 53 em 2022. Na pesquisa mais recente sobre 2024, o CNJ passou a registrar 178 iniciativas de IA, resultado da soma de 98 novos projetos com 80 projetos anteriores que permaneceram em produção[14].
Essa crescente de uso no Poder Judiciário por certo que revela desafios, inclusive no âmbito regulatório. O marco inicial sobre o uso da IA continua sendo a Resolução CNJ nº 332/2020, que estabeleceu diretrizes de ética, transparência e governança para a produção e o uso de inteligência artificial no Judiciário. Posteriormente, o CNJ ampliou esse regime com a Resolução CNJ nº 615/2025, que passou a disciplinar de forma mais detalhada o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA no âmbito judicial.
A nova resolução expressamente vincula a adoção de ferramentas de IA à proteção de direitos fundamentais, à auditabilidade, à contestabilidade, à explicabilidade, à segurança da informação e à supervisão humana efetiva[15]. Ela também veda soluções que não permitam revisão humana e determina que os projetos sejam informados ao CNJ e cadastrados no Sinapses, que deve manter um catálogo dos sistemas de IA usados no Judiciário, conforme apontado pelo art. 10, I, da Resolução:
“Art. 10. São vedados ao Poder Judiciário, por acarretarem risco excessivo à segurança da informação, aos direitos fundamentais dos cidadãos ou à independência dos magistrados, o desenvolvimento e a utilização de soluções: I – que não possibilitem a revisão humana dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão”
Essa regulamentação revela que, no Brasil, a discussão institucional não está centrada em saber se a IA pode ser utilizada pelos tribunais, mas como ela deve ser utilizada. O mesmo deve ser observado para os advogados atuantes no processo contencioso, em especial pelos manifestos benefícios dos usos dessas tecnologias.
Os benefícios da inteligência artificial para a advocacia contenciosa são igualmente reais e mensuráveis, aliados à grande utilização dessas ferramentas por diversos advogados e de múltiplas áreas. O Relatório sobre o Impacto da IA no Direito[16], documenta uma transformação em custo que já não admite reversão.
O principal uso reportado é a elaboração de peças processuais, onde 76% dos advogados que utilizam inteligência artificial a empregam para minutar diversas peças jurídicas, incluindo iniciais, contestações, recursos e réplicas.
Na sequência, 59% a utilizam para pesquisa jurisprudencial, automatizando a busca por precedentes, teses consolidadas e decisões relevantes, e 58% para redação de pareceres e memorandos. Por fim, em quarto lugar, com 56%, utilizam-na na análise e revisão de contratos.
Ademais, o relatório apresenta resultados expressivos nesses usos de IA, onde 91% dos profissionais relatam melhora na qualidade técnica do trabalho final e 84% afirmam que suas expectativas foram atendidas ou superadas. O ganho de tempo é o benefício mais citado, pelo qual 70% esperam aceleração significativa na pesquisa e análise jurídica.
Para além da produtividade individual, a IA permite uma melhor gestão de demandas repetitivas (problema endêmico na advocacia de contencioso de massa). A capacidade de processar grandes volumes de documentos, identificar padrões argumentativos e gerar minutas padronizadas com adaptações automáticas libera o advogado para o que não pode ser delegado à máquina.
Outrossim, a democratização do acesso é outro efeito positivo. A OAB-SP, por meio de parceria com o JusBrasil, disponibilizou acesso à plataforma de IA em quase 600 salas de advogados no Estado de São Paulo[17], beneficiando profissionais que, de outra forma, não teriam condições de acessar essas ferramentas.
Nesta perspectiva, como afirmou Leonardo Sica, presidente da OAB/SP: “A Inteligência Artificial já faz parte da rotina da advocacia, como mostram os dados do relatório. Hoje, o debate já não é mais sobre se ela será utilizada, mas sobre como integrá-la de forma estratégica ao trabalho”[18].
O referido caso da liminar fundamentada em norma inexistente ilustra, com precisão cirúrgica, o risco de alucinação no uso da Inteligência Artificial no judiciário. Sistemas de IA generativa, como ChatGPT, Gemini e ferramentas congêneres, em regra, não realizam pesquisa jurídica direta em bases normativas oficiais, mas produzem respostas a partir de padrões estatísticos de linguagem, gerando textos probabilisticamente plausíveis, mas nem sempre juridicamente corretos.
O risco das alucinações não é marginal. No Brasil, casos de advogados que citaram jurisprudência inexistente produzida por IA já foram registrados em diversos tribunais. Estes episódios demonstram que o uso de IA, especialmente a IA generativa, pode resultar na fabricação de precedentes judiciais[19], citações doutrinárias[20], números de processos e até ementas de acórdãos com frequência significativa.
Para mitigar esse risco de alucinação, surge a necessidade de implementar arquiteturas como o RAG (Retrieval-Augmented Generation)[21]. Diferente dos modelos puramente generativos, o RAG força a IA a consultar bases de dados jurídicas confiáveis e atualizadas antes de formular uma resposta, vinculando a saída textual a fontes normativas e jurisprudenciais reais, reduzindo drasticamente a ‘criatividade’ estatística que leva à invenção de precedentes.
Noutro ponto, a falta de transparência e explicabilidade constitui o segundo grande risco. Quando uma decisão judicial é auxiliada por IA, por exemplo, as partes têm o direito de saber se a fundamentação reflete análise humana genuína ou um output automatizado. A Resolução CNJ nº 615/2025 impõe essa transparência, mas a efetividade depende de mecanismos concretos de rastreabilidade que devem ser implementados pelos tribunais.
O terceiro risco estrutural é o reforço de vieses. Modelos de IA são treinados com dados históricos que refletem as desigualdades pré-existentes. Desta forma, se a jurisprudência predominante apresenta vieses (como o tratamento desigual envolvendo cor, gênero ou condição socioeconômica), a IA tenderá não somente a reproduzi-los, mas a amplificá-los, conferindo-lhes aparência de neutralidade técnica.
O caso mais emblemático é o do sistema COMPAS[22], utilizado na justiça criminal norte-americana para calcular riscos de reincidência. Após investigação da ProPublica (2016)[23], demonstrou-se que réus negros tinham 45% mais chances de receber pontuação de risco alta do que brancos em situação equivalente.
Por fim, há o risco de enfraquecimento da análise humana e da fundamentação. Diante da facilidade com que a IA produz textos longos, formalmente corretos e persuasivos pode induzir uma cultura de delegação acrítica, na qual o profissional se limita a revisar superficialmente o output da máquina.
Conforme demonstrado no referido relatório da OAB, revela-se que 76% dos advogados que utilizam IAGen com frequência a empregam para criar documentos e peças jurídicas, de modo que, quando a supervisão humana se reduz a uma leitura dinâmica antes da assinatura, o sistema judiciário passa a funcionar, na prática, com fundamentações geradas por máquinas.
O caso da MP fantasma é precisamente isso, visto que um texto normativo que não existe foi incorporado a uma decisão judicial com impacto bilionário. Independentemente da fabricação ter sido intencional ou produto de alucinação de IA, o fato de que o texto não foi conferido contra a fonte primária antes de integrar a fundamentação da liminar revela uma falha sistêmica de verificação.
Diante destes benefícios e riscos, a construção de um marco de governança adequado para o uso de IA no processo contencioso é tarefa que envolve múltiplas dimensões, como regulatória, institucional, profissional e ética.
No plano regulatório, a Resolução CNJ nº 615/2025[24] representa avanço significativo, ao estabelecer que todo sistema de IA utilizado no Judiciário deve ser cadastrado na Plataforma Sinapses[25], classificado por nível de risco e submetido a auditorias.
A supervisão humana é obrigatória em todas as etapas, e a resolução impõe a oferta de “capacitação contínua para magistrados e servidores sobre riscos da automação, vieses algorítmicos e análise crítica dos resultados gerados por IA” (art. 3º, VIII).
No âmbito profissional, a Recomendação nº 001/2024 do Conselho Federal da OAB[26], vincula o uso de IAGen ao Código de Ética e Disciplina e ao Estatuto da Advocacia, exigindo supervisão humana, preservação do sigilo profissional e comunicação transparente ao cliente.
Para que a supervisão humana seja considerada “efetiva”, como exige o artigo 3º, VII da Resolução CNJ nº 615/2025, ela não pode se limitar a uma revisão gramatical. É indispensável o estabelecimento de um fluxo de validação obrigatória de fontes primárias, onde cada julgado ou artigo de lei citado pela IA deve ser conferido manualmente nos repositórios oficiais dos tribunais, evitando que o profissional se torne um mero chancelador de erros automatizados.
No plano legislativo, o PL 2.338/2023, já aprovado no Senado, tramita na Câmara dos Deputados e propõe regulamentação abrangente acerca do desenvolvimento, fomento e o uso de IA, incluindo classificação de sistemas por risco, direitos dos afetados, obrigações de transparência e responsabilidade civil.
Ademais, a estrutura do PL apresenta avanços relevantes, como a categorização dos sistemas de IA em níveis de risco, quais sejam: excessivo (Art. 13), em relação ao qual são vedados o desenvolvimento, a implementação e o uso, e alto (Art. 14), cujos sistemas estão sujeitos a obrigações reforçadas de governança.
No que tange a responsabilidade civil, de modo geral o projeto preserva os regimes já existentes, mas introduz a inversão do ônus da prova quando a vítima for hipossuficiente ou quando as características do sistema de IA tornarem excessivamente onerosa para a vítima (arts. 35 a 39).
Acerca da governança institucional, o projeto cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SAI), com sanções administrativas que podem alcançar R$ 50 milhões por infração ou 2% do faturamento bruto do grupo econômico (Art. 50, II), além de suspensão parcial ou total do sistema e a proibição de tratamento de determinadas bases de dados.
Não obstante, o projeto suscita críticas e preocupações relevantes. Um primeiro ponto diz respeito à escolha da ANPD como autoridade competente que coordenará o SAI, visto que esta, criada originalmente para fiscalizar o cumprimento da LGPD, já enfrenta limitações orçamentárias e de pessoal para suas atribuições atuais. Desta forma, atribuir-lhe a coordenação de todo o ecossistema regulatório de IA pode sobrecarregar a Autarquia e comprometer a efetividade da supervisão.
Essa estrutura de classificação de riscos adotada pelo legislador brasileiro guarda estreita simetria com o AI Act da União Europeia[27]. Ambas as normas buscam um equilíbrio entre o fomento à inovação e a vedação absoluta de sistemas que apresentem riscos inaceitáveis aos direitos fundamentais, consolidando um padrão global de regulação centrada no risco e na proteção da dignidade da pessoa humana.
Nesta perspectiva, a convergência entre essas normas setoriais e a futura legislação será essencial para a construção de um ecossistema normativo coerente.
A incorporação da inteligência artificial ao sistema de justiça brasileiro representa um dos desdobramentos mais relevantes do processo de digitalização do Poder Judiciário e da própria advocacia contemporânea. Longe de se tratar de fenômeno meramente prospectivo, o uso dessas tecnologias já integra a prática forense, a gestão judicial e a tramitação processual, com impacto concreto sobre a organização do trabalho, a triagem de demandas, a elaboração de minutas, a recuperação de precedentes e a racionalização de atividades repetitivas.
Esses benefícios, contudo, não eliminam riscos jurídicos, éticos e institucionais relevantes. A experiência recente demonstra que o uso inadequado da IA pode comprometer a confiabilidade da atividade jurisdicional e da atuação advocatícia, especialmente quando há reprodução acrítica de respostas automatizadas, utilização de precedentes inexistentes, invenção de fundamentos normativos, opacidade dos sistemas empregados e enfraquecimento do dever de revisão humana.
Em matéria contenciosa, tais problemas assumem gravidade particular, porque a argumentação jurídica depende de precisão técnica, fidelidade às fontes e responsabilidade argumentativa, não sendo compatível com conteúdos meramente verossímeis ou bem construídos de forma aparente. A aparência de sofisticação textual produzida por ferramentas generativas não substitui o dever de verificação jurídica, nem afasta a necessidade de controle profissional sobre o conteúdo apresentado em juízo.
Por essa razão, a discussão contemporânea não deve ser formulada em termos de aceitação ou rejeição absoluta da inteligência artificial no direito, mas sim em torno das condições de seu uso legítimo e responsável. O ponto central não está em proibir a tecnologia, mas em estabelecer parâmetros normativos e institucionais capazes de compatibilizar inovação com segurança jurídica.
Diante deste cenário, a formação jurídica contemporânea deve transcender o ensino técnico tradicional, incorporando competências de literacia digital e curadoria de IA. O profissional do futuro não será apenas aquele que conhece a lei, mas aquele capaz de auditar algoritmos, identificar vieses e garantir que a tecnologia permaneça como um instrumento de auxílio, sem jamais substituir o juízo de valor e a responsabilidade ética inerentes ao exercício do Direito.
Em síntese, a inteligência artificial oferece ganhos reais ao sistema de justiça, tanto do lado da advocacia quanto no próprio Judiciário, mas apenas quando utilizada dentro de um modelo de governança que preserve a centralidade da pessoa humana, a responsabilidade dos agentes humanos e a integridade do processo. Seu valor está em ampliar capacidades, mas não em transferir a ela o núcleo da atividade jurídica, essencialmente humana.
[1] Advogado. Mestrando em Direito Empresarial na PUC-SP. Graduado em Direito pela PUC-SP e em Análise e Desenvolvimento de Sistemas pelo IFSP. Coautor de livros e autor de artigos sobre direito empresarial, direito digital, inteligência artificial e propriedade intelectual.
[2] Advogado com atuação em Direito Digital, contencioso cível e penal estratégico, proteção de dados pessoais e combate a fraudes e golpes digitais. Pós-graduando em Processo Civil na PUC-RS. Graduado em Direito pela Anhanguera Educacional.
[3] G1. Justiça suspendeu imposto de importação a petroleiras com base em trecho de MP que não existe, diz procuradoria. G1 Economia, 10 abr. 2026. Disponível em: https://g1.globo.com/economia/noticia/2026/04/10/justica-suspendeu-imposto-de-importacao-a-petroleiras-com-base-em-trecho-de-mp-que-nao-existe-diz-procuradoria.ghtml. Acesso em: 15 abr. 2026.
[4] STF, Reclamação nº 78890/BA, Min. Cristiano Zanin, j. 12/05/2025.
[5] Juiz repreende advogado que substituiu sustentação por gravação de IA. Migalhas, 2025. Disponível em: https://www.migalhas.com.br/quentes/430527/juiz-repreende-advogado-que-substituiu-sustentacao-por-gravacao-de-ia. Acesso em: 15/04/2025.
[6] SILVÉRIO, Karina. Erros em sentença do Piauí levantam suspeita de uso de inteligência artificial em decisão sobre empréstimo consignado. Juristas, 2026. Disponível em: https://juristas.com.br/noticias/erros-em-sentenca-do-piaui-levantam-suspeita-de-uso-de-inteligencia-artificial-em-decisao-sobre-emprestimo-consignado/. Acesso em: 24/03/2026.
[7] De 80 para 969 sentenças: juiz é investigado pelo TJ/MA por uso de IA. Migalhas, 2025. Disponível em: https://www.migalhas.com.br/quentes/429513/de-80-para-969-sentencas-juiz-e-investigado-pelo-tj-ma-por-uso-de-ia. Acesso em: 15/04/2026.
[8] Godoy, Claudio Luiz Bueno. A intervenção humana no procedimento de explicação e de revisão de decisões automatizadas. In: Inteligência artificial: visões interdisciplinares e internacionais, Coord. Chinellato, S. São Paulo: Almedina, 2023.
[9] Judiciário inicia 2026 com o menor estoque de processos pendentes em seis anos. CNJ, 2026. Disponível em: https://www.cnj.jus.br/judiciario-inicia-2026-com-o-menor-estoque-de-processos-pendentes-em-seis-anos/. Acesso em: 15/04/2025.
[10] Mazzoco, Heitor. Pesquisa mostra que 76% dos advogados usam IA para elaboração de peças processuais. 2026, Veja. Disponível em: https://veja.abril.com.br/brasil/pesquisa-mostra-que-76-dos-advogados-usam-ia-para-elaboracao-de-pecas-processuais/. Acesso em: 15/04/2026.
[11] Relatório traz balanço de ações do STJ com foco em precedentes, tecnologia e projeção internacional. STJ, 2026. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/2026/24022026-Relatorio-traz-balanco-de-acoes-do-STJ-com-foco-em-precedentes–tecnologia-e-projecao-internacional.aspx. Acesso em: 15/04/2026.
[12] STF amplia uso de inteligência artificial em apoio à atividade jurisdicional. STF, 2025. Disponível em: https://noticias.stf.jus.br/postsnoticias/stf-amplia-uso-de-inteligencia-artificial-em-apoio-a-atividade-jurisdicional/. Acesso em: 15/04/2026.
[13] Disponível em: https://noticias.stf.jus.br/postsnoticias/stf-lanca-maria-ferramenta-de-inteligencia-artificial-que-dara-mais-agilidade-aos-servicos-do-tribunal/.
[14] Disponível em: https://www.cnj.jus.br/wp-content/uploads/2025/09/relatorio-ia-2024-resumo-executivo-set2025.pdf. Acesso em: 15/04/2026.
[15] Art. 3º O desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA pelos tribunais têm como princípios: VII – a supervisão humana efetiva, periódica e adequada no ciclo de vida da inteligência artificial, considerando o grau de risco envolvido, com possibilidade de ajuste dessa supervisão conforme o nível de automação e impacto da solução utilizada.
[16] Relatório Impacto da IA Generativa no Direito: panorama sobre adoção, percepções e resultados. Edição 2026. Disponível em: https://docsend.com/view/s2cqwb9j38tvi867. Acesso em: 11/04/2026.
[17] Disponível em: https://www.oabsp.org.br/jornaldaadvocacia/26-03-26-1127-tres-em-cada-quatro-advogados-usam-inteligencia-artificial-no-trabalho. Acesso em: 11/04/2026.
[18] Impacto da IA Generativa no Direito: panorama sobre adoção, percepções e resultados. Edição 2026, p. 11.
[19] Disponível em: https://www.tjsc.jus.br/web/imprensa/-/tjsc-multa-autor-de-recurso-por-jurisprudencia-falsa-gerada-por-ia. Acesso em: 11/04/2026.
[20]Disponível em: https://portal.trt12.jus.br/noticias/autora-de-acao-e-multada-apos-advogada-inventar-jurisprudencia-e-desembargador. Acesso em: 11/04/2026.
[21] LEWIS, Patrick et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. In: Advances in Neural Information Processing Systems (NeurIPS), 2020. Disponível em: https://arxiv.org/abs/2005.11401
[22] Correctional Offender Management Profiling for Alternative Sanctions.
[23] Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 11/04/2026
[24] Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em: 13/04/2026.
[25] O sistema SINAPSES é uma plataforma para desenvolvimento e disponibilização em larga escala de modelos de inteligência artificial, também comumente conhecido como “Fábrica de Modelos de IA”.
[26] Disponível em: https://diario.oab.org.br/pages/materia/842347. Acesso em: 13/04/2026.
[27] Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho
A proposta quer estabelecer as regras para regulação das fake news nas plataformas digitais, que hoje é feita pelas próprias empresas. O texto deve criar […]
Quais são as perspectivas das normas nacionais comparadas do cenário europeu. É permitido aos partidos políticos registrados o tratamento de dados pessoais sensíveis referentes à […]
Encontra-se aberta a Consulta Pública do “Guia de Uso Ético da Inteligência Artificial para o Usuário Brasileiro”, iniciativa do Ministério da Justiça e Segurança Pública (MJSP), […]
Rua Henrique Schaumann, nº 270, 4º andar
Edifício Pinheiros Corporate,
São Paulo – SP | CEP: 05413-909
(11) 2189-0444