Blog

  • Encontrado banco de dados com mais de 149 milhões de senhas expostas, incluindo contas de gmail, instagram e gov.br

    Encontrado banco de dados com mais de 149 milhões de senhas expostas, incluindo contas de gmail, instagram e gov.br

    Um novo alerta de segurança digital ganhou destaque em janeiro de 2026: 149 milhões de logins e senhas de serviços amplamente utilizados foram encontrados expostos em bases acessíveis na internet. A descoberta reacende o debate sobre proteção de dados, responsabilidade das plataformas e deveres legais de prevenção.

    O caso foi revelado por um pesquisador de segurança, que identificou conjuntos massivos de credenciais associados a e-mails, redes sociais e até serviços governamentais. Entre os serviços afetados estão contas vinculadas ao Gmail, ao Instagram e ao portal Gov.br, segundo reportagens da imprensa especializada.

    De acordo com as apurações, os dados não teriam sido obtidos por invasão direta às plataformas, mas sim por meio de malwares do tipo infostealer, capazes de capturar informações digitadas pelos usuários em dispositivos infectados. Isso muda o eixo da discussão jurídica: o foco deixa de ser apenas a falha do provedor e passa a incluir a segurança do usuário final.

    Do ponto de vista legal, o episódio dialoga diretamente com a Lei Geral de Proteção de Dados (LGPD). Ainda que o vazamento não decorra de ataque direto às empresas, há questionamentos sobre medidas de segurança, detecção de credenciais comprometidas e comunicação de incidentes.

    Para empresas e órgãos públicos, o impacto é imediato. Contas reutilizadas, acessos corporativos vinculados a e-mails pessoais e autenticações fracas ampliam riscos de fraude, sequestro de dados e responsabilidade civil. A gestão de risco digital deixa de ser técnica e passa a ser estratégica.

    Advogados que atuam em direito digital devem observar também o efeito probatório. Bases vazadas podem ser usadas em golpes, mas também em litígios, exigindo cautela quanto à origem ilícita das informações e à sua eventual utilização em processos.

    Para os usuários, a orientação prática envolve troca imediata de senhas, adoção de autenticação em dois fatores e uso de gerenciadores de senhas. Para organizações, políticas internas claras e treinamentos regulares são indispensáveis.

    Outro ponto relevante é o papel da comunicação. A forma como empresas reagem a incidentes — mesmo indiretos — pode mitigar danos reputacionais e reduzir exposição a sanções administrativas.

    O caso reforça uma tendência: vazamentos em larga escala não são exceção, mas parte do cenário digital contemporâneo. A prevenção jurídica precisa caminhar junto da prevenção técnica.

    Em síntese, o episódio dos 149 milhões de logins expostos é um lembrete claro de que segurança da informação é também compliance. Para advogados, o desafio é transformar esses alertas em orientação concreta, preventiva e juridicamente sólida para clientes e organizações.

  • Inteligência Artificial sem Limites? Os Riscos Legais da Criação de Conteúdos Falsos

    Inteligência Artificial sem Limites? Os Riscos Legais da Criação de Conteúdos Falsos

    O uso de inteligência artificial para criação de imagens e vídeos hiper-realistas trouxe ganhos tecnológicos relevantes, mas também abriu espaço para práticas altamente lesivas. Entre elas, destaca-se a utilização de fotos e vídeos de pessoas reais como base para a produção de conteúdos falsos, muitas vezes em contextos íntimos ou de cunho adulto, que nunca existiram.

    Esse tipo de conteúdo gera impactos profundos na vida das vítimas. A exposição indevida afeta diretamente a honra, a imagem e a dignidade da pessoa, configurando danos morais relevantes. Ainda que o material seja “apenas” uma simulação, o efeito social e psicológico é real e pode ser devastador.

    Do ponto de vista jurídico, a discussão não se limita à responsabilidade de quem cria ou divulga o conteúdo. As plataformas que oferecem ferramentas de inteligência artificial e permitem esse tipo de uso também entram no radar da responsabilização, especialmente quando deixam de agir após serem notificadas sobre abusos.

    A legislação brasileira já dispõe de fundamentos suficientes para impor limites a essas práticas. Caso fique demonstrado que uma plataforma é utilizada reiteradamente para a produção de conteúdos ilícitos e não adota medidas eficazes de contenção, o Judiciário pode determinar desde a suspensão até o bloqueio do serviço no Brasil.

    A situação se torna ainda mais grave quando a inteligência artificial é empregada para criar imagens ou vídeos que simulam crianças e adolescentes em situações constrangedoras ou proibidas. Mesmo que não envolvam pessoas reais identificáveis, essas práticas afrontam diretamente os princípios de proteção integral previstos no Estatuto da Criança e do Adolescente.

    Nesses casos, a discussão jurídica vai além da responsabilização posterior e alcança o dever de prevenção. A disponibilização de tecnologias sem controles mínimos, capazes de facilitar esse tipo de abuso, pode ser entendida como conduta negligente, com consequências legais relevantes para as empresas envolvidas.

    Diante desse cenário, o desafio não é barrar o avanço da inteligência artificial, mas estabelecer limites claros para seu uso. Para empresas de tecnologia e profissionais do Direito, investir em governança, compliance digital e mecanismos eficazes de resposta a denúncias deixou de ser uma opção e passou a ser uma necessidade jurídica.

  • Inteligência Artificial sem Limites? Os Riscos Legais da Criação de Conteúdos Falsos

    Inteligência Artificial sem Limites? Os Riscos Legais da Criação de Conteúdos Falsos

    O uso de inteligência artificial para criação de imagens e vídeos hiper-realistas trouxe ganhos tecnológicos relevantes, mas também abriu espaço para práticas altamente lesivas. Entre elas, destaca-se a utilização de fotos e vídeos de pessoas reais como base para a produção de conteúdos falsos, muitas vezes em contextos íntimos ou de cunho adulto, que nunca existiram.

    Esse tipo de conteúdo gera impactos profundos na vida das vítimas. A exposição indevida afeta diretamente a honra, a imagem e a dignidade da pessoa, configurando danos morais relevantes. Ainda que o material seja “apenas” uma simulação, o efeito social e psicológico é real e pode ser devastador.

    Do ponto de vista jurídico, a discussão não se limita à responsabilidade de quem cria ou divulga o conteúdo. As plataformas que oferecem ferramentas de inteligência artificial e permitem esse tipo de uso também entram no radar da responsabilização, especialmente quando deixam de agir após serem notificadas sobre abusos.

    A legislação brasileira já dispõe de fundamentos suficientes para impor limites a essas práticas. Caso fique demonstrado que uma plataforma é utilizada reiteradamente para a produção de conteúdos ilícitos e não adota medidas eficazes de contenção, o Judiciário pode determinar desde a suspensão até o bloqueio do serviço no Brasil.

    A situação se torna ainda mais grave quando a inteligência artificial é empregada para criar imagens ou vídeos que simulam crianças e adolescentes em situações constrangedoras ou proibidas. Mesmo que não envolvam pessoas reais identificáveis, essas práticas afrontam diretamente os princípios de proteção integral previstos no Estatuto da Criança e do Adolescente.

    Nesses casos, a discussão jurídica vai além da responsabilização posterior e alcança o dever de prevenção. A disponibilização de tecnologias sem controles mínimos, capazes de facilitar esse tipo de abuso, pode ser entendida como conduta negligente, com consequências legais relevantes para as empresas envolvidas.

    Diante desse cenário, o desafio não é barrar o avanço da inteligência artificial, mas estabelecer limites claros para seu uso. Para empresas de tecnologia e profissionais do Direito, investir em governança, compliance digital e mecanismos eficazes de resposta a denúncias deixou de ser uma opção e passou a ser uma necessidade jurídica.

  • Inteligência Artificial, Deepfakes e os Limites da Responsabilidade Jurídica no Brasil

    Inteligência Artificial, Deepfakes e os Limites da Responsabilidade Jurídica no Brasil

    O avanço da inteligência artificial tem ampliado significativamente a capacidade de criação de conteúdos digitais, inclusive imagens e vídeos extremamente realistas. No entanto, esse mesmo avanço também tem sido utilizado para produzir situações falsas envolvendo pessoas reais, muitas vezes em contextos íntimos ou de cunho adulto, o que gera impactos jurídicos relevantes.

    A criação desses conteúdos falsos pode causar sérios danos morais e à honra das vítimas, especialmente quando há utilização de fotos ou vídeos verdadeiros como base. Trata-se de uma violação direta aos direitos da personalidade, com potencial de gerar responsabilização civil para quem produz e divulga esse material.

    Um ponto central do debate jurídico está na atuação das plataformas digitais que oferecem essas ferramentas. Quando essas empresas permitem a produção desse tipo de conteúdo e, mesmo após advertidas, não adotam providências eficazes, podem ser responsabilizadas judicialmente no Brasil.

    A legislação brasileira já prevê mecanismos capazes de impor limites a esse tipo de prática. Em situações mais graves, a Justiça pode determinar medidas severas, como a suspensão ou até o bloqueio definitivo da plataforma, de forma preventiva ou após a constatação de reiteradas violações.

    O cenário se torna ainda mais sensível quando a inteligência artificial é utilizada para criar imagens ou vídeos simulando crianças e adolescentes em situações constrangedoras ou proibidas. Mesmo que não envolvam pessoas reais identificáveis, essas práticas afrontam diretamente o Estatuto da Criança e do Adolescente.

    Nesses casos, a proteção jurídica não se limita à repressão penal ou civil posterior, mas também à prevenção. A simples disponibilização de ferramentas que possibilitem esse tipo de uso já pode ser questionada, especialmente quando há falhas nos mecanismos de controle e moderação.

    Diante desse contexto, o debate não é sobre impedir o desenvolvimento da inteligência artificial, mas sobre estabelecer limites jurídicos claros. Para empresas de tecnologia e profissionais do Direito, torna-se essencial investir em governança, compliance digital e respostas rápidas a abusos, reduzindo riscos legais e protegendo direitos fundamentais.

  • Influenciadores devem ter habilitação para falar de temas sensíveis?

    Influenciadores devem ter habilitação para falar de temas sensíveis?

    A ascensão dos influenciadores digitais colocou leigos e especialistas no mesmo palco informativo. Em meio a dicas de saúde, investimentos e segurança, proliferam conteúdos que parecem didáticos, mas que às vezes embutem publicidade disfarçada, inferências arriscadas ou conselhos sem base técnica. Por isso, volta e meia reaparece a pergunta: é preciso exigir habilitação técnica e profissional para quem aborda temas sensíveis (como saúde, finanças, apostas, segurança digital, direito ou defensivos agrícolas) nas redes?

    Os defensores de uma exigência formal sustentam que credenciais mínimas (diploma, registro profissional, certificações reconhecidas) funcionariam como barreira contra charlatanismo e desinformação. Em áreas como saúde e investimentos, um conselho errado pode gerar dano imediato — de automedicação perigosa a golpes financeiros. A exigência também ajudaria a separar opinião de serviço técnico, especialmente quando há publicidade envolvida, reforçando o dever de rotulagem e responsabilidade.

    Críticos, porém, enxergam risco de censura indireta e barreiras de entrada a vozes independentes, sobretudo quando boas análises vêm de jornalistas, pesquisadores não credenciados em conselhos profissionais ou até de vítimas e ativistas que dominam o assunto pela experiência. A fronteira entre comentário e ato privativo de profissão é nebulosa: explicar o funcionamento de um tratamento médico é diferente de prescrevê-lo; falar de finanças pessoais não equivale a assessorar investimentos. Regras mal desenhadas poderiam calar o debate legítimo e favorecer apenas grandes marcas e especialistas com canais corporativos.

    Há um caminho intermediário, já explorado em outras jurisdições, que combina transparência, segurança e proporcionalidade. Em vez de silenciar, pode-se exigir selo de credenciais opcional, declaração de conflitos (publicidade e parcerias), rotulagem clara de conteúdo patrocinado e links para fontes verificáveis. Para temas de alto risco (saúde, investimentos, segurança pública), plataformas e anunciantes poderiam exigir disclaimers padronizados e restringir o impulsionamento pago a criadores que comprovem formação ou supervisão técnica.

    O Brasil já tem peças desse quebra-cabeça. O CDC coíbe publicidade enganosa e omissão de informação relevante; o CONAR disciplina anúncios e influenciadores; órgãos setoriais (como CVM e Anvisa) punem exercício ilegal e propaganda irregular; o Marco Civil e a LGPD estabelecem bases de responsabilidade e transparência. Em muitos casos, o problema não é falta de lei, mas aplicação fraca, rótulos confusos e incentivos algorítmicos que premiam o sensacionalismo.

    Outro ponto é a viabilidade prática. Exigir habilitação universal demandaria fiscalização constante e critérios claros sobre o que é “tema sensível” — e quem avalia isso, em que prazos, com qual recurso. Há ainda o desafio de criadores estrangeiros que falam para o público brasileiro e de conteúdos híbridos (opinião, humor, notícia). Sem clareza, o custo de conformidade e a insegurança jurídica podem recair sobre perfis pequenos, enquanto os maiores terceirizam responsabilidade.

    Para as plataformas, a régua pode ser mais objetiva: deveres de diligência (moderação contra fraude e práticas abusivas), rastreabilidade de anúncios, bibliotecas públicas de publicidade e relatórios de transparência por categoria de risco. Em paralelo, recomenda-se elevar o padrão de rotulagem (patrocinado, opinião, experiência pessoal, conteúdo técnico revisado), verificação etária em temas sensíveis e freios ao alcance pago quando faltarem credenciais.

    No fim, a pergunta não é se devemos “permitir” influenciadores, mas como responsabilizar quem promete mais do que pode entregar. Quando houver ato privativo (prescrever remédio, vender curso como “investimento garantido”, orientar apostas como renda fixa), a resposta já está na lei: sanção. Para o vasto miolo — opinião, curadoria, jornalismo explicativo — a solução tende a ser co-regulação: mais transparência, publicidade honesta, incentivos à qualidade e ganchos de responsabilidade civil quando houver dano.

    Conclusão: habilitação obrigatória e rígida para todo conteúdo sensível pode ser remédio forte demais, com efeitos colaterais na liberdade de expressão e na pluralidade informativa. Um modelo escalonado — que combine credenciais para impulsionamento pago em áreas de alto risco, disclaimers, rotulagem, auditoria publicitária e enforcement setorial — parece mais eficaz para reduzir danos sem sufocar o debate público.

  • Criminosos miram aposentados: crescem os golpes em empréstimos consignados

    Os casos de golpes envolvendo empréstimos consignados contra aposentados e pensionistas têm aumentado de forma alarmante nos últimos anos. O problema, que mistura fraude financeira, uso indevido de dados pessoais e falhas na proteção do consumidor, afeta diretamente uma população vulnerável, cuja renda é limitada e essencial para a própria subsistência.

    Na prática, muitos aposentados só descobrem que foram vítimas quando percebem descontos inesperados no benefício. Em diversos relatos, a vítima afirma nunca ter solicitado o empréstimo ou sequer autorizado qualquer contratação. Ainda assim, a dívida passa a existir, com parcelas abatidas automaticamente mês a mês.

    Os criminosos costumam agir com informações detalhadas da vítima, como nome completo, número do benefício e banco pagador. Isso indica possíveis vazamentos de dados ou falhas na cadeia de proteção dessas informações. Com esses dados em mãos, os golpistas se passam por correspondentes bancários ou funcionários de instituições financeiras.

    Entre as fraudes mais comuns está o chamado golpe da falsa portabilidade. Nele, o aposentado acredita estar apenas transferindo um empréstimo para obter juros menores, quando, na verdade, está sendo induzido a contratar uma nova operação. Muitas vezes, a comunicação é confusa, incompleta ou deliberadamente enganosa.

    O fato de o desconto ocorrer diretamente na folha de pagamento do INSS agrava ainda mais a situação. O impacto financeiro é imediato e pode comprometer despesas básicas como alimentação, medicamentos e moradia, colocando o idoso em situação de vulnerabilidade social.

    Do ponto de vista jurídico, o entendimento majoritário é de que contratos firmados sem consentimento válido são nulos. Além disso, quando há falha na prestação do serviço ou ausência de mecanismos eficazes de verificação, a instituição financeira pode ser responsabilizada, inclusive por danos morais.

    Apesar disso, a resolução do problema raramente é rápida. Muitos aposentados enfrentam longos períodos tentando cancelar contratos, suspender descontos e reaver valores. O desgaste emocional, somado à burocracia, acaba sendo parte invisível do prejuízo.

    Órgãos de defesa do consumidor têm emitido alertas frequentes sobre esse tipo de golpe, reforçando a importância da prevenção. Medidas como o bloqueio prévio para contratação de consignados e a conferência periódica do extrato do benefício podem reduzir riscos.

    Segundo Dr. Fernando Peres, advogado especialista em Crimes Cibernéticos, os golpes envolvendo empréstimos consignados contra aposentados revelam uma combinação perigosa entre engenharia social e falhas na proteção de dados. “Esses crimes dificilmente são aleatórios. O golpista já chega munido de informações sensíveis da vítima, o que indica vazamento de dados ou acesso indevido a bases que deveriam ser protegidas”, explica. Para ele, o uso desses dados confere aparência de legitimidade ao contato e reduz a capacidade de reação do aposentado.

    Peres também ressalta que a responsabilização não deve recair apenas sobre os criminosos. “Quando uma instituição financeira permite a contratação sem checagens eficazes de identidade ou consentimento, há indícios claros de falha na segurança do serviço”, afirma. Do ponto de vista jurídico, ele destaca que essas operações podem ser anuladas e gerar direito à indenização. “O aposentado não pode arcar com o risco de um sistema que não o protege adequadamente. A prevenção e a resposta rápida são essenciais para conter esse tipo de crime”, conclui.

    A orientação principal é desconfiar de contatos não solicitados, evitar enviar documentos por aplicativos de mensagem e jamais fornecer senhas ou códigos. Promessas de dinheiro fácil, liberação imediata ou redução garantida de juros costumam ser sinais claros de fraude.

    O crescimento desses golpes mostra que o problema vai além do indivíduo. Exige maior fiscalização, responsabilidade das instituições financeiras e políticas eficazes de proteção de dados. Para os aposentados, informação continua sendo a principal defesa contra um prejuízo que, muitas vezes, chega sem aviso.