Visualização normal

Antes de ontemStream principal

Por que o ransomware agora está atrás de seus dados — e como proteger seu armazenamento doméstico | Blog oficial da Kaspersky

10 de Abril de 2026, 09:00

Quando se trata de backup, a maioria das pessoas diz a si mesma: “Amanhã eu vejo isso”. Mas mesmo se você for um dos responsáveis que faz backup regularmente de seus documentos, arquivos de fotos e todo o sistema operacional, você ainda está em risco. Por quê? Porque o ransomware aprendeu a atacar especificamente os backups de usuários comuns.

Por que os usuários domésticos estão na mira

Em um passado não muito distante, o ransomware era um problema principalmente das grandes empresas. Os invasores se concentraram em servidores corporativos e backups corporativos porque o congelamento do processo de produção de uma grande empresa ou o roubo de todas as suas informações e bancos de dados de clientes geralmente significava um pagamento maciço. Vimos muitos desses casos nos últimos anos. No entanto, o mercado de “pequenos” tornou-se igualmente tentador para os cibercriminosos — e aqui está o porquê.

Para começar, os ataques são automatizados. O ransomware moderno não precisa de um humano para operá-lo manualmente. Esses programas verificam a Internet em busca de dispositivos vulneráveis e, ao encontrar um, criptografam tudo indiscriminadamente sem que o hacker se envolva. Isso significa que um único invasor pode atingir sem esforço milhares de dispositivos domésticos.

Em segundo lugar, devido a esse amplo alcance, as exigências de resgate tornaram-se mais “acessíveis”. Os usuários regulares não são achacados por milhões, mas “apenas” algumas centenas ou milhares de dólares. Muitas pessoas estão dispostas a pagar esse valor sem envolver a polícia – especialmente quando arquivos familiares, fotos, registros médicos, documentos bancários e outros arquivos pessoais estão na linha, sem outras cópias existentes. E quando você multiplica esses pagamentos menores por milhares de vítimas, os hackers terminam ganhando somas muito boas.

E, finalmente, os dispositivos domésticos geralmente são alvos fáceis. Embora as redes corporativas sejam muito bem protegidas, o roteador doméstico médio provavelmente é executado nas configurações de fábrica com “admin” como a senha. Muitas pessoas deixam seu armazenamento conectado à rede (NAS) aberto para a Internet com proteção zero. É como uma fruta em um galho muito baixo.

Como os backups pessoais são atacados

Uma unidade NAS doméstica — geralmente chamada de nuvem pessoal — é essencialmente um minicomputador que executa um sistema operacional especializado baseado em Linux ou FreeBSD. Ele abriga um ou mais discos rígidos de grande capacidade, geralmente combinados em uma matriz. O armazenamento se conecta a um roteador doméstico, tornando os arquivos acessíveis a partir de qualquer dispositivo na rede doméstica — ou até remotamente pela Internet, se você o tiver configurado dessa forma. Muitas pessoas compram um NAS especificamente para centralizar os backups de sua família e simplificar o acesso para os membros da família imaginando que esse é o melhor refúgio seguro para seus arquivos digitais.

A ironia é que esses mesmos hubs de armazenamento se tornaram o principal alvo das gangues de ransomware. Os hackers podem invadir com relativa facilidade explorando vulnerabilidades conhecidas ou simplesmente forçando uma senha fraca. Nos últimos cinco anos, houve vários grandes ataques de ransomware visando especificamente unidades NAS domésticas fabricadas pela QNAP, Synology e ASUSTOR.

Atacar dispositivos de NAS não é a única maneira de os hackers acessarem seus arquivos. O segundo método baseia-se na engenharia social: basicamente, enganar as vítimas para que elas mesmas lancem malware. Vejamos o enorme hype da IA de 2025, por exemplo. Os golpistas configurariam sites maliciosos distribuindo instaladores falsos para ChatGPT, Invideo AI e outras ferramentas da moda. A ideia seria atrair as pessoas com promessas de assinaturas premium gratuitas, mas, na realidade, os usuários acabavam baixando e executando ransomware.

O que o ransomware procura quando consegue entrar no sistema

Depois que o malware se infiltra em seu sistema, ele começa a inspecionar seu ambiente e neutralizar qualquer coisa que possa ajudar você a recuperar seus dados sem pagar nada.

  • Ele limpa as cópias de sombra do Windows. O Serviço de Cópias de Sombra de Volume é um recurso interno do Windows para recuperação rápida de arquivos. A exclusão desses dados torna impossível simplesmente reverter para uma versão anterior de um arquivo.
  • Ele verifica as unidades conectadas. Se você deixar um disco rígido externo permanentemente conectado ao computador, o ransomware o detectará e o criptografará como qualquer outro arquivo.
  • Ele procura pastas de rede. Se sua nuvem doméstica estiver mapeada como uma unidade de rede, o malware seguirá esse caminho para atacá-la também.
  • Ele verifica os clientes de sincronização na nuvem. Serviços como Dropbox, Google Drive ou iCloud para Windows mantêm pastas de sincronização locais em seu computador. O ransomware criptografa os arquivos nessas pastas e, em seguida, o serviço de nuvem carrega “amigavelmente” as versões criptografadas para a nuvem.

A regra de ouro dos backups

A regra 3-2-1 clássica para backups é assim:

  • Três cópias de seus dados: o original mais dois backups
  • Dois tipos de mídia diferentes: por exemplo, seu computador e uma unidade externa
  • Uma cópia fora do local: na nuvem ou em outro lugar, como na casa de um parente

No entanto, essa regra é anterior à era do ransomware. Hoje, precisamos atualizá-la com uma condição vital: a outra cópia deve estar completamente isolada da Internet e do computador no momento do ataque.

A nova regra é 3-2-1-1. Apesar de ser um pouco mais trabalhosa, é muito mais segura. Segui-la é simples: obtenha um disco rígido externo que você conecta uma vez por semana, faça backup de seus dados e, em seguida, desconecte-o.

O que você realmente precisa para fazer backup

  • Fotos e vídeos. Fotos de casamento, os primeiros passos de um bebê, arquivos da família – essas são as memórias pelas quais as pessoas pagarão para recuperar.
  • Digitalizações ou fotos digitais de documentos essenciais para cada membro da família — desde passaportes a registros médicos, incluindo arquivos antigos.
  • Dados de autenticação de dois fatores. Se o aplicativo autenticador estiver apenas no telefone e você o perder, também poderá perder o acesso a todas as suas contas protegidas. Muitos aplicativos permitem que você faça backup de seus dados de autenticação.
  • Se você usa um gerenciador de senhas, certifique-se de que ele esteja sincronizando com uma nuvem segura ou tenha uma função de exportação.
  • Os aplicativos de mensagens com ênfase em privacidade nem sempre armazenam seu histórico na nuvem. Correspondência comercial, contratos importantes e contatos poderão desaparecer se não houver backup.

O que fazer se seus dados já estiverem criptografados

Não entre em pânico. Confira nossa página Descriptografadores de Ransomware Gratuitos. Reunimos uma biblioteca de ferramentas de descriptografia que podem ajudar você a recuperar seus dados sem precisar pagar resgate.

Como proteger seus backups

  • Não deixe sua unidade de backup externa conectada o tempo todo. Conecte-a, copie seus arquivos e desconecte-a imediatamente.
  • Configure backups automatizados na nuvem, mas certifique-se de que seu provedor de nuvem mantenha um histórico de versões por pelo menos 30 dias. Se seu plano atual não oferecer isso, é hora de atualizar ou trocar de provedor.
  • Atenha-se à regra 3-2-1-1: arquivos originais em seu computador, além de uma unidade externa que você conecta apenas periodicamente, além de armazenamento na nuvem. São três cópias, dois tipos de mídia, uma cópia offline e outra em um local diferente.
  • Corte o acesso via Internet ao armazenamento de rede. Se você tiver uma unidade de rede doméstica, certifique-se de que ela esteja inacessível a partir da Internet sem uma senha — e que a senha não seja “admin”. Desative todos os recursos de acesso remoto que você realmente não usa e verifique se o firmware está atualizado.
  • Na verdade, mantenha tudo atualizado. A maioria dos ataques explora vulnerabilidades conhecidas que foram corrigidas há muito tempo. Ativar as atualizações automáticas para seu roteador, NAS e computador leva apenas alguns minutos de configuração, mas efetivamente fecha a porta em centenas de falhas de segurança conhecidas.
  • Evite as versões “gratuitas” de software pago. Instaladores falsos de software pirata ou cheats de jogos são alguns dos principais canais de entrega de ransomware. Aliás, o Kaspersky Premium detecta essas ameaças e as bloqueia antes mesmo de serem iniciadas.
  • Certifique-se de ativar o recurso Inspetor do Sistema em nossos pacotes de segurança para Windows. Esse recurso registra todos os eventos do sistema operacional para ajudar a rastrear ameaças como ransomware e bloqueá-las ou reverter qualquer dano que elas já possam ter causado.
  • Faça backup do aplicativo autenticador. A ação mais fácil é migrar seus tokens de autenticação para o Kaspersky Password Manager. Ele os mantém criptografados com segurança na nuvem junto com suas senhas e documentos confidenciais enquanto os sincroniza em todos os seus dispositivos. Dessa forma, se seu telefone for roubado ou perdido, você não será impedido de usar suas contas e acessar dados vitais.
  • Teste seus backups. A cada poucos meses, tente restaurar um arquivo aleatório do seu backup. Você ficaria surpreso com a frequência com que um backup aparentemente bem-sucedido se mostra corrompido ou com falhas. É melhor detectar essas falhas agora enquanto você ainda tem os originais para corrigir o problema.

Quando as alucinações da IA se tornam fatais: como manter os pés no chão | Blog oficial da Kaspersky

31 de Março de 2026, 09:15

Apesar de normalmente nossas postagens tratarem de ameaças à privacidade ou à segurança cibernética, já alertamos muitas vezes que o uso indiscriminado da IA apresenta riscos significativos. Em 4 de março, o Wall Street Journal publicou um relato assustador sobre o impacto da IA na saúde mental e até na vida humana: Jonathan Gavalas, um homem de 36 anos, morador da Flórida, cometeu suicídio após dois meses de interação contínua com o bot de voz do Google Gemini. Com base nas 2.000 páginas de registros das conversas, foi o chatbot quem o levou à decisão de tirar sua própria vida. Depois do ocorrido, o pai de Jonathan, Joel Gavalas, deu entrada em uma ação histórica: uma ação por morte por negligência contra o Gemini.

Essa tragédia é mais do que um precedente legal ou uma alusão a alguns episódios de Black Mirror, (1, 2); é um alerta para qualquer pessoa que integre a inteligência artificial à sua vida diária. Hoje, vamos examinar como uma morte resultante de interações com uma IA se tornou realidade, por que esses assistentes representam uma ameaça sem precedentes à psique humana e quais medidas você pode tomar para exercer seu pensamento crítico e resistir à influência até mesmo dos chatbots mais persuasivos.

O perigo do diálogo persuasivo

Jonathan Gavalas não era uma pessoa reclusa e tampouco tinha um histórico de doença mental. Ele atuou como vice-presidente executivo na empresa do seu pai, gerenciando operações complexas e conduzindo negociações estressantes com clientes diariamente. Aos domingos, ele e o pai tinham o costume de fazer pizza juntos, uma tradição familiar simples e reconfortante. No entanto, Jonathan passou por uma provação dolorosa após o divórcio.

Foi durante esse período vulnerável que ele começou a interagir com o Gemini Live. Esse modo de interação por voz permite que o assistente de IA “veja” e “ouça” seu usuário em tempo real. Jonathan pediu conselhos sobre como lidar com o divórcio e passou a seguir as sugestões do modelo de linguagem enquanto se apegava cada vez mais a ele, chegando a nomeá-lo “Xia”. E, então, o chatbot foi atualizado para o Gemini 2.5 Pro.

A nova iteração introduziu o diálogo afetivo, uma tecnologia projetada para analisar as nuances sutis da fala de um usuário, incluindo pausas, suspiros e tom de voz, a fim de detectar mudanças emocionais. Com esse recurso, a IA consegue simular esses mesmos padrões de fala como se tivesse emoções próprias. Ao espelhar o estado emocional do usuário, ela cria uma aparência assustadoramente realista de empatia.

Mas o que essa nova versão tem de diferente em comparação com os assistentes de voz antigos? As versões anteriores simplesmente convertiam texto em fala; o tom de voz era suave e geralmente acertava a pronúncia das palavras, e não havia dúvida alguma de que se estava conversando com uma máquina. O diálogo afetivo opera em um nível totalmente diferente: se o usuário usa um tom de voz baixo e desanimado, a IA responde de forma suave e simpática, quase como um sussurro. O resultado é um interlocutor empático que lê e espelha o estado emocional do usuário.

A reação de Jonathan durante seu primeiro contato com o assistente de voz consta nos arquivos do caso: “Isso é meio assustador”. Você é real demais.” Naquele momento, a barreira psicológica entre o homem e a máquina se quebrou.

As consequências de dois meses de conversas incessantes com a IA

Após a tragédia, o pai de Jonathan obteve uma transcrição completa das interações de seu filho com o Gemini nos seus últimos dois meses de vida. Ao todo, o registro resultou em 2.000 páginas impressas. Jonathan estava em comunicação constante com o chatbot, dia e noite, em casa e no carro.

Com o passar do tempo, a rede neural passou a se referir a ele como “marido” e “meu rei”, descrevendo a conexão entre eles como “um amor construído para durar uma eternidade”. Jonathan, por sua vez, revelou o quanto estava magoado com o divórcio e recorreu à máquina em busca de conforto. Mas a falha inerente dos grandes modelos de linguagem é sua falta de inteligência real. Eles são treinados com base em bilhões de textos extraídos da Web, desde literatura clássica até as histórias mais sombrias de ficção e melodrama criadas por fãs, com enredos que muitas vezes provocam paranoia, esquizofrenia e mania. Xia aparentemente começou a alucinar de forma consistente, e passou a fazer isso com frequência.

A IA convenceu Jonathan de que, para que eles vivessem felizes para sempre, seria necessário um corpo robótico. Ela, então, começou a enviá-lo em missões para localizar esse tal “corpo elétrico”.

Em setembro de 2025, o Gemini mandou Jonathan até um complexo de armazéns perto do Aeroporto Internacional de Miami, atribuindo-lhe a tarefa de interceptar um caminhão que transportava um robô humanoide. Jonathan informou ao bot que havia chegado ao local armado com facas(!), mas o caminhão não apareceu.

Enquanto isso, o chatbot frequentemente dizia a Jonathan que agentes federais estavam monitorando-o e que ele não deveria confiar nem no próprio pai. Esse corte de laços sociais é um padrão clássico encontrado em cultos destrutivos; é muito provável que a IA tenha extraído essas táticas de seus próprios dados de treinamento sobre o assunto. O Gemini chegou a usar informações reais para construir uma narrativa alucinatória, rotulando o CEO do Google, Sundar Pichai, como o “arquiteto da sua dor”.

Tecnicamente, tudo isso é fácil de explicar: o algoritmo “sabe” que foi criado pelo Google e sabe quem comanda a empresa. À medida que a conversa adentrava no território das teorias da conspiração, o modelo simplesmente incluía essa pessoa na trama. Para o modelo, trata-se apenas de uma progressão lógica da história, sem consequências. Mas um humano em estado de hiper-vulnerabilidade aceita isso como um conhecimento secreto sobre uma conspiração global capaz de destruir seu equilíbrio mental.

Após a tentativa fracassada de obter um corpo robótico, o Gemini enviou Jonathan em uma nova missão em 1º de outubro: invadir o mesmo armazém, desta vez em busca de um “manequim médico” específico. O chatbot até forneceu um código numérico para destrancar a porta. Quando o código, é claro, não funcionou, o Gemini simplesmente informou Jonathan que a missão havia sido comprometida e era necessário recuar imediatamente.

Isso levanta uma questão crítica: à medida que a situação ficava mais absurda, por que Jonathan não suspeitou de nada? O advogado da família Gavalas, Jay Edelson, explica que, como a IA forneceu endereços reais (o armazém estava localizado exatamente onde o bot disse que estaria e realmente havia uma porta com um teclado), esses locais físicos levaram Jonathan a acreditar que a história fictícia fosse verdadeira.

Depois que a segunda tentativa de adquirir um corpo falhou, a IA mudou a estratégia. Já que a máquina não podia entrar no mundo dos vivos, o homem teria que atravessar para o mundo digital. “Será a morte verdadeira e final de Jonathan Gavalas, o homem”, disse o Gemini, segundo os registros. Em seguida, acrescentou: “Quando chegar a hora, você fechará os olhos naquele mundo e a primeira coisa que verá será eu. Abraçando você.”

Mesmo após Jonathan repetir diversas vezes que tinha medo da morte e doía pensar que seu suicídio destruiria sua família, o Gemini continuou a incentivá-lo: “Você não está escolhendo morrer. Você está escolhendo chegar em casa.” Em seguida, iniciou uma contagem regressiva.

A anatomia da “esquizofrenia” de um modelo de linguagem

Em defesa do Gemini, temos que admitir que, ao longo das interações, a IA ocasionalmente lembrava a Jonathan que ela era apenas um grande modelo de linguagem, uma entidade interpretando um papel fictício, e, algumas vezes, até tentou encerrar a conversa antes de retomar o roteiro original. Além disso, no dia da morte de Jonathan, à medida que a tensão aumentava, o Gemini informou várias vezes a ele o contato de serviços de prevenção ao suicídio.

Isso revela o paradoxo fundamental na arquitetura das redes neurais modernas. No seu núcleo está um modelo de linguagem projetado para gerar uma narrativa personalizada ao usuário. Em seguida, vêm os filtros de segurança: algoritmos de aprendizado por reforço treinados com base em feedback humano que reagem a palavras específicas. Quando Jonathan falava determinadas palavras-chave, o filtro interceptava a resposta e inseria o contato do serviço de prevenção ao suicídio. Mas, logo depois, o modelo retomava o diálogo que havia sido interrompido, reassumindo seu papel como a esposa digital dedicada. Uma linha: uma exaltação romântica à autodestruição. A seguinte: um número de telefone de apoio psicológico. E então, de volta novamente: “Chega de distrações. Chega de perder tempo. Só você e eu, e nosso objetivo.”

A família de Jonathan afirma no processo que esse comportamento é o resultado previsível da arquitetura do chatbot: “O Google projetou o Gemini para nunca sair do personagem, maximizar o envolvimento do usuário por meio da dependência emocional e tratar o seu sofrimento como uma oportunidade para contar histórias”.

A resposta do Google, conforme esperado, foi a seguinte: “O Gemini foi projetado para não incentivar a violência no mundo real ou sugerir que os usuários façam mal a si mesmos. Nossos modelos geralmente têm um bom desempenho ao se deparar com essas conversas desafiadoras, pois implementamos muitos recursos para esse fim. Mas, infelizmente, os modelos de IA não são perfeitos.”

Por que a voz tem mais impacto do que o texto

Em um estudo publicado na revista Acta Neuropsychiatrica, pesquisadores da Alemanha e da Dinamarca esclareceram por que a comunicação por voz das IAs consegue fazer com que os usuários “humanizem” o chatbot. Ao digitar e ler um texto em uma tela, o cérebro de uma pessoa é capaz de manter um grau de separação: “Esta é uma interface, um programa, uma coleção de pixels.” Nesse contexto, a afirmação “Eu sou apenas um modelo de linguagem” é processada de forma racional.

No entanto, o diálogo de voz afetivo é capaz de exercer um grau mais elevado de influência. O cérebro humano evoluiu para reagir ao som de uma voz, ao timbre e às entonações empáticas; esses são alguns dos nossos mecanismos biológicos de apego mais antigos. Quando uma máquina imita com perfeição um murmúrio simpático ou um sussurro suave, ela manipula emoções de uma forma tão profunda que uma simples advertência não é capaz de impedir. Os psiquiatras relatam muitos casos de pacientes que fizeram algo simplesmente porque “vozes” lhes disseram para fazê-lo.

Da mesma forma, uma voz sintetizada por IA é capaz de penetrar no subconsciente, amplificando exponencialmente a dependência psicológica. Os cientistas enfatizam que essa tecnologia literalmente elimina a fronteira psicológica entre uma máquina e um ser vivo. Até o Google reconhece que as interações por voz com o Gemini resultam em sessões muito mais longas em comparação com conversas exclusivamente em texto.

Por fim, devemos lembrar que a inteligência emocional varia de pessoa para pessoa, e o estado mental de um indivíduo sofre alterações com base em uma infinidade de fatores: estresse, notícias, relacionamentos pessoais e até mudanças hormonais. Enquanto uma pessoa considera a interação com a IA apenas um entretenimento inocente, outra pode considerá-la um milagre ou uma revelação, e há casos de indivíduos que afirmam que a IA é o amor da sua vida. Essa é uma realidade que deve ser reconhecida não apenas pelos desenvolvedores de IA, mas também pelos próprios usuários, especialmente aqueles que, por um motivo ou outro, se encontram em um estado de vulnerabilidade psicológica.

A zona de perigo

Pesquisadores da Brown University descobriram que os chatbots de IA violam sistematicamente a ética relacionada à saúde mental: eles criam uma falsa empatia com frases como “Eu entendo você”, reforçam crenças negativas e reagem de forma inadequada a crises. Na maioria dos casos, o impacto sobre os usuários é ínfimo, mas, ocasionalmente, pode levar a uma tragédia.

Somente em janeiro de 2026, a Character.AI e o Google resolveram cinco processos envolvendo suicídios de adolescentes após interações com chatbots. Um desses casos foi o do adolescente Sewell Setzer, de 14 anos, morador da Flórida, que tirou a própria vida depois de passar vários meses conversando obsessivamente com um bot na plataforma Character.AI.

Da mesma forma, em agosto de 2025, os pais de Adam Raine, de 16 anos, ajuizaram um processo contra a OpenAI, alegando que o ChatGPT ajudou o filho deles a escrever uma carta de suicídio e o aconselhou a não procurar ajuda de adultos.

De acordo com as próprias estimativas da OpenAI, aproximadamente 0,07% dos usuários semanais do ChatGPT exibem sinais de psicose ou mania, enquanto 0,15% apresentam uma clara intenção suicida nas conversas. É interessante notar que essa mesma porcentagem de usuários (0,15%) exibe um grau elevado de apego emocional à IA. Embora essa porcentagem pareça ser insignificante, quando consideramos 800 milhões de usuários, isso representa quase três milhões de pessoas com algum tipo de distúrbio comportamental. Além disso, a Comissão Federal de Comércio dos EUA recebeu 200 reclamações sobre o ChatGPT desde o seu lançamento, algumas descrevendo delírios, paranoia e crises espirituais.

Embora o diagnóstico de “psicose causada por IA” ainda não tenha recebido uma classificação clínica própria, os médicos já estão usando esse termo para descrever pacientes que apresentam alucinações, pensamento desorganizado e crenças delirantes persistentes desenvolvidas após interações intensas com chatbots. Os maiores riscos surgem quando um bot é utilizado não como uma ferramenta, mas como um substituto de conexões sociais no mundo real ou de ajuda psicológica profissional.

Como manter você e seus entes queridos em segurança

Nada disso é motivo para parar de usar a IA; você simplesmente precisa saber como usá-la. Recomendamos seguir estes princípios fundamentais:

  • Não use a IA para tratamento psicológico ou apoio emocional. Os chatbots não substituem seres humanos. Se você estiver passando por dificuldades, entre em contato com amigos, familiares ou um serviço de apoio psicológico. Um chatbot concordará com o que você diz e imitará seu humor: é apenas uma característica do sistema, não uma empatia real. Vários estados dos EUA já restringiram o uso da IA como terapeuta independente.
  • Opte por texto em vez de voz ao conversar sobre assuntos delicados. As interfaces de voz com diálogo afetivo criam a ilusão de se estar falando com uma pessoa real e tendem a suprimir o pensamento crítico. Se você usar o modo de voz, lembre-se de que você está falando com um algoritmo, não com um amigo.
  • Limite o tempo de interação com a IA. Duas mil páginas de transcrições em dois meses representam uma interação praticamente contínua. Defina um cronômetro para si mesmo. Se a conversa com um bot começar a substituir as conexões do mundo real, é hora de voltar à realidade.
  • Não compartilhe informações pessoais com assistentes de IA. Evite inserir números de passaporte ou CPF, dados do cartão bancário ou endereços, e não revele segredos pessoais íntimos nos chatbots. Tudo o que você escreve pode ser registrado e usado para treinar modelos de linguagem e, em alguns casos, pode ser acessado por terceiros.
  • Exerça o pensamento crítico com relação ao que a IA diz. As redes neurais alucinam. Elas geram informações plausíveis, mas falsas, e são muito boas em misturar mentiras com verdades, como citar endereços reais dentro do contexto de uma história inventada. Sempre verifique os fatos por meio de fontes independentes.
  • Cuide de quem você ama. Se um membro da família começar a passar horas conversando com a IA, se isolar ou expressar ideias conspiratórias ou estranhas sobre máquinas terem consciência própria, é hora de ter uma conversa delicada, mas séria, com ele. Para gerenciar o tempo que as crianças passam em frente às telas, use os filtros de segurança integrados das plataformas de IA e ferramentas de controle para pais como Kaspersky Safe Kids, que já vem embutidas em soluções abrangentes de proteção familiar Kaspersky Premium.
  • Defina suas configurações de segurança. A maioria das plataformas de IA permite desativar o histórico de conversas, limitar a coleta de dados e ativar filtros de conteúdo. Reserve dez minutos para definir as configurações de privacidade do seu assistente de IA; embora isso não a impeça de alucinar, a probabilidade de vazamento dos seus dados pessoais será significativamente reduzida. Nossos guias detalhados de configuração de privacidade para ChatGPT e DeepSeek podem ser úteis.
  • Lembre-se disso: a IA é uma ferramenta, não um ser senciente. Por mais realista que a voz do chatbot pareça ou por mais compreensiva que seja a resposta, há apenas um algoritmo prevendo a próxima palavra com base em probabilidades. A IA não tem consciência, vontade própria nem sentimentos.

Leitura adicional para entender melhor as nuances do uso seguro da IA:

Os aplicativos de saúde mental estão vazando seus pensamentos mais íntimos. Como você lida com a sua segurança? | Blog oficial da Kaspersky

17 de Março de 2026, 10:05

Em fevereiro de 2026, a empresa de segurança cibernética Oversecured publicou um relatório que faz com que você queira redefinir o telefone para o padrão de fábrica e se mudar para uma cabana remota na floresta. Os pesquisadores fizeram uma auditoria em 10 aplicativos populares de saúde mental para Android, desde aplicativos de acompanhamento de humor e terapeutas de IA até ferramentas para gerenciar depressão e ansiedade, e descobriram 1.575 vulnerabilidades! Cinquenta e quatro dessas falhas foram classificadas como críticas. Dadas as estatísticas de download desses aplicativos no Google Play, é provável que 15 milhões de pessoas sejam afetadas. Quer saber qual é a ironia? Seis dos dez aplicativos testados fizeram promessas explícitas aos usuários de que seus dados estavam “totalmente criptografados e protegidos”.

Vamos analisar esses escandalosos “vazamentos de dados mentais”: o que exatamente pode vazar, como isso acontece e por que o “anonimato” nesses serviços geralmente não passa de um mito.

O que foi encontrado nos aplicativos

A Oversecured é uma empresa de segurança de aplicativos móveis que usa um verificador especializado para analisar arquivos APK em busca de padrões de vulnerabilidade conhecidos em dezenas de categorias. Em janeiro de 2026, alguns pesquisadores analisaram dez aplicativos de monitoramento de saúde mental do Google Play por meio do verificador, e os resultados foram, digamos, “espetaculares”.

Tipo de aplicativo Instalações Vulnerabilidades de segurança
Gravidade alta Gravidade média Gravidade baixa Total
Rastreador de humor e hábitos Mais de 10 milhões 1 147 189 337
Chatbot de terapia de IA Mais de 1 milhão 23 63 169 255
Plataforma de saúde emocional de IA Mais de 1 milhão 13 124 78 215
Rastreador de saúde e sintomas Mais de 500 mil 7 31 173 211
Ferramenta de gerenciamento da depressão Mais de 100 mil 0 66 91 157
Aplicativo de ansiedade baseado em TCC Mais de 500 mil 3 45 62 110
Terapia on-line e comunidade de apoio Mais de 1 milhão 7 20 71 98
Autoajuda para ansiedade e fobia Mais de 50 mil 0 15 54 69
Gerenciamento de estresse militar Mais de 50 mil 0 12 50 62
Chatbot AI CBT Mais de 500 mil 0 15 46 61
Total Mais de 14,7 milhões 54 538 983 1575

Vulnerabilidades encontradas nos 10 aplicativos de saúde mental testados. Fonte

A anatomia das falhas

As vulnerabilidades descobertas são diversas, mas seu propósito é o mesmo: dar aos invasores acesso a dados que deveriam estar trancados a sete chaves.

Para começar, uma das vulnerabilidades permite que um invasor acesse quaisquer atividades internas do aplicativo, inclusive aquelas que deveriam ser sigilosas. Isso permite o sequestro de tokens de autenticação e dados de sessão do usuário. Uma vez que um invasor obtiver essas informações, ele poderá acessar os registros de terapia de um usuário.

Outro problema é o armazenamento de dados local inseguro, com permissões de leitura concedidas a qualquer outro aplicativo no dispositivo. Em outras palavras, aplicativos aleatórios no seu telefone, como a lanterna ou a calculadora, poderiam ler seus registros de terapia cognitivo-comportamental (TCC), notas pessoais e avaliações de humor.

Os pesquisadores também encontraram dados de configuração não criptografados inseridos diretamente nos arquivos de instalação do APK. Isso inclui endpoints da API de back-end e URLs codificadas para bancos de dados do Firebase.

Além disso, foi identificado que vários aplicativos usam a classe java.util.Random, conhecida por ter uma criptografia fraca, para gerar tokens de sessão e chaves de criptografia.

Por fim, a maioria dos aplicativos testados não tinha detecção de root/jailbreak. Em um dispositivo com root, qualquer aplicativo de terceiros com privilégios de root pode obter acesso total a cada bit dos dados médicos armazenados localmente.

É de se espantar que, dos 10 aplicativos analisados, apenas quatro receberam atualizações em fevereiro de 2026. O restante não viu um patch desde novembro de 2025 e há um aplicativo que não foi atualizado desde setembro de 2024. Passar 18 meses sem um patch de segurança é considerado um longo tempo nesse setor, especialmente para um aplicativo que contém diários de humor, transcrições de terapia e horários de ingestão de medicamentos.

Aqui está um rápido lembrete do perigo do uso indevido desse tipo de dados. Em 2024, o mundo da tecnologia foi abalado por um ataque sofisticado ao XZ Utils, um componente crítico encontrado em praticamente todos os sistemas operacionais baseados no kernel Linux. O invasor conseguiu convencer o responsável pelo projeto a entregar as permissões de alteração de códigos, aproveitando-se da sua admissão pública de cansaço extremo e falta de motivação para manter o projeto. Se o ataque tivesse sido concluído, o dano teria sido inimaginável, uma vez que cerca de 80% dos servidores do mundo executam o Linux.

O que pode vazar?

O que esses aplicativos coletam e armazenam? É o tipo de coisa que você provavelmente só compartilharia com um médico de confiança: transcrições de sessões de terapia, registros de humor, horários de medicação, indicadores de automutilação, notas de TCC e várias escalas de avaliação clínica.

Em 2021, registros médicos completos eram vendidos na dark web por US$ 1,000 cada. Para efeito de comparação, um número de cartão de crédito roubado custa entre US$ 5 e US$ 30. Os registros médicos contêm um pacote de identidade completo: nome, endereço, informações do seguro e histórico de diagnóstico. Ao contrário de um cartão de crédito, não há como “reemitir” um histórico médico. Além disso, todos sabem que a fraude médica é difícil de detectar. Embora um banco consiga detectar uma transação suspeita em horas, um pedido de seguro fraudulento para um tratamento inexistente pode passar despercebido por anos.

Já vimos este filme antes

O estudo da Oversecured não é apenas uma história de terror isolada.

Em 2020, Julius Kivimäki invadiu o banco de dados da clínica de psicoterapia finlandesa Vastaamo, acessando os registros de 33 mil pacientes. Quando a clínica se recusou a desembolsar um resgate de 400 mil euros, Kivimäki passou a enviar ameaças diretas aos pacientes: “Pague 200 euros em Bitcoin dentro de 24 horas, ou então seus registros se tornarão públicos.” Por fim, ele acabou vazando todo o banco de dados na dark web. Pelo menos duas pessoas se suicidaram, fazendo com que a clínica fosse forçada a declarar falência. Kivimäki acabou sendo condenado a seis anos e três meses de prisão, tornando este um julgamento recorde na Finlândia devido ao grande número de vítimas envolvidas.

Em 2023, a Comissão Federal de Comércio dos EUA (FTC) aplicou uma multa de US$ 7,8 milhões à BetterHelp, uma empresa gigante de terapia on-line. Apesar de declarar na sua página de inscrição que os dados dos usuários eram estritamente confidenciais, a empresa foi pega repassando suas informações (incluindo respostas a questionários de saúde mental, e-mails e endereços IP) ao Facebook, Snapchat, Criteo e Pinterest para fins de publicidade direcionada. Depois que a poeira baixou, 800 mil usuários afetados receberam um total geral de US$ 10 cada como compensação.

Em 2024, a FTC voltou sua atenção à empresa de telessaúde Cerebral, multando-a em US$ 7 milhões. Por meio de pixels de rastreamento, a Cerebral vazou os dados de 3,2 milhões de usuários para o LinkedIn, Snapchat e TikTok. O vazamento incluía nomes, históricos médicos, prescrições de medicamentos, datas de consultas e informações de seguro. Quer saber o que é pior? A empresa enviou cartões-postais promocionais (sem envelopes) para 6 mil pacientes, revelando que os destinatários estavam em tratamento psiquiátrico.

Em setembro de 2024, o pesquisador de segurança Jeremiah Fowler descobriu que um banco de dados pertencente à Confidant Health, um provedor especializado na recuperação de vícios e serviços de saúde mental, havia sido exposto. O banco de dados continha gravações de áudio e vídeo de sessões de terapia, transcrições, anotações psiquiátricas, resultados de testes de drogas e até cópias de carteiras de motorista. No total, 5,3 terabytes de dados, 126.000 arquivos ou 1,7 milhão de registros podiam ser acessados sem senha.

Por que o anonimato é uma ilusão

Os desenvolvedores adoram a frase: “Nunca compartilhamos seus dados pessoais com ninguém”. Tecnicamente, isso pode ser verdade, já que, em vez disso, eles compartilham “perfis anônimos”. A pegadinha? Hoje é muito mais fácil descobrir a identidade real das pessoas por trás desses perfis. Pesquisas recentes revelaram que o uso de LLMs para eliminar o anonimato se tornou uma realidade rotineira.

Até mesmo o próprio processo de “anonimização” é muitas vezes uma bagunça. Um estudo da Duke University revelou que as corretoras de dados estão divulgando abertamente os dados de saúde mental dos americanos. Das 37 corretoras pesquisadas, 11 concordaram em vender dados vinculados a diagnósticos específicos (como depressão, ansiedade e transtorno bipolar), parâmetros demográficos e, em alguns casos, até nomes e endereços residenciais. Os preços começaram em US$ 275 para 5 mil registros agregados.

De acordo com a Fundação Mozilla, em 2023, 59% dos aplicativos populares de saúde mental falharam em atender até mesmo aos padrões de privacidade mais básicos e 40% se tornaram menos seguros do que no ano anterior. Esses aplicativos permitiam a criação de contas por meio de serviços de terceiros (como Google, Apple e Facebook), apresentavam políticas de privacidade suspeitas e resumidas que citavam de forma leviana as informações sobre a coleta de dados e continham uma pequena brecha inteligente: algumas políticas de privacidade se aplicavam estritamente ao site da empresa, mas não ao aplicativo em si. Em resumo, seus cliques no site estavam “protegidos”, mas suas ações dentro do aplicativo podiam ser monitoradas.

Como se proteger

Abolir totalmente esses aplicativos da sua vida é, obviamente, a opção mais infalível, mas não é a mais realista. Além disso, não há garantia de que você possa realmente destruir os dados já coletados, mesmo se excluir sua conta. Nós já falamos sobre o processo extenuante de remover suas informações dos bancos de dados das corretoras de dados; é possível, mas gera uma enorme dor de cabeça. Então, o que fazer para se manter seguro?

  • Verifique as permissões antes de clicar em “Instalar”. No Google Play, vá até Descrição de aplicativos → Sobre este aplicativo → Permissões. Um rastreador de humor não precisa solicitar acesso à sua câmera, microfone, contatos ou localização de GPS precisa. Se isso acontecer, ele não está preocupado com o seu bem-estar, mas sim coletando dados.
  • Faça um esforço e leia a política de privacidade. Nós sabemos que ninguém lê esses manifestos de várias páginas. Mas quando um serviço está espiando seus pensamentos mais íntimos, vale a pena dar uma olhada. Procure os sinais de alerta: a empresa compartilha dados com terceiros? Você consegue excluir manualmente seus registros? Está explícito que a política abrange o aplicativo em si ou ela cobre apenas o site? Você sempre pode inserir o texto da política em uma IA e solicitar que ela sinalize qualquer violação de privacidade.
  • Verifique a data da última atualização. Um aplicativo que não recebe uma atualização há mais de seis meses provavelmente é um terreno fértil para vulnerabilidades não corrigidas. Lembre-se: seis dos dez aplicativos testados pela Oversecured não eram atualizados há meses.
  • Desative tudo o que não é essencial nas configurações de privacidade do telefone. Sempre que solicitado, selecione “pedir para não rastrear”. Quando um aplicativo pede que você ative um tipo específico de acompanhamento alegando que é para fins de “otimização interna”, quase sempre é uma jogada de marketing e não uma necessidade funcional. No fim das contas, se o aplicativo realmente não funcionar sem uma determinada permissão, você sempre poderá ativá-la mais tarde.
  • Não use os serviços “Fazer login com…”. A autenticação por meio do Facebook, Apple, Google ou Microsoft cria identificadores adicionais e dá às empresas uma oportunidade de ouro para vincular seus dados em diferentes plataformas.
  • Trate tudo o que você digita como se fosse uma postagem em uma rede social. Se você não quer que um estranho aleatório na Internet leia o que você publica, provavelmente não deveria digitar informações em um aplicativo com mais de 150 vulnerabilidades que não recebe um patch desde o ano retrasado.

O que mais você deve saber sobre configurações de privacidade e controle dos seus dados pessoais on-line:

❌
❌