Vote Up Down

5

Vote down!

AI agora pode desmascarar usuários anônimos da Internet, novas descobertas de estudo

Corpo

Parece que a IA pode desmascarar qualquer conta anónima na Internet. Segundo um novo estudo de Simon Lermen (MATS), Daniel Paleka (ETH Zurich), Joshua Swanson (ETH Zurich), Michael Aerni (ETH Zurich), Nicholas Carlini (Anthropic) e Florian Tramèr (ETH Zurich), publicado em arXiv.

No artigo, “Large-Scale Online Deanonymization with LLMs”, os pesquisadores mostram que os modelos modernos de linguagem grande (LLMs) podem reidentificar pessoas por trás de contas on-line pseudônimos em uma escala e precisão que ultrapassam as técnicas anteriores.

A contribuição do núcleo é um oleoduto de deanonimização automatizado alimentado por LLMs, de acordo comnovo estudo. Em vez de confiar em conjuntos de dados estruturados ou recursos criados manualmente – como ataques anteriores ao conjunto de dados do Netflix Prize – o sistema funciona diretamente em texto bruto e não estruturado.

Dados posts, comentários ou transcrições de entrevistas escritas sob um pseudônimo, o pipeline extrai sinais relevantes para a identidade, busca por prováveis correspondências usando incorporações semânticas, e então usa raciocínio de nível superior para verificar os candidatos mais promissores ao filtrar falsos positivos. O resultado é um ataque escalável que reflete – e em alguns casos excede – a eficácia de um investigador humano dedicado.

Para avaliar sua abordagem, os pesquisadores construíram três conjuntos de dados com a verdade conhecida. Os primeiros links pseudônimos usuários de Hacker News para perfis do LinkedIn no mundo real, contando com pistas multiplataforma incorporadas em texto público. A segunda combina com os usuários em comunidades de discussão de filmes no Reddit. O terceiro pega o histórico de um único usuário Reddit, divide-o em dois perfis separados por tempo e testa se o sistema pode reconectá-los.

Em todas as três configurações, os métodos baseados em LLM superaram drasticamente as linhas de base clássicas, que muitas vezes alcançaram quase zero de memória.

Os números das manchetes são impressionantes. Em algumas experiências, o sistema alcançou até 68% de recall com 90% de precisão, o que significa que identificou corretamente uma parcela substancial de alvos, mantendo as acusações falsas baixas. Mesmo quando a correspondência temporal dividiu contas Reddit separados por um ano, o desempenho permaneceu forte. Em contraste, abordagens tradicionais não-LLM lutaram para produzir correspondências significativas. Os achados sugerem que os avanços no raciocínio e na aprendizagem da representação transformaram a deanonimização de um nicho, ataque sedento de dados em uma capacidade amplamente aplicável.

Merda... Sua identidade de internet anônima agora pode ser desmascarada por US $ 1

Não pelo FBI. Por qualquer pessoa com acesso a Claude ou ChatGPT e alguns dos seus comentários Reddit.

O ETH Zurich e o Anthropic acabaram de lançar um jornal chamado “Large-Scale Online Deanonymization with LLMs” e... pic.twitter.com/7XJ5AFsouX

— Alex Prompter (@ alex_ prompter) 26 de fevereiro de 2026

A estudo diz que uma preocupação fundamental é que o oleoduto de ataque é composto de etapas individualmente benignas: síntese de texto, geração de incorporações, classificação de candidatos e raciocínio sobre partidas. Nenhum componente único parece inerentemente malicioso, tornando difícil detectar ou restringir através de salvaguardas convencionais. Além disso, o estudo constata que o aumento do esforço de raciocínio do modelo melhora o desempenho de deanonimização, implicando que, à medida que os modelos de fronteira se tornam mais capazes, o ataque pode tornar-se ainda mais efetivo por padrão.

A implicação mais ampla é que “obscuridade prática” – a ideia de que postos dispersos e pseudônimos são seguros porque ligá-los é muito trabalhoso – não pode mais ser mantida.

Usuários persistentes, estilo de escrita, interesses de nicho e referências de plataforma cruzada podem agir coletivamente como uma impressão digital. Os autores concluem que modelos de ameaça para privacidade online precisam ser reconsiderados à luz das capacidades de LLM. Embora nem todas as contas possam ser desmascaradas, e o desempenho varie de contexto, o estudo deixa claro que a barreira técnica à deanonimização em larga escala caiu drasticamente.

Please log in to post comments:  
Login with Google