Nas mãos de cibercriminosos ou de um estado autoritário, a IA, como o ChatGPT, pode se tornar uma ameaça real ao anonimato online e à nossa privacidade.
Será este o fim do anonimato online graças à IA atuando como um superdetetive particular capaz de desmascarar até mesmo os usuários mais secretos da internet? A ideia pode parecer absurda, mas o trabalho desses dois pesquisadores parece provar que é uma realidade, não uma fantasia. Um estudo publicado pelo The Guardian revela que os cibercriminosos estão usando cada vez mais inteligência artificial para identificar com mais facilidade contas anônimas em redes sociais. Graças a grandes modelos de linguagem (como ChatGPT, Claude, Gemini, etc.), é possível vincular uma conta a um ser humano real, principalmente com base nas informações que ele compartilha. Isso possibilita ataques sofisticados e lucrativos, explicam Simon Lermen e Daniel Paleka, os dois pesquisadores responsáveis pelo estudo, que defendem uma reconsideração "fundamental" do que consideramos informação privada online.
IA personalizada para vasculhar a web, projetada para cruzar dados
Para fazer essa descoberta, eles primeiro integraram duas contas anônimas em uma IA, fazendo com que ela recuperasse o máximo de informações possível.
Uma das duas contas (@anon_user42) falava sobre suas dificuldades na escola e seu hábito de passear com seu cachorro Biscuit em um parque chamado "Dolores". Graças a essa informação, a IA conseguiu então vasculhar a internet para identificar a pessoa por trás da conta com um alto grau de certeza. Os pesquisadores acreditam que esse método pode ser facilmente explorado por hackers, mas também por governos que desejam silenciar dissidentes, que geralmente fazem campanha anonimamente nas redes sociais. Grandes modelos de linguagem realmente possuem uma capacidade analítica rápida e altamente eficiente — talvez até demais —, o que leva ao cruzamento de informações que pode comprometer o anonimato e causar sérios problemas de segurança. Um hacker poderia, portanto, facilmente se passar por outra pessoa e atraí-la para uma operação de phishing usando os dados coletados pela IA. Processos dispendiosos não são mais necessários para atingir esse objetivo: uma IA e uma conexão com a internet são tudo o que é preciso. Embora o estudo mostre que a inteligência artificial é eficaz, Peter Bentley, professor de ciência da informação na UCL, discorda. Em entrevista à mídia britânica, ele denuncia uma tendência que pode levar a "pessoas sendo acusadas de coisas que não fizeram". Há também o risco de que grandes modelos de linguagem possam depender de dados públicos muito além das mídias sociais. Relatórios estatísticos, registros hospitalares e registros de internações poderiam ser usados.O estudo mostra principalmente que, online, e especialmente nas mídias sociais, a forma como um usuário interage pode facilmente levar observadores à sua verdadeira identidade. Portanto, é essencial sempre ter cuidado com o que você faz online, tomando várias medidas para manter o anonimato completo — por exemplo, usando um endereço de e-mail ou número de telefone diferente do restante da sua vida. Os dois pesquisadores pedem que as plataformas de mídia social restrinjam o acesso aos dados que a IA pode acessar, principalmente para impedir a "raspagem de dados", um recurso amplamente utilizado por modelos de linguagem para coletar o máximo de informações possível para treinamento.
Por favor Conecte-se para deixar um comentário.
Quer postar seu tópico
Junte-se a uma comunidade global de criadores e monetize seu conteúdo facilmente. Comece sua jornada de renda passiva com Digbly hoje!
Poste agora
Comentários