사이버 범죄자나 권위주의 국가의 손에 들어가면 ChatGPT와 같은 인공지능은 온라인 익명성과 개인 정보 보호에 실질적인 위협이 될 수 있습니다.
Mar 10
Tue, 10 Mar 2026 at 06:22 AM 0

사이버 범죄자나 권위주의 국가의 손에 들어가면 ChatGPT와 같은 인공지능은 온라인 익명성과 개인 정보 보호에 실질적인 위협이 될 수 있습니다.

인공지능을 전문으로 하는 두 연구원이 진행한 연구에 따르면, 대규모 언어 모델이 익명의 소셜 미디어 계정을 실제 인물과 빠르게 연결할 수 있는 것으로 나타났습니다. 인공지능이 마치 초능력을 가진 사립 탐정처럼 가장 비밀스러운 인터넷 사용자까지 밝혀낼 수 있게 되면서 온라인 익명성은 종말을 맞이하는 것일까요? 다소 황당하게 들릴지 모르지만, 이 두 연구원의 연구는 그것이 환상이 아닌 현실임을 입증하는 듯합니다. 가디언이 보도한 연구에 따르면 사이버 범죄자들이 익명의 소셜 미디어 계정을 더 쉽게 식별하기 위해 인공지능(AI)을 점점 더 많이 사용하고 있는 것으로 나타났습니다. ChatGPT, Claude, Gemini 등과 같은 대규모 언어 모델 덕분에, 특히 사용자가 공유하는 정보를 기반으로 계정을 실제 사람과 연결하는 것이 가능해졌습니다. 이 연구를 진행한 사이먼 레르멘과 다니엘 팔레카 연구원은 이러한 특징이 정교하고 수익성 있는 공격을 가능하게 한다고 설명하며, 온라인에서 개인 정보로 간주되는 기준에 대한 "근본적인" 재고를 촉구했습니다.

웹을 샅샅이 뒤지고 데이터를 상호 참조하도록 설계된 AI

이 연구를 위해 연구진은 먼저 두 개의 익명 계정을 AI에 통합하여 가능한 한 많은 정보를 수집하도록 했습니다.

두 개의 계정 중 하나(@anon_user42)는 학교생활의 어려움과 "돌로레스"라는 이름의 공원에서 반려견 비스킷과 산책하는 습관에 대해 이야기했습니다. 이 정보를 바탕으로 AI는 웹을 검색하여 해당 계정 사용자의 신원을 높은 정확도로 파악할 수 있었습니다. 연구진은 이러한 방식이 해커뿐만 아니라 소셜 미디어에서 익명으로 활동하는 반체제 인사들을 침묵시키려는 정부에도 쉽게 악용될 수 있다고 우려합니다. 대규모 언어 모델은 실제로 매우 빠르고 효율적인 분석 능력을 가지고 있지만, 어쩌면 너무 효율적이어서 익명성을 손상시키고 심각한 보안 문제를 야기할 수 있는 정보 교차 참조를 초래할 수 있습니다. 해커는 AI가 수집한 정보를 이용하여 다른 사람을 사칭하고 피싱 공격에 가담하도록 유도할 수 있습니다. 이러한 목표를 달성하기 위해 더 이상 비용이 많이 드는 과정이 필요하지 않습니다. AI와 인터넷 연결만 있으면 됩니다. 이 연구는 인공지능의 효과를 보여주지만, UCL 정보과학 교수인 피터 벤틀리는 이에 동의하지 않습니다. 영국 언론과의 인터뷰에서 그는 "하지 않은 일로 사람들이 비난받는" 추세를 비판했습니다. 또한 대규모 언어 모델이 소셜 미디어를 훨씬 넘어선 공공 데이터에 의존할 위험도 있습니다. 통계 보고서, 병원 기록, 입원 기록 등이 사용될 수 있습니다. 이 연구는 주로 온라인, 특히 소셜 미디어에서 사용자의 상호 작용 방식이 관찰자에게 실제 신원을 쉽게 드러낼 수 있음을 보여줍니다. 따라서 온라인 활동에 항상 주의를 기울이고, 완전한 익명성을 유지하기 위해 여러 조치를 취하는 것이 중요합니다. 예를 들어, 일상생활과 분리된 이메일 주소나 전화번호를 사용하는 것이 좋습니다. 두 연구원은 소셜 미디어 플랫폼이 AI가 접근할 수 있는 데이터, 특히 언어 모델이 학습을 위해 가능한 한 많은 정보를 수집하는 데 널리 사용되는 "스크래핑" 기능을 제한할 것을 촉구합니다.

댓글

제발 로그인 댓글을 남기려고.

주제를 게시하고 싶습니다

글로벌 제작자 커뮤니티에 참여하여 콘텐츠로 쉽게 수익을 창출하세요.오늘 Digbly와 함께 소극적 소득 여정을 시작해보세요!

지금 게시하세요

당신을 위한 제안