サイバー犯罪者や権威主義国家の手に渡れば、ChatGPT のような AI はオンラインの匿名性とプライバシーに対する真の脅威となる可能性があります。
Mar 10
Tue, 10 Mar 2026 at 06:21 AM 0

サイバー犯罪者や権威主義国家の手に渡れば、ChatGPT のような AI はオンラインの匿名性とプライバシーに対する真の脅威となる可能性があります。

人工知能を専門とする2人の研究者による研究で、大規模な言語モデルによって匿名のソーシャルメディアアカウントを実在の人物と迅速に結び付けることができることが明らかになりました。

AIがスーパー私立探偵として機能し、最も秘密主義的なインターネットユーザーでさえも正体を暴くことができるようになることで、オンラインの匿名性は終焉を迎えるのでしょうか?この考えは突飛に思えるかもしれませんが、この2人の研究者の研究は、それが空想ではなく現実であることを証明しているようです。 The Guardianが報じた調査によると、サイバー犯罪者は匿名のソーシャルメディアアカウントをより容易に特定するために、人工知能(AI)をますます利用していることが明らかになりました。ChatGPT、Claude、Geminiなどの大規模言語モデルのおかげで、特にアカウントが共有する情報に基づいて、アカウントを実在の人間と結び付けることが可能です。これにより、高度で収益性の高い攻撃が可能になると、この調査を主導した2人の研究者、サイモン・ラーメン氏とダニエル・パレカ氏は説明しています。オンラインで個人情報と見なすものについて「根本的な」見直しを求める人々です。

ウェブを精査し、データを相互参照するように設計されたAI

この発見のために、彼らはまず2つの匿名アカウントをAIに統合し、可能な限り多くの情報を取得させました。2つのアカウントのうちの1つ(@anon_user42)は、学校での困難や、「ドロレス」という名前の公園で愛犬ビスケットを散歩させる傾向について語っていました。この情報のおかげで、AIはウェブをスキャンし、アカウントの背後にいる人物の身元を高い確度で特定することができました。

研究者たちは、この手法はハッカーだけでなく、ソーシャルメディアで匿名で活動することが多い反体制派を黙らせたい政府にも容易に悪用される可能性があると考えています。大規模言語モデルは確かに迅速かつ非常に効率的な分析能力を備えていますが(おそらく効率が良すぎるかもしれません)、情報の相互参照につながり、匿名性が損なわれ、深刻なセキュリティ問題を引き起こす可能性があります。ハッカーはAIが収集した詳細情報を用いて、簡単に他人になりすまし、フィッシング詐欺に誘い込むことができます。この目的を達成するために、もはやコストのかかるプロセスは必要ありません。必要なのはAIとインターネット接続だけです。この研究は人工知能の有効性を示していますが、ロンドン大学ロンドン校(UCL)の情報科学教授であるピーター・ベントリー氏はこれに異議を唱えています。英国メディアのインタビューを受けたベントリー氏は、「人々が実際にはしていないことで非難される」ことにつながる可能性のある傾向を非難しています。また、大規模言語モデルがソーシャルメディアをはるかに超える公開データに依存するリスクもあります。統計レポート、病院の記録、入院記録などが利用される可能性があります。

この研究は主に、オンライン、特にソーシャルメディアにおいて、ユーザーのやり取りによって、観察者が簡単にそのユーザーの本当の身元を特定できる可能性があることを示しています。したがって、オンラインでの行動には常に注意を払いつつ、完全な匿名性を維持するために複数の対策を講じることが不可欠です。例えば、メールアドレスや電話番号を他の生活とは別のものを使用するなどです。 2人の研究者は、ソーシャルメディアプラットフォームに対し、AIがアクセスできるデータへのアクセスを制限し、特に言語モデルがトレーニング用にできるだけ多くの情報を収集するために広く使用されている機能である「スクレイピング」を防止するよう呼びかけている。

コメント

お願いします ログイン コメントを残すには。

トピックを投稿したい

クリエイターのグローバル コミュニティに参加して、コンテンツを簡単に収益化しましょう。Digbly で受動的収入の旅を今すぐ始めましょう!

今すぐ投稿してください

あなたにおすすめ