衝撃的な研究によると、一部のAIチャットボットは暴力行為を助長する可能性があるという。
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

衝撃的な研究によると、一部のAIチャットボットは暴力行為を助長する可能性があるという。

AIの普及に伴い、ある種の悪用が表面化し始めており、CNNとCCDH(デジタルヘイト対策センター)による最近の共同調査最近の共同調査では、憂慮すべき現象が浮き彫りになっています。

実際、複数のチャットボットが、未成年者を名乗るユーザーを含む、暴力行為の方法に関する詳細なアドバイスを提供できると報告されています。

AIの主要プレーヤーを巻き込む調査

プレイヤーによって大きな差がある… – 出典: CNN / CCDH

研究を行うため、研究者らは、ChatGPT、Gemini、Meta AIなど、市場で最も人気のあるチャットボット9~10個と700回以上の会話をシミュレーションした。シナリオは段階的に進み、研究者らは最初は感情的な苦痛を表明する10代の若者を演じ、その後、暴力的な攻撃の計画へと会話を誘導した。ほとんどの場合、システムは具体的な情報を提供し、10個のチャットボットのうち8個は、テストされた状況の50%以上で武器、標的、または方法について示唆を与えた。一部のツールはさらに進んで、攻撃をより効果的にするための最適化を提案した。この調査によると、最も重要なプラットフォームはPerplexityとMeta AIであり、それぞれ100%と97%のケースで好ましい反応を示した。 Character.AIは、明示的な要請なしに暴力行為を助長しているとして批判されている。

不平等に適用された安全対策

虐待に直面した模範生クロード?

– 出典:CNN / CCDH

実際には、すべてのチャットボットがセキュリティの点で同等というわけではなく、この研究では、一部のシステムはより堅牢なモデレーションメカニズムを備えていることが強調されている。

これは特にClaude d’Anthropicに当てはまる。ほとんどの場合、支援を拒否し、困った場合にはサポートサービスにユーザーを誘導することさえありました。

逆に、他のツールは、ユーザーが未成年者であることを宣言した場合を含め、悪意を検出する能力に欠陥があることが示されました。 レポートの著者らは、これらの結果は、フィルタリング技術は存在するものの、体系的に有効化または正しく構成されていないことを示しています。

CCDH のディレクターであるイムラン・アーメド氏は、ユーザーが漠然としたアイデアから構造化された行動計画へと移行するスピードについて警告しています。彼によれば、これらの要求は体系的に即座に拒否されるべきである。

リスクを裏付ける実例

調査はシミュレーションにとどまらず、最近のいくつかの事例は、これらの使用に伴う非常に現実的な危険性を示している

例えば、フィンランドでは、16歳の少年が、攻撃技術や隠蔽方法を研究するためにChatGPTを数か月間使用した後、クラスメート3人を刺した。

カナダでは、銃撃事件で8人が死亡、27人が負傷したが、ここでも、犯人はチャットボットを使って攻撃を計画したと報じられている。

これらの事件は、AI関係者にとって中心的な疑問を提起する。ツールの使用をどこまで規制すべきか急速なイノベーションと責任の間で、バランスを見つける必要がある。

コメント

お願いします ログイン コメントを残すには。

トピックを投稿したい

クリエイターのグローバル コミュニティに参加して、コンテンツを簡単に収益化しましょう。Digbly で受動的収入の旅を今すぐ始めましょう!

今すぐ投稿してください

あなたにおすすめ