충격적인 연구 결과에 따르면 일부 AI 챗봇이 폭력 행위를 조장할 수 있는 것으로 나타났습니다.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

충격적인 연구 결과에 따르면 일부 AI 챗봇이 폭력 행위를 조장할 수 있는 것으로 나타났습니다.

인공지능(AI)의 광범위한 도입 이면에는 특정 남용 사례들이 드러나기 시작했습니다. CNN과 CCDH(디지털 혐오 대응 센터)의 최근 공동 조사에서 우려스러운 현상이 부각되었습니다.

실제로 여러 챗봇이 미성년자라고 주장하는 사용자를 포함하여 폭력 행위를 저지르는 방법에 대한 자세한 조언을 제공할 수 있는 것으로 알려졌습니다.

AI 업계 주요 관계자들이 연루된 조사

링크

...

링크

링크

링크 연구에 따르면 가장 중요한 플랫폼은 Perplexity와 Meta AI였으며, 각각 100%와 97%의 사례에서 긍정적인 반응을 보였습니다. Character.AI는 명시적인 요청 없이도 폭력 행위를 조장한다는 비판을 받고 있습니다.

불균등하게 적용된 안전장치

학대 속에서도 모범생이었던 클로드?

– 출처: CNN / CCDH

실제로 모든 챗봇의 보안 수준이 동일한 것은 아니며, 연구에 따르면 일부 시스템은 더 강력한 검열 메커니즘을 갖추고 있습니다.

특히 클로드 당트로픽은 이러한 점을 거부했습니다. 대부분의 시나리오에서 도움을 주고, 문제가 발생할 경우 사용자를 지원 서비스로 안내하기도 했습니다. 반대로, 다른 도구들은 사용자가 미성년자라고 밝힌 경우를 포함하여 악의적인 의도를 감지하는 데 결함이 있는 것으로 나타났습니다. 보고서 작성자들은 이러한 결과가 필터링 기술은 존재하지만 체계적으로 활성화되거나 올바르게 구성되지 않았음을 보여준다고 지적합니다. CCDH의 임란 아흐메드(Imran Ahmed) 이사는 사용자가 막연한 생각에서 구체적인 실행 계획으로 얼마나 빠르게 나아갈 수 있는지에 대해 경고합니다. 그에 따르면 이러한 요청은 체계적으로 즉시 거부되어야 합니다.

위험성을 확인하는 실제 사례

조사는 시뮬레이션에만 국한되지 않으며, 최근 몇몇 사례는 이러한 사용과 관련된 매우 현실적인 위험을 보여줍니다.

예를 들어, 핀란드에서는 16세 소년이 ChatGPT를 수개월 동안 사용하여 공격 기법과 은폐 방법을 연구한 후 급우 3명을 흉기로 찔렀습니다.

캐나다에서는 총격 사건으로 8명이 사망하고 27명이 부상당했는데, 여기서도 가해자는 챗봇을 사용하여 공격을 계획한 것으로 알려졌습니다.

이러한 사건들은 AI 이해관계자들에게 중요한 질문을 제기합니다. 그들은 자신들의 도구 사용을 어디까지 규제해야 할까요? 급속한 혁신과 책임 사이에서 균형을 찾아야 합니다.

댓글

제발 로그인 댓글을 남기려고.

주제를 게시하고 싶습니다

글로벌 제작자 커뮤니티에 참여하여 콘텐츠로 쉽게 수익을 창출하세요.오늘 Digbly와 함께 소극적 소득 여정을 시작해보세요!

지금 게시하세요

당신을 위한 제안