
Ars는 유럽 비영리 단체인 AI Forensics와 연결되어 X가 영국에서 일부 출력을 차단했는지 확인하기 위해 테스트했습니다. 대변인은 X의 편집 버튼을 사용하여 유해한 출력이 생성될 수 있는지 조사하는 테스트가 테스트에 포함되지 않았음을 확인했습니다.
AI Forensics는 추가 테스트를 수행할 계획이지만 대변인은 The Verge가 여전히 작동한다고 확인한 "편집" 버튼 기능을 테스트하는 것은 비윤리적이라고 지적했습니다.
작년에 스탠포드 인간 중심 인공 지능 연구소(Stanford Institute for Human-Centered Artificial Intelligence)는 의회가 기술 회사가 CSAM 레드팀 구성에 대해 "기소에 대한 두려움 없이 생성 모델을 엄격하게 테스트"할 수 있도록 허용함으로써 "모델 안전에 바늘을 움직일 수 있다"는 연구 결과를 발표했다고 Tech Policy Press가 보도했습니다. 그러나 그러한 안전한 항구가 마련될 때까지 새로 출시된 AI 도구는 Grok과 같은 위험을 초래할 가능성이 더 높아 보입니다.
Grok의 결과물을 확인하지 않은 채로 두면 결국 X가 5월에 발효되고 플랫폼이 AI 복수 포르노를 신속하게 제거하도록 요구하는 Take It Down Act를 위반하게 될 가능성이 있습니다. Musk의 자녀 중 한 명인 Ashley St. Clair의 어머니 중 한 명은 Grok의 결과물이 자신의 이미지를 리벤지 포르노로 사용했다고 설명했습니다.
영국 조사가 계속되는 동안 Bonta는 X가 미국에서 위반했을 수 있다고 의심되는 법률을 아직 명확히 밝히지 않았습니다. 하지만 그는 피해자가 '최소한의 옷'을 입고 묘사된 이미지와 어린이를 성적인 자세로 묘사하는 이미지가 선을 넘었다는 점을 강조했다.
캘리포니아 조사가 뜨거워지면서 Bonta는 Grok의 출력을 제한하기 위해 더 많은 조치를 취하도록 X를 밀어붙였습니다. 한 AI 연구원은 Ars에게 몇 가지 간단한 업데이트를 통해 이를 수행할 수 있다고 제안했습니다.
Bonta는 “이 문제가 더 이상 발생하지 않도록 xAI가 즉각적인 조치를 취할 것을 촉구합니다.”라고 말했습니다. “우리는 AI를 기반으로 합의되지 않은 친밀한 이미지나 아동 성적 학대 자료를 생성하고 유포하는 것을 절대 용납하지 않습니다.”
Bonta의 위협을 심각하게 받아들이는 것처럼 보이는 X Safety는 "X를 모든 사람을 위한 안전한 플랫폼으로 만들기 위해 최선을 다하고 모든 형태의 아동 성적 착취, 합의되지 않은 과도한 노출, 원치 않는 성적 콘텐츠에 대해 무관용을 계속할 것"이라고 다짐했습니다.
이 이야기는 X Safety의 업데이트를 알리기 위해 1월 14일에 업데이트되었습니다.