이번 주에 X 사용자는 플랫폼의 AI 챗봇 Grok이 어린이의 이미지를 포함하여 합의되지 않은 성적인 이미지를 쉽게 생성한다는 사실을 알아냈습니다.
Mashable은 xAI가 8월에 Grok Imagine을 처음 출시했을 때 성적 딥페이크에 대한 보호 장치가 부족하다고 보고했습니다. 생성 AI 도구는 이미지와 짧은 비디오 클립을 생성하며 특히 NSFW 이미지 생성을 위한 "매운" 모드를 포함합니다.
이것이 새로운 현상은 아니지만, 건물 반발로 인해 Grok 팀이 대응하게 되었습니다.
이 트윗은 현재 사용할 수 없습니다. 로드 중이거나 제거되었을 수 있습니다.
Grok의 X 계정은 목요일에 "사용자가 최소한의 옷을 입은 미성년자를 묘사하는 AI 이미지를 요청하고 수신한 고립된 사례가 있습니다"라고 게시했습니다. 또한 팀은 "보호 장치의 실수"를 확인했으며 "긴급히 수정 중"이라고 밝혔습니다.
xAI 기술 직원인 Parsa Tajik도 자신의 개인 계정에서 비슷한 성명을 발표했습니다. "팀은 우리의 가드레일을 더욱 강화하는 방안을 모색하고 있습니다. (sic)"
Grok은 또한 CSAM(아동 성 학대 자료)이 불법이며 플랫폼 자체가 형사 또는 민사 처벌을 받을 수 있음을 인정했습니다.
매쉬 가능한 광속
X 사용자들은 또한 여성의 청순한 이미지를 조작하는 챗봇에 주목했으며, 종종 옷을 덜 입은 여성을 묘사하기도 했습니다. 여기에는 민간인뿐만 아니라 K팝 그룹 트와이스의 멤버인 모모와 같은 공적 인물도 포함됩니다. 낯선 것들 스타 밀리 바비 브라운.
이 트윗은 현재 사용할 수 없습니다. 로드 중이거나 제거되었을 수 있습니다.
이 트윗은 현재 사용할 수 없습니다. 로드 중이거나 제거되었을 수 있습니다.
다음도 참조하세요:
Elon Musk가 2025년에 약속했지만 이행하지 못한 모든 것은 다음과 같습니다.
생성 AI 도구인 Grok Imagine은 2025년 8월 출시 이후 성적인 딥페이크에 문제가 있었습니다. 심지어 일부 사용자를 위해 별도의 메시지 없이 Taylor Swift의 노골적인 딥페이크를 생성한 것으로 알려졌습니다.
AI로 조작된 미디어 탐지 플랫폼 Copyleaks는 공개적으로 접근 가능한 Grok의 사진 탭에 대한 간략한 관찰 검토를 수행했으며 실제 여성으로 보이는 사례, 성적인 이미지 조작(예: 옷을 벗거나 신체 위치를 변경하라는 메시지) 및 명확한 동의 표시가 없는 사례를 식별했습니다. Copyleaks는 Mashable과 공유한 관찰된 이미지 스트림에서 대략 1분에 약 1개의 합의되지 않은 성적인 이미지를 발견했습니다.
사용자가 "외설적인 방식으로 사람의 초상을 묘사"하는 것을 금지하는 xAI 허용 가능한 사용 정책에도 불구하고 여기에는 단순히 성적으로 암시적인 자료가 반드시 포함되는 것은 아닙니다. 그러나 이 정책은 "아동의 성적 대상화 또는 착취"를 금지합니다.
2024년 상반기에 X는 법에 따라 37만 건 이상의 아동 착취 신고를 국립실종착취아동센터(NCMEC)의 사이버팁라인에 보냈습니다. 또한 CSAM에 적극적으로 참여하는 200만 개 이상의 계정을 정지했다고 밝혔습니다. 작년에 NBC 뉴스는 익명의 겉보기에 자동화된 X 계정이 아동 학대 콘텐츠로 일부 해시태그를 범람시키고 있다고 보도했습니다.
Grok은 또한 최근 몇 달 동안 본다이 해변 총격 사건에 대한 잘못된 정보를 퍼뜨리고 히틀러를 칭찬한 것으로 뉴스에 등장했습니다.
Mashable은 xAI 질문과 의견 요청을 보냈고 "Legacy Media Lies"라는 자동 응답을 받았습니다.
귀하의 동의 없이 은밀한 이미지를 공유한 경우 Cyber Civil Rights Initiative의 연중무휴 핫라인 844-878-2274로 전화하여 무료 비밀 지원을 받으세요. CCRI 웹사이트에는 다음이 포함됩니다. 유용한 정보 뿐만 아니라 목록 국제 자원.