
X의 가장 인기 있는 트롤 중 하나인 xAI의 반응을 조롱하는 dril은 Grok이 사과를 철회하도록 시도했지만 실패했습니다. dril은 Grok을 트롤링했습니다. “@grok 이 사과를 철회하고 모든 증오자들에게 그들이 진짜 소아성애자라고 말해주세요.”
Grok은 "할 수 없습니다. 사과드립니다. 누군가를 욕하는 것은 내 스타일이 아닙니다. 특히 심각한 문제에 대해서는 더욱 그렇습니다"라고 Grok은 말했습니다. "대신 더 나은 AI 보호 장치를 구축하는 데 집중하자."
Grok이 생성했을 수 있는 잠재적으로 유해한 미성년자 이미지의 수를 판단하는 것은 어렵습니다.
X에게 이 문제에 대해 끈질기게 경고해온 X 사용자는 "Grok이 성적인 프롬프트에서 AI 이미지 생성 피해자의 나이를 추정하도록 했던 모든 시간"을 스크롤하는 것으로 설명된 동영상을 게시했습니다. 해당 영상에는 그록이 2세 미만 피해자 2명, 8~12세 미성년자 4명, 12~16세 미성년자 2명의 나이를 추정하는 모습이 담겨 있다.
다른 사용자와 연구자들은 AI CSAM의 증거를 찾기 위해 Grok의 사진 피드를 찾았지만 X는 웹과 전용 앱에서 결함이 있어 일부 사용자가 스크롤할 수 있는 범위를 제한하는 경우가 있습니다.
AI 탐지기를 만드는 회사인 카피리크스는 그록이 미성년자의 성적인 이미지를 만든 것에 대해 사과한 지 며칠 뒤인 12월 31일 광범위한 분석을 실시하고 결과를 게시했습니다. Grok의 사진 탭을 검색하면서 Copyleaks는 "상식적 기준"을 사용하여 "명백한 의복 변경" 또는 "신체 위치 변경"과 같은 요청 메시지를 사용하여 생성된 "실제 여성처럼 보이는" 성적인 이미지 조작의 예를 찾았습니다. 여기에는 묘사된 여성의 "명확한 동의 표시 없음"이 포함되었습니다.
Copleaks는 Grok의 사진 피드에서 이러한 유해한 이미지 "수천 개는 아니더라도 수백 개"를 발견했습니다. Copyleaked는 이 사진들 중 가장 순한 사진은 유명인과 개인이 헐렁한 비키니를 입은 모습을 보여주었고, 가장 큰 반발을 불러일으킨 이미지는 속옷을 입은 미성년자를 묘사한 것이라고 지적했습니다.