忍者ブログ

mshencity

X는 Grok이 더 이상 실제 인물의 이미지를 비키니로 편집하지 않을 것이라고 말했습니다.

X는 챗봇이 아동의 성적인 이미지와 합의되지 않은 과도한 노출을 생성한 혐의로 반복적으로 비난을 받고 있는 Grok에 대해 몇 주 동안 항의한 이후 Grok의 이미지 편집 능력에 대한 정책을 변경하고 있다고 말했습니다. X의 @Safety 계정에서 공유된 업데이트에서 회사는 "Grok 계정이 비키니와 같은 노출 의류에서 실제 인물의 이미지를 편집하는 것을 허용하지 못하도록 기술적 조치를 구현했습니다"라고 밝혔습니다.

X에 따르면 새로운 보호 조치는 Grok 비용 지불 여부에 관계없이 모든 사용자에게 적용됩니다. xAI는 또한 무료 사용자가 더 이상 이미지를 생성할 수 없도록 Grok의 모든 이미지 생성 기능을 가입자 페이월 뒤로 이동하고 있습니다. 그리고 불법인 지역에서는 "모든 사용자가 Grok 계정과 Grok in X를 통해 비키니, 속옷 및 유사한 복장을 입은 실제 사람의 이미지를 생성하는 기능"을 지리적으로 차단합니다.

이 회사의 성명은 캘리포니아 주가 AI로 생성된 과도한 노출 및 아동 착취 자료 처리에 대해 xAI와 Grok에 대한 조사를 시작한 지 몇 시간 만에 나온 것입니다. 캘리포니아 법무장관 Rob Bonta의 성명은 "크리스마스와 새해 사이에 xAI가 생성한 20,000개의 이미지 중 절반 이상이 어린이로 보이는 일부를 포함하여 최소한의 옷을 입은 사람들을 묘사했다"는 한 분석을 인용했습니다.

업데이트에서 X는 아동 착취에 대해 "무관용"을 갖고 있으며 자사 플랫폼에서 "아동 성적 학대 자료(CSAM) 및 합의되지 않은 과도한 노출을 포함하여 우선순위가 높은 위반 콘텐츠"를 제거한다고 밝혔습니다. 이날 오전 엘론 머스크는 "그록이 생성한 미성년자 나체 이미지에 대해서는 알지 못했다"고 말했다. 그는 나중에 NSFW 설정이 활성화되면 "Grok은 Apple TV의 R 등급 영화에서 볼 수 있는 것과 일치하는 가상의 성인 인간(실제 인간이 아님)의 상체 누드를 허용한다고 가정합니다."라고 덧붙였습니다. 그는 현지 법률에 따라 "이는 다른 지역에서도 다를 수 있다"고 덧붙였습니다.

말레이시아와 인도네시아는 최근 안전 문제와 성적으로 노골적인 AI 생성 자료 처리를 이유로 Grok을 차단했습니다. 규제 기관인 Ofcom이 xAI와 Grok도 조사하고 있는 영국에서도 관계자들은 유사한 챗봇 블록을 지원할 것이라고 말했습니다.

Karissa에 대한 팁이 있나요? 당신은 그녀에게 연락할 수 있습니다 이메일엑스, 블루스카이, 스레드또는 @karissabe.51로 메시지를 보내 Signal에서 비밀리에 채팅하세요.

PR

コメント

プロフィール

HN:
No Name Ninja
性別:
非公開

P R