새로운 조사에 따르면 Apple과 Google 앱 스토어는 이러한 앱이 회사의 규칙을 위반했음에도 불구하고 수십 개의 소위 "누드파이(nudify)" AI 앱을 호스팅하고 있는 것으로 나타났습니다.
하버드 대학교 케네디 스쿨 정부 소속 그룹인 투명성 프로젝트(TTP)는 두 매장 모두에서 디지털 방식으로 옷을 제거하여 피험자를 알몸으로 또는 거의 알몸으로 만드는 수십 개의 앱을 발견했습니다. Google Play Store에서는 55개, Apple App Store에서는 47개의 앱이 발견되었습니다.
TTP를 썼습니다:
"앱 분석 회사인 AppMagic에 따르면 TTP가 식별한 앱은 전 세계적으로 총 7억 5백만 번 이상 다운로드되었으며 1억 1,700만 달러의 수익을 창출했습니다. Google과 Apple은 해당 수익의 일부를 가져가기 때문에 이러한 앱의 활동에서 직접적인 이익을 얻고 있습니다."
두 기술 대기업 모두 TTP 보고서에 응답했습니다. 애플은 CNBC에 TTP 보고서에서 확인된 앱 28개를 삭제했다고 밝혔고, 구글은 조사가 진행 중이라고 밝히면서 "여러 앱을 정지했다"고 밝혔습니다.
매쉬 가능한 광속
그러나 TTP는 두 App Store 모두 합의되지 않은 딥페이크를 막기 위해 더 많은 조치를 취해야 한다고 결론지었습니다.
다음도 참조하세요:
노골적인 딥페이크는 충격적입니다. 고통을 다루는 방법.
보고서는 "TTP의 조사 결과에 따르면 구글과 애플은 허가 없이 사람들을 '나체화'할 수 있는 AI 딥페이크 앱의 확산을 따라잡지 못했다"고 밝혔습니다. "둘 다 회사 그들은 사용자의 안전과 보안에 전념한다고 말하지만 여성의 무해한 사진을 모욕적이고 성적인 이미지로 바꿀 수 있는 앱 모음을 호스팅하고 있습니다."
TTP의 보고서는 Elon Musk와 xAI의 Grok을 둘러싼 논란에 이어 나왔습니다. xAI의 Grok은 성적이고 합의되지 않은 이미지를 생성한 혐의로 여러 국가에서 조사를 받고 있습니다. Mashable 조사에 따르면 Grok에는 딥페이크를 방지하기 위한 기본 안전 가드 레일이 부족한 것으로 나타났습니다. 또한 연구자들은 Grok이 12월 29일부터 1월 8일까지 11일 동안 어린이를 묘사하는 20,000개 이상의 성적인 이미지를 포함해 300만 개 이상의 성적인 이미지를 제작했다고 밝혔습니다.
AI 시대가 도래하면서 성적 딥페이크는 앞으로 기술 기업들이 계속해서 주요 이슈로 떠오를 것입니다.