忍者ブログ

mshencity

Wikipedia 자원봉사자들은 AI 목록을 작성하는 데 수년을 보냈습니다. 이제 이를 방지할 수 있는 플러그인이 있습니다.





이러한 규칙을 해결하기 위해 Humanizer 기술은 Claude에게 부풀려진 언어를 일반 사실로 바꾸라고 지시하고 다음 예제 변환을 제공합니다.


전에: "카탈로니아 통계청은 1989년에 공식적으로 설립되었으며, 이는 스페인 지역 통계 발전의 중추적인 순간을 의미합니다."


후에: “카탈로니아 통계연구소는 지역 통계를 수집하고 출판하기 위해 1989년에 설립되었습니다.”


Claude는 그것을 읽고 현재 대화나 작업의 맥락과 일치하는 출력을 생성하기 위해 패턴 일치 기계로서 최선을 다할 것입니다.


AI 쓰기 감지가 실패하는 이유의 예


Wikipedia 편집자들이 만든 이러한 확실한 규칙 세트에도 불구하고 우리는 이전에 AI 글쓰기 감지기가 안정적으로 작동하지 않는 이유에 대해 쓴 적이 있습니다. 인간의 글쓰기에는 LLM 글쓰기와 안정적으로 구별되는 본질적으로 독특한 것이 없습니다.


한 가지 이유는 대부분의 AI 언어 모델이 특정 유형의 언어를 지향하는 경향이 있지만 Humanizer 기술과 마찬가지로 이를 피하라는 메시지가 표시될 수도 있다는 것입니다. (때때로 OpenAI가 em 대시와의 수년간의 투쟁에서 발견했듯이 매우 어렵습니다.)


또한 인간은 챗봇과 같은 방식으로 글을 쓸 수 있습니다. 예를 들어, 이 기사에는 전문 작가가 작성했음에도 불구하고 AI 감지기를 작동시키는 "AI 작성 특성"이 포함되어 있을 가능성이 높습니다. 특히 단 하나의 엠 대시를 사용하는 경우에도 마찬가지입니다. 왜냐하면 대부분의 LLM은 웹에서 스크랩한 전문 글쓰기의 예에서 글쓰기 기술을 선택했기 때문입니다.


이러한 맥락에서 Wikipedia 가이드에는 주목할 만한 주의 사항이 있습니다. 목록에는 변경되지 않은 ChatGPT 사용에 대한 몇 가지 명백한 정보가 나와 있지만 여전히 철통같은 규칙이 아닌 관찰로 구성되어 있습니다. 해당 페이지에 인용된 2025년 사전 인쇄에서는 대규모 언어 모델을 많이 사용하는 사용자가 약 90%의 경우 AI 생성 기사를 올바르게 발견하는 것으로 나타났습니다. 10%가 거짓 긍정이라는 사실을 깨닫기 전까지는 이는 훌륭하게 들립니다. 이는 AI 슬롭을 감지하기 위해 잠재적으로 양질의 글을 버릴 만큼 충분합니다.


한발 물러서면 이는 아마도 AI 탐지 작업이 특정 문구를 표시하는 것보다 더 깊이 들어가 작업 자체의 실질적인 사실 콘텐츠를 더 깊이 조사해야 함을 의미할 수 있습니다.





PR

コメント

プロフィール

HN:
No Name Ninja
性別:
非公開

P R