
ZDNET을 팔로우하세요: 우리를 선호 소스로 추가하세요 Google에서.
기술 분석가 Gartner에 따르면 AI 데이터는 사용자에게 전형적인 GIGO(Garbage In/Garbage Out) 문제로 빠르게 자리잡고 있습니다. 그 이유는 조직의 AI 시스템과 대규모 언어 모델(LLM)이 신뢰할 수 없는 검증되지 않은 AI 생성 콘텐츠로 넘쳐나기 때문입니다.
당신은 이것을 AI 슬롭으로 더 잘 알고 있습니다. 당신과 나에게는 짜증나는 일이지만, 가짜 데이터로 LLM을 오염시키기 때문에 AI에게는 치명적입니다. 그 결과는 AI 서클에서 "모델 붕괴(Model Collapse)"라고 불리는 것입니다. AI 회사인 AQuant는 이러한 추세를 다음과 같이 정의했습니다. "간단히 말하면 AI가 자체 출력에 대해 훈련을 받으면 결과가 현실과 더 멀어질 수 있습니다."
또한: 에이전트 AI 혁명을 이끌 4가지 새로운 역할 - 이들에게 필요한 사항은 다음과 같습니다.
그러나 나는 그 정의가 너무 친절하다고 생각한다. "할 수 있다"는 경우가 아닙니다. 잘못된 데이터로 인해 AI 결과는 현실에서 "떠날 것"입니다.
이 문제는 이미 명백합니다. Gartner는 2028년까지 조직의 50%가 데이터 거버넌스에 대한 제로 트러스트 상태를 갖게 될 것이라고 예측했습니다. 검증되지 않은 AI 생성 데이터가 기업 시스템과 공개 소스 전반에 걸쳐 확산되고 있기 때문에 이러한 기업에는 선택의 여지가 없을 것입니다.
분석가는 기업은 더 이상 데이터가 사람이 생성했거나 기본적으로 신뢰할 수 있다고 가정할 수 없으며 대신 비즈니스 및 재무 결과를 보호하기 위해 데이터 계보를 인증, 확인 및 추적해야 한다고 주장했습니다.
AI의 데이터를 인증하고 검증해 본 적이 있나요? 쉽지 않습니다. 가능하지만 AI 활용 능력은 일반적인 기술이 아닙니다.
또한: AI 기술이 있나요? 기술 관련 업무뿐만 아니라 다음 직장에서도 43% 더 많은 수익을 올릴 수 있습니다
IBM의 저명한 엔지니어인 Phaedra Boinodiris는 최근 저에게 다음과 같이 말했습니다. "데이터를 가지고 있는 것만으로는 충분하지 않습니다. 데이터의 맥락과 관계를 이해하는 것이 핵심입니다. 이것이 바로 어떤 데이터가 올바른지 누가 결정하는지에 대해 학제간 접근 방식이 필요한 이유입니다. 데이터가 우리가 서비스를 제공해야 하는 다양한 커뮤니티를 모두 대표합니까? 이 데이터가 수집된 방식의 관계를 이해합니까?"
설상가상으로 GIGO는 이제 AI 규모로 운영됩니다. 이러한 상황은 결함이 있는 입력이 자동화된 워크플로 및 의사결정 시스템을 통해 연쇄적으로 전달되어 더 나쁜 결과를 초래할 수 있음을 의미합니다. 네 맞습니다. AI 결과 편향, 환각, 단순한 사실 오류가 오늘 나쁘다고 생각한다면 내일까지 기다리세요.
이러한 우려에 대응하기 위해 Gartner는 기업이 제로 트러스트 사고 방식을 채택해야 한다고 말했습니다. 원래 네트워크용으로 개발된 제로 트러스트(Zero Trust)는 이제 AI 위험에 대응하여 데이터 거버넌스에 적용되고 있습니다.
또한: AI 에이전트 배포는 일반적인 소프트웨어 출시가 아닙니다. 참호에서 얻은 7가지 교훈
Gartner는 많은 기업이 데이터 소스를 인증하고, 품질을 확인하고, AI 생성 콘텐츠에 태그를 지정하고, 메타데이터를 지속적으로 관리하여 시스템이 실제로 무엇을 소비하는지 파악하기 위한 더 강력한 메커니즘이 필요하다고 제안했습니다. 분석가는 다음 단계를 제안했습니다.
그렇다면 AI는 2028년에도 여전히 유용할까요? 물론입니다. 그러나 그것이 유용하다는 것을 보장하고 나쁜 대답으로 가는 앵초의 길로 향하지 않도록 하려면 많은 좋은 구식 사람들이 일해야 합니다. 하지만 이 역할은 적어도 소위 AI 혁명으로 인해 생성된 새로운 직업이 될 것입니다.