忍者ブログ

mshencity

AI는 조용히 스스로를 독살하고 모델을 붕괴시키려 하지만 치료법이 있습니다.

동적 디지털 배경의 컴퓨터 휴지통 기호입니다. 빛나는 디지털 데이터 삭제 아이콘 추상 3d 그림입니다. 밝은 재활용 표지판.
iStock / Getty Images Plus를 통한 Arkadiusz Warguła

ZDNET을 팔로우하세요: 우리를 선호 소스로 추가하세요 Google에서.


ZDNET의 주요 시사점

  • AI LLM이 다른 AI로부터 "학습"하면 그 결과는 GIGO입니다.
  • AI 답변을 신뢰하려면 먼저 데이터를 검증해야 합니다.
  • 이 접근 방식에는 회사 전체의 헌신적인 노력이 필요합니다.

기술 분석가 Gartner에 따르면 AI 데이터는 사용자에게 전형적인 GIGO(Garbage In/Garbage Out) 문제로 빠르게 자리잡고 있습니다. 그 이유는 조직의 AI 시스템과 대규모 언어 모델(LLM)이 신뢰할 수 없는 검증되지 않은 AI 생성 콘텐츠로 넘쳐나기 때문입니다.

모델 축소

당신은 이것을 AI 슬롭으로 더 잘 알고 있습니다. 당신과 나에게는 짜증나는 일이지만, 가짜 데이터로 LLM을 오염시키기 때문에 AI에게는 치명적입니다. 그 결과는 AI 서클에서 "모델 붕괴(Model Collapse)"라고 불리는 것입니다. AI 회사인 AQuant는 이러한 추세를 다음과 같이 정의했습니다. "간단히 말하면 AI가 자체 출력에 대해 훈련을 받으면 결과가 현실과 더 멀어질 수 있습니다."

또한: 에이전트 AI 혁명을 이끌 4가지 새로운 역할 - 이들에게 필요한 사항은 다음과 같습니다.

그러나 나는 그 정의가 너무 친절하다고 생각한다. "할 수 있다"는 경우가 아닙니다. 잘못된 데이터로 인해 AI 결과는 현실에서 "떠날 것"입니다.

제로 트러스트

이 문제는 이미 명백합니다. Gartner는 2028년까지 조직의 50%가 데이터 거버넌스에 대한 제로 트러스트 상태를 갖게 될 것이라고 예측했습니다. 검증되지 않은 AI 생성 데이터가 기업 시스템과 공개 소스 전반에 걸쳐 확산되고 있기 때문에 이러한 기업에는 선택의 여지가 없을 것입니다.

분석가는 기업은 더 이상 데이터가 사람이 생성했거나 기본적으로 신뢰할 수 있다고 가정할 수 없으며 대신 비즈니스 및 재무 결과를 보호하기 위해 데이터 계보를 인증, 확인 및 추적해야 한다고 주장했습니다.

AI의 데이터를 인증하고 검증해 본 적이 있나요? 쉽지 않습니다. 가능하지만 AI 활용 능력은 일반적인 기술이 아닙니다.

또한: AI 기술이 있나요? 기술 관련 업무뿐만 아니라 다음 직장에서도 43% 더 많은 수익을 올릴 수 있습니다

IBM의 저명한 엔지니어인 Phaedra Boinodiris는 최근 저에게 다음과 같이 말했습니다. "데이터를 가지고 있는 것만으로는 충분하지 않습니다. 데이터의 맥락과 관계를 이해하는 것이 핵심입니다. 이것이 바로 어떤 데이터가 올바른지 누가 결정하는지에 대해 학제간 접근 방식이 필요한 이유입니다. 데이터가 우리가 서비스를 제공해야 하는 다양한 커뮤니티를 모두 대표합니까? 이 데이터가 수집된 방식의 관계를 이해합니까?"

설상가상으로 GIGO는 이제 AI 규모로 운영됩니다. 이러한 상황은 결함이 있는 입력이 자동화된 워크플로 및 의사결정 시스템을 통해 연쇄적으로 전달되어 더 나쁜 결과를 초래할 수 있음을 의미합니다. 네 맞습니다. AI 결과 편향, 환각, 단순한 사실 오류가 오늘 나쁘다고 생각한다면 내일까지 기다리세요.

이러한 우려에 대응하기 위해 Gartner는 기업이 제로 트러스트 사고 방식을 채택해야 한다고 말했습니다. 원래 네트워크용으로 개발된 제로 트러스트(Zero Trust)는 이제 AI 위험에 대응하여 데이터 거버넌스에 적용되고 있습니다.

또한: AI 에이전트 배포는 일반적인 소프트웨어 출시가 아닙니다. 참호에서 얻은 7가지 교훈

더욱 강력한 메커니즘

Gartner는 많은 기업이 데이터 소스를 인증하고, 품질을 확인하고, AI 생성 콘텐츠에 태그를 지정하고, 메타데이터를 지속적으로 관리하여 시스템이 실제로 무엇을 소비하는지 파악하기 위한 더 강력한 메커니즘이 필요하다고 제안했습니다. 분석가는 다음 단계를 제안했습니다.

  • AI 거버넌스 리더 임명: 제로 트러스트 정책, AI 위험 관리, 규정 준수 운영 등 AI 거버넌스를 담당하는 전담 역할을 설정합니다. 하지만 이 개인은 스스로 일을 할 수 없습니다. AI 지원 데이터 및 시스템이 AI 생성 콘텐츠를 처리할 수 있도록 데이터 및 분석 팀과 긴밀히 협력해야 합니다.
  • 부서간 협업 촉진: 다기능 팀에는 보안, 데이터, 분석 및 기타 관련 이해관계자가 포함되어 포괄적인 데이터 위험 평가를 수행해야 합니다. AI를 사용하는 회사 내 모든 부서의 담당자를 추가하겠습니다. 오직 사용자만이 AI로부터 정말로 필요한 것이 무엇인지 말할 수 있습니다. 이 팀의 임무는 AI로 인해 발생하는 비즈니스 위험을 식별하고 해결하는 것입니다.
  • 기존 거버넌스 정책 활용: 현재 데이터 및 분석 거버넌스 프레임워크를 기반으로 보안, 메타데이터 관리, 윤리 관련 정책을 업데이트하여 AI로 인해 생성된 데이터 위험을 해결합니다. 바퀴를 재발명하지 않고도 충분한 작업을 수행할 수 있습니다.
  • 활성 메타데이터 관행 채택: 데이터가 오래되었거나 재인증이 필요한 경우 실시간 알림을 활성화합니다. 나는 이미 오래된 데이터가 잘못된 예를 많이 보았습니다. 예를 들어, 얼마 전 여러 AI 챗봇에게 오늘날 Linux의 기본 스케줄러가 무엇인지 물었습니다. 일반적인 대답은 CFS(Completely Fair Scheduler)입니다. 예, CFS는 여전히 사용 중이지만 2023년 6.6 커널부터 EEVDF(Earliest Eligible Virtual Deadline First) 스케줄러를 위해 폐기되었습니다. 내 요점은 나처럼 Linux를 꽤 잘 아는 사람이 아닌 다른 사람은 결코 AI로부터 올바른 답을 얻을 수 없다는 것입니다.

그렇다면 AI는 2028년에도 여전히 유용할까요? 물론입니다. 그러나 그것이 유용하다는 것을 보장하고 나쁜 대답으로 가는 앵초의 길로 향하지 않도록 하려면 많은 좋은 구식 사람들이 일해야 합니다. 하지만 이 역할은 적어도 소위 AI 혁명으로 인해 생성된 새로운 직업이 될 것입니다.

PR

コメント

プロフィール

HN:
No Name Ninja
性別:
非公開

P R