우리는 모두 거기에 있었습니다. 옆구리에 이상한 통증이 느껴지거나 의사로부터 혼란스러운 검사 결과를 받고, 가장 먼저 하는 일은 구글을 여는 것입니다. 당신은 의학 학위를 찾고 있는 것이 아닙니다. 당신은 "나는 괜찮아? "라는 빠른 대답을 원합니다. 그러나 최근 구글은 로봇에게 의학적 조언을 요청하는 것이 실제로 위험할 수 있기 때문에 AI 검색 요약에 브레이크를 걸어야 했습니다.
Google은 조사 결과 부정확하고 솔직히 무서운 정보를 제공하고 있다는 사실이 밝혀진 후 AI가 생성한 여러 건강 요약을 검색 결과에서 조용히 삭제했습니다. 이 모든 것은 The Guardian의 보고서에서 "AI 개요"(검색 상단에 나타나는 다채로운 상자)가 불완전한 데이터를 제공하고 있다는 점을 지적한 이후 시작되었습니다.
AI에게 "정상 범위"를 요청하면 숫자 목록만 뱉어낼 것입니다. 당신이 남자인지 여자인지 묻지 않았습니다. 나이, 민족, 병력 등은 묻지 않았습니다. 그것은 단지 평평한 번호를 제공했습니다. 의료 전문가들은 이를 보고 기본적으로 “이건 위험하다”고 말했다.

여기서 문제는 단지 AI가 틀렸다는 것이 아닙니다. 그것은 위험할 정도로 오해를 불러일으켰다는 것입니다. 초기 간 질환을 앓고 있는 사람이 검사 결과를 조회한다고 상상해 보십시오. AI는 그들의 숫자가 임의의 웹사이트에서 긁어온 "정상" 범위 내에 속한다고 말합니다. 그 사람은 '아, 그럼 괜찮지'라고 생각하고 후속 약속을 건너뛸 수도 있습니다. 실제로 20세에게는 "정상적인" 숫자가 50세에게는 경고 신호일 수 있습니다. AI는 이를 알 수 있는 뉘앙스가 부족하며, 맥락의 차이는 실제 세계에서 심각한 결과를 초래할 수 있습니다.
Google의 응답은 매우 표준적이었습니다. 그들은 표시된 특정 검색어를 삭제하고 자사 시스템이 일반적으로 도움이 된다고 주장했습니다. 그러나 여기에 중요한 점이 있습니다. British Liver Trust와 같은 의료 기관은 질문을 조금만 바꿔도 똑같은 나쁜 정보가 바로 다시 나타난다는 사실을 발견했습니다. 디지털 두더지 잡기 게임과 같습니다. 오류 하나를 수정하면 AI가 5초 후에 새로운 오류를 생성합니다.
이러한 AI 요약은 병원이나 의학 저널에 대한 실제 링크 바로 위에 있는 페이지 상단에 위치하기 때문에 권위 있는 느낌을 줍니다. 우리는 최고의 결과를 신뢰하도록 훈련받았습니다. Google이 깔끔한 작은 상자에 답을 제시하면 우리의 뇌는 무의식적으로 그것을 '정확한' 답으로 간주합니다. 하지만 그렇지 않습니다. 이는 다음에 어떤 단어가 나올지 추측하는 예측 엔진일 뿐입니다.

현재로서는 이는 엄청난 경각심을 불러일으키는 신호입니다. AI는 이메일을 요약하거나 여행 일정을 계획하는 데는 훌륭하지만 건강에 관해서는 아직 최적의 상태가 아닙니다. 이러한 시스템이 상황을 이해할 수 있을 때까지 또는 Google이 더 엄격한 가드레일을 마련할 때까지 로봇을 지나서 실제 의사의 실제 링크를 클릭하는 것이 더 안전할 것입니다. 속도는 좋지만 건강에 관해 이야기할 때 중요한 것은 정확성뿐입니다.