忍者ブログ

mshencity

나는 수십 년 동안 AI를 연구해왔습니다. 왜 챗봇에게 예의를 갖춰야 하는지(그리고 AI를 위한 것이 아닙니다)

행복한 AI 개념
akinbostanci/E+/Getty 이미지

ZDNET을 팔로우하세요: 우리를 선호 소스로 추가하세요 Google에서.


ZDNET의 주요 시사점

  • AI와 대화하는 방식에 따라 사람들을 대하는 방식이 달라질 수 있습니다.
  • 기계에 대한 무례함은 명령 기반 동작을 표준화할 수 있습니다.
  • AI에 대한 공손함은 실제로 자기 훈련과 웰빙에 관한 것입니다.

2018년 매사추세츠주 린의 엄마인 로렌 존슨(Lauren Johnson)은 당시 6살짜리 아이 알렉사(Alexa)를 두고 알렉사는 인간(Alexa is a human)이라는 웹사이트를 만들었습니다.

이에 대해 그녀는 "당신의 아이가 괴롭힘을 당하고 있는데 당신이 그들을 도울 수 없다고 상상해 보세요. 괴롭힘이 학교, 집, 자동차, 상점에서 계속되고 안전한 곳을 찾을 수 없다고 상상해 보세요. 그것이 완전히 낯선 사람이 공공장소에서 계속해서 당신의 아이를 괴롭히는 것으로 진화한다고 상상해보세요. 상상해 보세요. 우리는 그럴 필요가 없습니다."라고 말합니다.

매사추세츠의 작은 알렉사는 혼자가 아닙니다. Alexa Juliana Ard가 쓴 2021년 Washington Post 기사(현재는 대부분 Juliana로 통함)에서는 Alexa라는 이름의 사람들이 어떻게 모욕을 당하고, 비하적인 발언을 하고, 하인으로 대우받고, 심지어 사무실의 Alexa 장치를 방해하지 않기 위해 고용주로부터 이름을 변경해야 하는지를 조명했습니다.

명령의 정규화

사람들은 인간 알렉사를 로봇처럼 대할 뿐만 아니라 과학자들이 "명령의 정규화"라고 부르는 것을 배우고 있습니다.

또한: 내가 사용하는 10가지 ChatGPT 프롬프트 요령 - 최상의 결과를 더 빠르게 얻기 위해

케임브리지 대학 임상의과대학 연구원들은 유아기 발달 과정에서 알렉사와 같은 AI 음성 비서와 상호 작용하면 아이들이 명령에 익숙해지는 공손함과 공감 능력이 부족해지는 것을 허용한다고 보고합니다.

즉, 기술 투자자 Hunter Walk가 설명했듯이 "Amazon Echo는 마법입니다. 또한 내 아이를 멍청이로 만들고 있습니다."

본질적으로 이러한 AI 비서가 기계라는 사실은 그들에게 무례하게 행동해도 괜찮습니다. 그들은 무례한 행동이 정당화될 만큼 때때로 충분히 실망스럽습니다. 그러나 다른 의미도 있습니다.

예를 들어, 팬데믹 이전에 발표된 유네스코(유엔 교육 과학 문화 기구) 보고서는 AI 보조원의 여성 기반 정체성 확산이 "성 편견을 강화하고 사용자가 여성 개체를 종속적인 존재로 취급하도록 장려"하는 방법을 보여줍니다.

온라인 탈억제 효과

그러나 이러한 행동은 인간과 AI 사이에만 국한되지 않습니다. 2004년 초에 심리학자 John Suler는 CyberPsychology & Behavior 저널에 "온라인 억제 효과"라는 제목의 논문을 발표했습니다.

그 책에서 그는 사람들이 대면 상호작용할 때와 온라인에서 다르게 행동하는 이유를 살펴보았습니다. 그는 익명성, 비가시성, 즉각적인 사회적 결과의 부족과 같은 요인이 심리적 제약을 감소시키고 사람들에게 더 적대적이거나 무례하게 행동해도 괜찮다는 느낌을 준다고 주장합니다.

이제 Siri 및 Alexa와 같은 명령 및 응답 보조자뿐만 아니라 ChatGPT와 같은 완전한 챗봇과 Claude Code와 같은 에이전트 AI 도구가 있는 현재로 확대해 보겠습니다. 여기서 온라인 탈억제 효과가 꽃피울 수 있습니다.

이것에 대한 나의 관심은 실제로 우리가 AI와 대화하는 방법에 관한 것이 아닙니다. 오히려 AI와 대화하는 것이 우리가 전반적으로 의사소통할 때 수행하도록 조건화하는 것에 관한 것입니다.

오버턴 창

오버톤 창(Overton Window)은 원래 1990년대 중반 맥키노 공공 정책 센터의 Joseph P. Overton이 설명한 정치적, 심리학적 개념입니다. 이는 원래 대중이 받아들일 수 있다고 생각하는 아이디어의 범위를 설명하기 위해 제시되었으며, 따라서 정치인이 홍보해도 안전합니다.

그러나 시간이 지남에 따라 Overton Window는 정치 관련이든 아니든 우리가 편안하게 느끼는 범위가 어떻게 확대되거나 축소되는지 설명하는 데 사용되었습니다. 창이 확장됨에 따라 과거에 우리가 불편했던 행동이나 개념이 이제는 평범하고 수용 가능한 것이 되었습니다.

또한: 더 나은 ChatGPT 응답을 원하시나요? 연구자들은 이 놀라운 트릭을 시도해 보세요.

내 관심사이자 이 기사의 원동력은 우리가 AI와 행동하고 상호 작용하는 방식이 우리가 다른 인간과 행동하고 상호 작용하는 방식에 영향을 미칠 수 있다는 것입니다. 결국, 챗봇과 채팅하는 경험은 Slack을 통해 동료, 고객, 상사와 채팅하는 경험과 크게 다르지 않습니다.

저는 작년에 ChatGPT가 정말 실망스러운 토끼 굴에 빠졌을 때 냉정함을 잃었습니다. 나는 그 경험이 자랑스럽지 않습니다. 나는 동료에게 결코 하지 않기를 바라는 방식으로 욕설을 사용하고 AI에 대한 짜증을 표현했습니다. 사실, 이 글의 나머지 부분에서 제가 탐구할 행동 관행에 영감을 준 것은 바로 그 경험이었습니다.

나는 왜 항상 AI에게 예의를 갖추는가

내 우려는 명령의 정규화와 AI를 통해 정기적으로 실행되는 온라인 억제 효과의 조합이 연습된 행동의 Overton Window를 확장하여 내가 다른 인간과 행동하는 방식에 누출될 수 있다는 것입니다.

나는 내 AI에게 무례하게 행동하는 것이 정상적이거나 허용되는 지점까지 익숙해지고 싶지 않습니다. 더 중요한 것은, 나는 내가 상호 작용하는 인간에 대해 예의바르고 존중하며 친절하게 대하는 습관을 유지하고 싶고, 이를 유지하는 가장 쉬운 방법은 로봇에게도 같은 방식으로 행동하는 것입니다.

또한: 4년 간의 제품 개발을 4일 만에 200달러에 완료했지만 여전히 놀랍습니다.

동료에게 예의를 갖추는 것과 AI에게 요구하는 것 사이의 상황 전환은 충분히 쉬울 것 같습니다. 그러나 너무 많은 결정을 내리면 정신적, 정서적으로 지치게 되는 결정 피로와 마찬가지로 AI와 인간 컨텍스트 간의 컨텍스트 전환도 부담스러울 수 있습니다.

나는 지금 내 고객과 이야기하고 있고 예의바르게 행동해야 한다는 사실을 기억해야 하는 정신적 부담(및 행동 위험)을 추가하고 싶지 않습니다. vs. 지금은 AI와 이야기하고 있으며 내가 참았던 괴로움을 풀어줄 수 있습니다.

또한: Claude Code는 6개월 만에 10억 달러라는 놀라운 수익을 올렸습니다. 내 AI 코딩 iPhone 앱이 그 이유를 보여줍니다.

내가 AI에게 항상 예의를 갖추려고 노력하는 또 다른 이유는 AI를 다른 팀원으로 대하는 공동 조사의 사고방식을 유지하기 때문입니다. 저는 OpenAI Codex와 함께 이러한 접근 방식을 사용하여 4개의 강력한 WordPress 보안 플러그인을 만들고 Claude Code를 사용하여 3D 프린터 필라멘트 재고 및 작업 흐름을 관리하기 위한 복잡하고 독특한 iPhone 앱을 구축하는 데 엄청난 성공을 거두었습니다.

게다가, 괴팍함은 그 자체로 정신적 피해를 줍니다. 이는 불안 증가, 우울증, 자존감 저하, 집중력 저하, 정서적 피로, 삶의 만족도 저하, 심지어 두통, 피로, 불면증, 고혈압 및 면역체계 약화와 같은 신체적 증상까지 초래할 수 있습니다.

사람과 함께 있든 AI와 함께 있든 침착함을 유지하고 계속해서 나아가는 것이 내 정신적, 육체적 건강에 더 좋습니다. 무감각한 기계에 대한 약간의 공손함이 나를 온전하고 건강하게 유지하는 데 도움이 된다면, 사랑하지 않을 것이 어디 있겠습니까?

하지만 AI가 신경쓰나요?

AI 도구를 정중하게 대하면 성능 특성이 달라지나요? 연구는 동의하지 않습니다. 이 기사의 전제에 대한 혼란스러운 요인으로 ZDNET의 Lance Whitney는 Penn State University 연구원이 수행한 연구에 대해 썼습니다. 이는 일부 AI가 더 무례하게 대화할 때 어떻게 더 정확할 수 있는지 보여줍니다.

한편, 도쿄 와세다 대학 연구원들이 2024년 자연어 처리의 경험적 방법에 관한 컨퍼런스에서 발표한 연구에 따르면 적당한 공손함이 때때로 AI 준수 및 효율성을 높일 수 있다는 사실이 밝혀졌습니다. 그러나 연구자들은 지나치게 공손하고 아첨하는 태도가 더 부정적인 결과를 초래할 수 있다고 경고합니다.

마지막으로 New York Times는 OpenAI의 CEO인 Sam Altman이 일부 사람들이 AI 채팅에서 "부탁합니다"와 "감사합니다"를 사용하기 때문에 회사에 수백만 달러의 비용이 발생한다고 말했다고 보도했습니다. 이는 모든 단일 토큰에 상당한 처리 부하가 있기 때문입니다. 추가된 부하로 인해 추가 전력 및 수자원 사용이 발생할 수 있습니다.

AI에게 해적처럼 말하도록 요청하는 리소스 사용량이 마음에 든다면 인간을 유지하기 위해 전력과 물을 조금 더 사용해도 괜찮을 것 같습니다.

사람에 관한 것입니다

내 실제 결론은 실제로 AI 리소스 활용이나 AI의 성능과는 아무런 관련이 없습니다. 내 결론은 AI와 대화할 때 항상 예의바르게 행동하고 싶다는 것입니다. 왜냐하면 그것이 다른 인간과의 관계, 개인적인 인지 능력, 전반적인 웰빙에 더 좋기 때문입니다.

결론: AI에 대한 예의는 AI에 관한 것이 아닙니다. 사람에 관한 것입니다. 에이번의 음유시인(The Bard of Avon)이 쓴 것처럼, "무엇보다도 이것은 당신 자신에게 진실되어야 하며, 밤낮처럼 당신은 누구에게도 거짓이 될 수 없습니다."

당신은 어때요? AI 도구와 상호작용할 때 자신이 예의바르거나 무뚝뚝하다고 생각하시나요? 그로 인해 다른 곳의 사람들과 소통하는 방식이 바뀌었나요? 챗봇이나 음성비서로 형성된 습관이 직장, 가족, 온라인 대화에 파급될까 봐 걱정되시나요?

자녀가 있는 경우 명령 기반 도우미를 사용하여 자녀에게 무엇을 가르칠 수 있는지 생각해 보셨나요? AI에 참여하는 방식에 따라 집중력, 기분, 생산성에 차이가 있다는 것을 느끼셨나요? 그리고 공손함이 실제 자원 비용을 발생시킨다는 생각이 당신이 그것에 대해 생각하는 방식을 바꾸나요? 아래 댓글을 통해 알려주세요.


소셜 미디어에서 저의 일상적인 프로젝트 업데이트를 팔로우하실 수 있습니다. 내 주간 업데이트 뉴스레터를 구독하고 Twitter/X에서 나를 팔로우하세요. @DavidGewirtzFacebook(Facebook.com/DavidGewirtz), Instagram(Instagram.com/DavidGewirtz), Bluesky(@DavidGewirtz.com), YouTube(YouTube.com/DavidGewirtzTV).

PR

コメント

プロフィール

HN:
No Name Ninja
性別:
非公開

P R