기술 세계의 가장 큰 발표 중 하나이자 지구상에서 가장 큰 두 기술 회사 간의 발표는 백 단어도 안되는 짧은 공동 성명으로 요약되었습니다. Apple은 Gemini가 Siri 비서의 부활과 iPhone 및 Mac에서 AI 소프트웨어 경험을 강화할 프레임워크를 지원할 것이라고 발표했습니다.
“이러한 모델은 올해 출시될 더욱 개인화된 Siri를 포함하여 미래의 Apple Intelligence 기능을 강화하는 데 도움이 될 것입니다.”라고 회사는 말했습니다. 이는 Google에게는 큰 승리이고, Apple 기기 사용자에게는 희소식이며, Apple이 Google, Meta 또는 OpenAI와 동일한 역량으로 AI 경쟁을 이끌 수 없다는 자체 인정입니다.
글은 한동안 벽에 붙어 있었습니다. 한 단계에서 Apple은 Anthropic의 Claude와 OpenAI의 GPT 모델을 사용해 Siri를 구동하려고 시도한 것으로 알려졌습니다. 그러나 결국 회사는 Gemini의 역량을 대규모로 검증한 Google과 협력하게 되었습니다. 여러분과 저 같은 수백만 명의 iPhone 사용자에게 앞으로 어떤 일이 일어날지 자세히 살펴보겠습니다.

AI에는 간과하기 어려운 큰 딜레마가 하나 있습니다. AI 챗봇은 소셜 미디어보다 우리 삶에 더 깊이 파고듭니다. 챗봇은 이메일, 캘린더, 갤러리, 파일은 물론 일상적인 생각에도 접근할 수 있습니다. 전문가들은 이미 인간과 AI의 깊은 감정적 연결 문제가 커지는 문제를 해결하기 위해 고심하고 있습니다.
그러나 그것이 끝이 아닙니다. AI 챗봇을 소환할 때마다 데이터는 처리를 위해 회사 서버로 전송됩니다. 일부 건전한 경우에는 모델 교육이나 안전을 위해 저장되며 선택 해제할 수 없습니다. 해결책? 온디바이스 AI. 예를 들어 Gemini Nano는 휴대폰이나 PC의 로컬 실리콘에서 실행되는 온디바이스 접근 방식입니다.
어떤 데이터도 귀하의 휴대폰을 떠나지 않습니다. 하지만 속도가 느리고 성능이 좋지 않습니다. 미디어 관련 잡일이나 기타 까다로운 작업의 경우 클라우드 처리가 필수입니다. 이제 Google이 특히 그 역사를 고려하여 iPhone과 Mac에서 AI 경험을 강화하고 있으므로 준비가 되셨나요? 글쎄, Apple은 이미 이에 대한 솔루션을 보유하고 있으며 Gemini가 AI 경험을 강화할 것이므로 개인 정보 보호에 대해 매우 분명합니다.

“Apple Intelligence는 업계를 선도하는 Apple의 개인 정보 보호 표준을 유지하면서 Apple 장치 및 Private Cloud Compute에서 계속 실행될 것입니다.”라고 회사는 말합니다. 즉, 데이터와 AI 상호 작용은 맞춤형 Apple 실리콘과 회사 자체의 보안 우선 운영 체제를 사용하는 프라이빗 클라우드 컴퓨팅 서버를 통해서만 라우팅됩니다.
Apple은 “우리는 PCC가 대규모 클라우드 AI 컴퓨팅을 위해 배포된 가장 진보된 보안 아키텍처라고 믿습니다.”라고 주장합니다. PCC를 사용하면 데이터가 휴대폰에서 나가는 즉시 암호화됩니다. 그리고 할당된 작업이 완료되면 사용자 요청과 공유된 자료는 서버에서 삭제됩니다.
사용자 데이터는 보관되지 않으며 클라우드 서버에 있는 모든 데이터에 Apple이 접근할 수 없습니다. Gemini는 단순히 텍스트나 음성 명령을 처리하는 지능을 제공하는 것뿐입니다. 이후의 모든 작업은 Google로 이동하는 대신 Apple의 보안 서버에서 안전하게 처리됩니다.

Gemini를 사용한 후 Siri에게 동일한 작업을 처리하도록 요청한 경우(그리고 실패하는 경우를 본 경우) 차이점을 알 수 있습니다. 최신 Google-Apple 파트너십은 이러한 격차를 해소하고 있습니다. 그리고 더 중요한 것은 Apple이 고유한 AI 경험을 제공할 수 있는 기반을 제공한다는 것입니다.
광범위하게 기본 Gemini AI 프레임워크는 Siri와 Apple Intelligence를 향상시킵니다. 정확히 어떻게요? Apple이 단순히 복사하여 붙여넣는 작업만 수행하는 것이 아니기 때문에 이는 불분명합니다. iPhone에서 이러한 차세대 AI 기능을 추진할 때 명백한 Gemini 브랜딩을 볼 수 없을 것입니다.
애플은 단지 두뇌를 빌리고 있을 뿐이다. 신체와 행동은 일반적인 Apple 업무가 될 것입니다.
하지만 Gemini가 이미 Android 휴대폰에서 수행할 수 있는 작업과 Siri가 수행할 수 없는 작업을 비교해 보면 iPhone, iPad, Mac에서 앞으로의 발전을 맛볼 수 있습니다. 아시다시피, Apple은 단순히 Apple Intelligence 및 Siri를 위해 Gemini의 기본 AI 기술을 사용하는 것이 아닙니다. 훨씬 더 깊어집니다.

Apple은 차세대 Apple Foundation 모델에 Google의 AI 툴킷을 사용할 예정입니다. 이러한 모델을 요약, 작성 도구, 이미지 생성, 심지어 앱 간 작업과 같은 Apple Intelligence 기능을 활성화하는 비법 소스로 생각하십시오.
2024년에 출시된 이 모델은 (인터넷 연결 없이) 장치에서 로컬로 실행되거나 Apple의 클라우드 서버에서 실행될 수 있습니다. 1년 후, Apple은 더 빠르고, 미디어 처리 능력이 뛰어나고, 언어 이해도가 향상되었으며, 더 많은 언어에 대한 지원을 제공하는 업데이트 버전을 출시했습니다.
가장 큰 장점은 Foundation Models 프레임워크를 통해 개발자가 이러한 온디바이스 AI 스마트 기능을 활용하고 사용자 경험을 향상시킬 수 있다는 것입니다. Spotify를 열고 수동 작업을 수행하는 대신 Siri를 실행하여 "이번 달에 가장 많이 들은 노래로 재생 목록을 생성해 주세요"와 같은 명령을 내린다고 상상해 보세요.
아직 iPhone에서는 불가능합니다.
또 다른 약점은 Siri의 고유한 지능입니다. 기본 쿼리 이상의 질문을 할 때마다 해당 질문은 ChatGPT로 오프로드됩니다. Google Pixel 10 Pro와 같은 Android 기기에서 Gemini를 사용하면 답변이 즉시 제공되고 다른 앱에서 작업을 원활하게 실행할 수 있습니다.

예를 들어, Gemini에게 “Saba에게 WhatsApp으로 그날 수업 상태를 묻는 문자를 보내세요”라고 말하면, Gemini는 메시징 앱에서 내 여동생에게 문자를 보내서 이를 따릅니다. Google의 Workspace 앱과 서비스는 이미 잘 통합되어 있어 사용자가 음성 명령을 사용하여 Gmail, 캘린더, 드라이브 및 기타 서비스 전반에서 작업을 처리할 수 있습니다.
받은 편지함에서 여행 예약에 대한 정보 찾기, 파일 내용 조회, 달력 일정 확인 등 모든 작업을 Gemini가 수행합니다. Siri는 이러한 수준의 편리함에 근접하지 않습니다. 그리고 Gemini가 Apple을 구출하는 곳이기도 합니다.
Apple은 Gemini가 "차세대 Apple Foundation Models"를 강화할 것이라고 분명히 밝혔습니다. 이는 Siri가 현재의 로봇 상태보다 자연어 명령을 더 원활하게 이해하고 iPhone에서 작업을 처리할 수 있음을 의미합니다. 이 쌍둥이자리 뇌 이식을 통해 얻을 수 있는 이점은 많습니다.
iPhone 또는 Mac의 통합 검색 시스템이 개선되어 더욱 대화 가능해집니다. 메모, 음악, 메일 등과 같은 Apple 제품 내의 작업은 해당 앱을 열지 않고도 음성 또는 텍스트 명령으로 처리할 수 있습니다. 그리고 가장 중요한 것은 다른 앱에서도 마찬가지입니다.

App Intents를 통해 회사는 이미 타사 앱에서 작업을 수행할 수 있는 프레임워크를 갖추고 있습니다. 아직까지는 그다지 인기를 끌지 못했습니다. 아마도 사용 가능한 AI 모델이 개발자들에 의해 충분히 똑똑하다고 간주되지 않았기 때문일 것입니다. Gemini가 온디바이스 AI 작업을 지원함으로써 더 많은 개발자가 자신 있게 앱에서 대화형 AI 기반 작업을 수용하게 될 것입니다.
Siri가 여러 앱을 열지 않고도 여러 앱에서 작동한다고 상상해 보세요. iPhone에서는 이미 작동 방식을 맛볼 수 있습니다. ChatGPT 앱을 열고, 앱 커넥터를 활성화하고, 자연어 명령을 사용하여 Apple Music을 포함한 수십 개의 앱에서 작업을 수행할 수 있습니다.
하지만 주의할 점이 있습니다. 로그인을 통해 다른 앱을 ChatGPT와 연결하면 OpenAI가 귀하에 대해 더 많이 알게 됩니다. 내장된 OS 수준 프레임워크를 사용하여 동일한 작업을 실행하면 이론적으로 개인 정보 보호 위험이 더 적습니다. 또한 전체 작업 흐름이 더욱 원활해집니다.
애플은 다른 많은 방법으로 구글의 제미니(Gemini) 전략을 흉내낼 수 있다. 자체 앱에 Siri를 배포하기만 하면 되지만, Copilot, Alexa+, 그리고 Gemini 자체에서 본 무의미한 벼락치기보다 덜 방해적인 방식과 더 사려 깊은 방식으로 배포하면 됩니다. Apple은 이 부분에 능숙하며, 올해 말에 Apple의 AI 비전이 펼쳐지는 것을 보게 되어 매우 기쁩니다.
Apple은 Google 서비스를 통해 Android와 웹 전반에 걸쳐 Gemini의 실행을 통해 간단히 배울 수 있는 것이 많습니다. 이제 Gemini의 두뇌를 손에 넣었으므로 Apple 특유의 방식으로 자체 앱과 서비스 내에서 이를 수정하고 통합할 수 있습니다.
가장 큰 질문은 이미 Apple Intelligence의 핵심인 ChatGPT가 어떻게 되는가 하는 것입니다. 우리는 앞으로 몇 달 안에 더 많은 것을 알게 될 것이며, 6월에 열리는 Apple의 다음 개발자 컨퍼런스에서 더 많은 것을 알게 될 것입니다. 하지만 지금으로서는 Siri(및 Apple 하드웨어의 AI)의 미래가 저와 여러분 같은 일반 사용자에게 그 어느 때보다 밝아 보입니다!