
ZDNET을 팔로우하세요: 우리를 선호 소스로 추가하세요 Google에서.
지난 몇 년은 Nvidia에게 엄청난 시간이었습니다. 생성 AI가 대유행했을 때 기업과 개발자가 대규모 언어 모델(LLM)을 훈련하기 위해 그래픽 카드를 찾기 위해 노력하면서 거대 기술 기업의 하드웨어에 대한 수요가 급증했습니다. CES 2026 동안 Nvidia는 AI 공간의 최신 혁신 기술인 Rubin 플랫폼을 공개하기 위해 기자 회견을 열었습니다.
또한: CES 2026 라이브 업데이트: 지금까지 본 가장 큰 TV, 스마트 안경, 전화 뉴스 등
Nvidia는 이 기술이 무엇을 할 수 있는지 발표했는데, 모두 꽤 밀도가 높기 때문에 간결하게 설명하기 위해 하이라이트에만 집중하겠습니다.
Rubin은 "최저 비용으로 세계 최대 규모의 최첨단 AI 시스템을 구축, 배포 및 보호"할 수 있도록 설계된 AI 슈퍼컴퓨팅 플랫폼입니다. Nvidia에 따르면 이 플랫폼은 추론 토큰 비용을 최대 10배 절감할 수 있으며 이전 Blackwell 플랫폼에 비해 전문가 혼합(MoE) 모델을 훈련하는 데 필요한 그래픽 카드가 4배 더 적습니다.
Nvidia Rubin에 대해 생각하는 가장 쉬운 방법은 Blackwell을 상상하는 것이지만 훨씬 더 큰 규모입니다.
Rubin의 목표는 특히 소비자 공간에서 고급 AI 모델의 주류 채택을 가속화하는 것입니다. LLM의 광범위한 채택을 방해하는 가장 큰 장애물 중 하나는 비용입니다. 모델이 더 커지고 복잡해짐에 따라 모델을 훈련하고 지원하는 데 필요한 하드웨어와 인프라는 천문학적으로 비싸집니다. Nvidia는 Rubin을 통해 이러한 토큰 비용을 대폭 절감함으로써 대규모 AI 배포를 보다 실용적으로 만들기를 희망합니다.
또한: Nvidia의 물리적 AI 모델은 차세대 로봇의 길을 열어줍니다. 새로운 기능은 다음과 같습니다.
엔비디아는 루빈 플랫폼을 개발할 때 '극단적인 공동 설계' 접근 방식을 사용해 6개의 통합 칩으로 구성된 단일 AI 슈퍼컴퓨터를 만들었다고 밝혔습니다. 그 중심에는 대규모 AI 공장을 위한 에너지 효율적인 프로세서인 Nvidia Vera CPU가 있으며, 88개의 맞춤형 Olympus 코어, 완전한 Armv9.2 호환성 및 빠른 NVLink-C2C 연결을 통해 고성능을 제공합니다.
CPU와 함께 작동하는 Nvidia Rubin GPU는 플랫폼의 주요 작업 도구 역할을 합니다. 3세대 Transform Engine을 탑재하여 최대 50페타플롭스의 NVFP4 컴퓨팅 성능을 제공할 수 있습니다. Nvidia NVLink 6 스위치는 모든 것을 함께 연결하여 초고속 GPU 간 통신을 가능하게 합니다. Nvidia의 ConnectX-9 SuperNIC는 고속 네트워킹을 처리하는 반면 Bluefield-4 DPU는 CPU와 GPU의 작업 부하 일부를 오프로드하여 AI 모델에 더 집중합니다.
모든 것을 마무리하는 것은 AI 데이터 센터에 차세대 네트워킹을 제공하는 회사의 Spectrum-6 이더넷 스위치입니다.
또한: CES 2026에서 가장 흥미로운 AI 웨어러블은 결국 스마트 안경이 아닐 수도 있습니다.
Rubin은 Nvidia Vera Rubin NVL72와 같은 다양한 구성으로 제공됩니다. 이는 36개의 Nvidia Vera CPU, 72개의 Nvidia Rubin GPU, Nvidia NVLink 6 스위치, 여러 개의 Nvidia ConnectX-9 SuperNIC 및 Nvidia BlueField-4 DPU를 결합합니다.
모든 뉴스에 따르면 이러한 슈퍼컴퓨팅 플랫폼은 일반 사람들이 Best Buy에서 구입할 수 있는 것이 아닐 것 같습니다. Nvidia는 이러한 Rubin 플랫폼 중 첫 번째 플랫폼이 2026년 하반기에 파트너에게 출시될 것이라고 말했습니다. 첫 번째 플랫폼에는 Amazon Web Services, Google Cloud 및 Microsoft가 있습니다. Nvidia의 도박이 성과를 거두면 이러한 컴퓨터는 규모를 훨씬 더 관리하기 쉬운 AI 컴퓨팅의 새로운 시대를 열 수 있습니다.