모든 AI 워크로드를 위한 확장 가능하며 비용 효율적인 고성능 인프라를 제공합니다.
고성능 학습부터 저비용의 추론까지 모든 사용 사례에 적합한 AI 가속기
Google Kubernetes Engine 또는 Google Compute Engine에서 GPU와 TPU로 더욱 빠르게 확장
Vertex AI, Google Kubernetes Engine, Cloud HPC Toolkit용 배포 가능한 솔루션
AI Hypercomputer 아키텍처를 배포하여 AI 인프라를 최대한 활용하세요.
이점
Google Cloud를 사용하면 GPU, TPU 또는 CPU 중에서 선택하여 고성능 학습, 저비용 추론, 대규모 데이터 처리를 포함한 다양한 사용 사례를 지원할 수 있습니다.
Vertex AI에서 제공하는 관리형 인프라를 사용하여 더 빠르고 효율적으로 확장하세요. ML 환경을 빠르게 설정하고, 조정을 자동화하며, 대규모 클러스터를 관리하고, 지연 시간이 짧은 애플리케이션을 설정할 수 있습니다.
GKE를 활용하여 대규모 워크로드를 관리하여 AI 개발 생산성을 개선합니다. 자동 확장, 워크로드 조정, 자동 업그레이드를 지원하여 기반 모델을 학습시키고 서빙할 수 있습니다.
주요 특징
Cloud TPU와 Cloud GPU로 대규모 AI 워크로드를 조정하려면 지금까지는 장애, 로깅, 모니터링, 기타 기본 작업을 처리하기 위한 수동 작업이 필요했습니다. 확장성이 가장 높은 완전 관리형 Kubernetes 서비스인 Google Kubernetes Engine(GKE)은 TPU와 GPU를 운영하는 데 필요한 작업을 크게 간소화해 줍니다. GKE를 활용하여 Cloud TPU 및 Cloud GPU에서 대규모 AI 워크로드 조정을 관리하면 AI 개발 생산성이 향상됩니다.
관리형 서비스를 통해 인프라를 간단하게 추상화하려는 조직을 위해 Vertex AI는 이제 Cloud TPU와 Cloud GPU를 사용하여 다양한 프레임워크와 라이브러리를 사용한 학습을 지원합니다.
Google은 수십억 사용자가 이용하고 있는 YouTube, Gmail, Google 지도, Google Play, Android 등의 Google 제품에 필요한 글로벌 규모와 성능을 제공하기 위해 AI에 최적화된 인프라를 구축했습니다. Google의 AI 인프라 솔루션은 모두 고강도 AI 워크로드에 이르기까지 기반 서비스를 위한 업계 최고 수준의 수평 확장 기능을 지원하는 Google Cloud의 Jupiter 데이터 센터 네트워크를 기반으로 합니다.
Google은 수십 년에 걸쳐 TensorFlow 및 JAX와 같은 중대한 AI 프로젝트에 기여해 왔습니다. PyTorch Foundation을 공동 설립했으며 최근에는 업계의 새로운 컨소시엄인 OpenXLA 프로젝트를 발표했습니다. 또한 Google은 CNCF 오픈소스의 선도적인 참여 기업으로서 20년 이상 TFX, MLIR, OpenXLA, KubeFlow, Kubernetes와 같은 OSS에 기여해 왔으며 Project Jupyter 및 NumFOCverteUS와 같은 데이터 과학 커뮤니티에 중요한 OSS 프로젝트를 후원하고 있습니다.
또한 Google의 AI 인프라 서비스는 TensorFlow, PyTorch, MXNet과 같이 가장 널리 사용되는 AI 프레임워크가 포함되어 있어 고객이 특정 프레임워크 또는 하드웨어 아키텍처에 얽매이지 않고 원하는 프레임워크를 계속 사용할 수 있습니다.
고객
AI가 업계 전반에 걸쳐 혁신의 문을 열어주면서 많은 기업들이 Google의 개방적이고 유연하며 성능이 우수한 인프라를 활용하기 위해 Google Cloud를 선택하고 있습니다.
새로운 소식
문서
사용 사례
Cloud TPU 멀티슬라이스 학습은 수만 개의 TPU 칩에서 빠르고 쉬우며 안정적인 대규모 AI 모델 학습을 지원하는 풀 스택 기술입니다.
Google Cloud의 오픈 소프트웨어 생태계를 사용하면 가장 익숙한 도구와 프레임워크로 애플리케이션을 빌드하는 동시에 AI Hypercomputer 아키텍처의 가격 대비 성능 이점을 활용할 수 있습니다.
Cloud TPU v5e 및 NVIDIA L4 GPU는 최신 LLM 및 생성형 AI 모델을 비롯한 다양한 AI 워크로드에 비용 효율적인 고성능 추론을 지원합니다. 두 가지 모두 이전 모델에 비해 현저히 개선된 가격 대비 성능을 제공하며 Google Cloud의 AI Hypercomputer 아키텍처를 통해 고객은 배포를 업계 최고의 수준으로 확장할 수 있습니다.
Cloud AI 제품은 SLA 정책을 준수하며 지연 시간이나 가용성 보장 측면에서 여타 Google Cloud 서비스와는 차이가 있을 수 있습니다.