Infrastruktur yang skalabel, berperforma tinggi, dan hemat biaya untuk setiap workload AI.
Akselerator AI untuk setiap kasus penggunaan, mulai dari pelatihan berperforma tinggi hingga inferensi hemat biaya
Menskalakan lebih cepat dengan GPU dan TPU di Google Kubernetes Engine atau Google Compute Engine
Solusi yang dapat di-deploy untuk Vertex AI, Google Kubernetes Engine, dan Cloud HPC Toolkit
Dapatkan manfaat maksimal dari Infrastruktur AI kami dengan men-deploy arsitektur Hyperkomputer AI
Manfaat
Dengan Google Cloud, Anda dapat memilih GPU, TPU, atau CPU untuk mendukung berbagai kasus penggunaan termasuk pelatihan performa tinggi, inferensi biaya rendah, dan pemrosesan data berskala besar.
Penskalaan lebih cepat dan lebih efisien dengan infrastruktur terkelola yang disediakan oleh Vertex AI. Siapkan lingkungan ML dengan cepat, otomatiskan orkestrasi, kelola cluster besar, dan siapkan aplikasi latensi rendah.
Tingkatkan produktivitas pengembangan AI dengan memanfaatkan GKE untuk mengelola workload berskala besar. Latih dan layani model fondasi dengan dukungan untuk penskalaan otomatis, orkestrasi workload, dan upgrade otomatis.
Fitur utama
Tidak ada satu strategi standar jika berkaitan dengan beban kerja AI. Itulah sebabnya bersama partner hardware industri kami, seperti NVIDIA, Intel, AMD, Arm, dan banyak lagi, kami menyediakan berbagai opsi komputasi yang dioptimalkan AI untuk pelanggan di seluruh TPU, GPU, dan CPU untuk melatih dan menyalurkan model yang paling intensif data.
Mengorkestrasi workload AI berskala besar dengan Cloud TPU dan Cloud GPU secara historis memerlukan upaya manual untuk menangani kegagalan, logging, pemantauan, dan operasi dasar lainnya. Google Kubernetes Engine (GKE), layanan Kubernetes yang paling skalabel dan terkelola sepenuhnya, sangat menyederhanakan pekerjaan yang diperlukan untuk mengoperasikan TPU dan GPU. Memanfaatkan GKE untuk mengelola orkestrasi beban kerja AI berskala besar di Cloud TPU dan Cloud GPU meningkatkan produktivitas pengembangan AI.
Dan bagi organisasi yang lebih suka memisahkan infrastruktur melalui layanan terkelola, Vertex AI kini mendukung pelatihan dengan berbagai framework dan library menggunakan Cloud TPU dan Cloud GPU.
Infrastruktur kami yang dioptimalkan AI dirancang untuk memberikan performa dan skala global yang diperlukan oleh produk Google seperti YouTube, Gmail, Google Maps, Google Play, dan Android yang melayani miliaran pengguna. Semua solusi infrastruktur AI kami didukung oleh jaringan pusat data Jupiter Google Cloud yang mendukung kemampuan penyebaran skala terbaik di industri untuk layanan dasar, hingga workload AI dengan intensitas tinggi.
Selama beberapa dekade, kami telah berkontribusi terhadap project AI penting seperti TensorFlow dan JAX. Kami ikut mendirikan PyTorch Foundation dan baru-baru ini mengumumkan sebuah konsorsium industri baru, yakni project OpenXLA. Selain itu, Google adalah kontributor Open Source CNCF terkemuka, dan sudah memiliki lebih dari 20 tahun kontribusi OSS seperti TFX, MLIR, OpenXLA, KubeFlow, dan Kubernetes, serta sponsor dari project OSS yang penting bagi komunitas data science, seperti Project Jupyter dan NumFOCverteUS.
Selain itu, layanan infrastruktur AI kami disematkan dengan framework AI paling populer seperti TensorFlow, PyTorch, dan MXNet, sehingga pelanggan dapat terus menggunakan framework mana pun yang mereka inginkan, dan tidak terbatas pada framework/atau arsitektur hardware tertentu.
Pelanggan
Saat AI membuka pintu inovasi di berbagai industri, perusahaan memilih Google Cloud untuk memanfaatkan infrastruktur kami yang terbuka, fleksibel, dan berperforma tinggi.
Yang baru
Dokumentasi
Kasus penggunaan
Pelatihan Cloud TPU Multislice adalah teknologi full-stack yang memungkinkan pelatihan model AI skala besar yang cepat, mudah, dan andal di puluhan ribu chip TPU.
Ekosistem software terbuka Google Cloud memungkinkan Anda membangun aplikasi dengan alat dan framework yang paling sesuai bagi Anda, sekaligus memanfaatkan keunggulan harga-performa dari arsitektur Hyperkomputer AI.
Cloud TPU v5e dan GPU NVIDIA L4 memungkinkan inferensi berperforma tinggi dan hemat biaya untuk berbagai workload AI, termasuk model LLM dan AI Generatif terbaru. Keduanya menawarkan peningkatan performa harga yang signifikan dibandingkan model sebelumnya dan arsitektur Hyperkomputer AI Google Cloud memungkinkan pelanggan menskalakan deployment mereka ke level terdepan di industri.
Harga
Harga untuk Infrastruktur AI didasarkan pada produk yang dipilih. Anda dapat mulai menggunakan infrastruktur AI Google secara gratis dengan Colab atau paket gratis Google Cloud.
Produk-produk Cloud AI mematuhi Kebijakan SLA kami. Produk tersebut mungkin menawarkan latensi atau jaminan ketersediaan yang berbeda dari layanan Google Cloud lainnya.
Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan lebih dari 20 produk yang selalu gratis.