AI

Mengapa Pusat Data AI Begitu Penting? Mega-Investasi Triliunan Dolar dan Tantangan Besar di Baliknya

IIstiyanto
12 views
Mengapa Pusat Data AI Begitu Penting? Mega-Investasi Triliunan Dolar dan Tantangan Besar di Baliknya

Mengapa Pusat Data AI Begitu Penting? Mega-Investasi Triliunan Dolar dan Tantangan Besar di Baliknya

Angka yang begitu besar sehingga sulit dibayangkan: sekitar 3 triliun dolar AS (setara 2,2 triliun poundsterling) akan diinvestasikan dalam pembangunan pusat data pendukung kecerdasan buatan (AI) secara global hingga tahun 2029. Estimasi dari bank investasi Morgan Stanley ini menunjukkan bahwa sekitar setengah dari jumlah tersebut akan dialokasikan untuk biaya konstruksi, sementara setengah lainnya untuk perangkat keras mahal yang mendukung revolusi AI.

Untuk memberi gambaran, angka ini kira-kira setara dengan nilai seluruh ekonomi Prancis pada tahun 2024. Di Inggris saja, diperkirakan 100 pusat data baru akan dibangun dalam beberapa tahun ke depan untuk memenuhi permintaan pemrosesan AI. Beberapa di antaranya akan dibangun oleh Microsoft, yang belum lama ini mengumumkan investasi 30 miliar dolar AS (22 miliar poundsterling) di sektor AI Inggris.

Lalu, apa yang membuat pusat data AI begitu berbeda dari bangunan tradisional yang berisi deretan server komputer yang menyimpan foto pribadi, akun media sosial, dan aplikasi kerja kita? Dan apakah semua pengeluaran besar ini sepadan?

Apa yang Membuat Pusat Data AI Berbeda dari Pusat Data Konvensional?

Pusat data telah berkembang dalam ukuran selama bertahun-tahun. Istilah baru, hyperscale, diciptakan oleh industri teknologi untuk menggambarkan situs-situs yang kebutuhan dayanya mencapai puluhan megawatt, sebelum akhirnya gigawatt—seribu kali lebih besar dari megawatt—muncul ke permukaan. Namun, AI telah mengubah permainan ini secara drastis.

Revolusi Hyperscale dan Chip Nvidia

Sebagian besar model AI mengandalkan chip komputer mahal dari Nvidia untuk memproses tugas. Chip Nvidia hadir dalam kabinet besar yang masing-masing berharga sekitar 4 juta dolar AS. Kabinet-kabinet inilah yang menjadi kunci mengapa pusat data AI begitu berbeda.

Pentingnya Kedekatan (Proximity) dan Latensi Rendah

Model Bahasa Besar (LLM) yang melatih perangkat lunak AI harus memecah bahasa menjadi setiap elemen makna terkecil yang mungkin. Ini hanya dapat dilakukan dengan jaringan komputer yang bekerja secara bersamaan dan dalam kedekatan yang ekstrem.

Mengapa kedekatan begitu penting? Setiap meter jarak antara dua chip menambah satu nanodetik—satu per miliar detik—ke waktu pemrosesan. Mungkin terdengar tidak banyak, tetapi ketika sebuah gudang penuh komputer bekerja, penundaan mikroskopis ini menumpuk dan mengurangi kinerja yang dibutuhkan untuk AI.

Konsep Kepadatan (Density) dan Pemrosesan Paralel

Kabinet pemrosesan AI dijejalkan bersama untuk menghilangkan elemen latensi ini dan menciptakan apa yang disebut sektor teknologi sebagai pemrosesan paralel, beroperasi sebagai satu komputer raksasa. Semua ini mengarah pada density (kepadatan), sebuah kata ajaib dalam lingkaran konstruksi AI. Kepadatan menghilangkan hambatan pemrosesan yang sering terjadi pada pusat data biasa yang bekerja dengan prosesor yang terletak terpisah beberapa meter.

Tantangan Energi Besar: Konsumsi Daya Gigawatt dan Solusi Inovatif

Meskipun kepadatan memberikan keunggulan, deretan kabinet yang padat itu membutuhkan daya gigawatt, dan pelatihan LLM menghasilkan lonjakan besar dalam kebutuhan listrik. Lonjakan ini setara dengan ribuan rumah yang menyalakan dan mematikan ketel secara bersamaan setiap beberapa detik.

Lonjakan Daya yang Belum Pernah Ada

Permintaan yang tidak teratur seperti ini pada jaringan listrik lokal harus dikelola dengan hati-hati. Daniel Bizo dari konsultan rekayasa pusat data The Uptime Institute, yang menganalisis pusat data sebagai pekerjaannya, menjelaskan, “Pusat data normal adalah dengungan stabil di latar belakang dibandingkan dengan permintaan beban kerja AI pada jaringan listrik.” Lonjakan AI yang tiba-tiba, seperti ketel yang disinkronkan, menghadirkan apa yang disebut Bizo sebagai masalah tunggal. “Beban kerja tunggal pada skala ini belum pernah terjadi sebelumnya,” kata Bizo, “ini adalah tantangan rekayasa ekstrem, seperti program Apollo.”

Respons Industri: Dari Turbin Gas hingga Energi Nuklir dan Terbarukan

Operator pusat data mengatasi masalah energi dengan berbagai cara. CEO Nvidia, Jensen Huang, menyatakan harapannya agar lebih banyak turbin gas dapat digunakan “di luar jaringan agar tidak membebani masyarakat di jaringan.” Ia juga percaya AI itu sendiri akan merancang turbin gas, panel surya, turbin angin, dan energi fusi yang lebih baik untuk menghasilkan energi berkelanjutan yang lebih hemat biaya.

Microsoft berinvestasi miliaran dolar dalam proyek energi, termasuk kesepakatan dengan Constellation Energy yang akan menghidupkan kembali pembangkit listrik tenaga nuklir di Three Mile Island. Google, milik Alphabet, juga berinvestasi dalam energi nuklir sebagai bagian dari strategi untuk beroperasi dengan energi bebas karbon pada tahun 2030. Sementara itu, Amazon Web Services (AWS), bagian dari raksasa ritel Amazon, menyatakan bahwa mereka sudah menjadi pembeli energi terbarukan korporat terbesar di dunia.

Dampak Lingkungan dan Regulasi: Air dan Infrastruktur Lokal

Industri pusat data sangat menyadari bahwa legislator mengawasi dampak negatif

Comments (0)

Leave a Comment

Be the first to comment!