Google merupakan pelopor besar dalam teknologi kecerdasan buatan (A.I), dan karyawannya telah mengembangkan beberapa kemajuan terpenting dalam bidang tersebut selama satu dekade terakhir. Namun, ada yang percaya bahwa Google ketinggalan dalam hal komersialisasi penemuannya, dan di internal perusahaan, mereka berlomba-lomba untuk merilis produk dan membuktikan bahwa mereka tidak menyia-nyiakan keunggulannya, sebuah situasi “kode merah” di perusahaan yang sebelumnya dilaporkan oleh CNBC.
Model A.I dan produk seperti Bard milik Google atau ChatGPT milik OpenAI – yang ditenagai oleh chip A100 milik Nvidia – memerlukan banyak komputer dan ratusan atau ribuan chip yang harus bekerja bersama-sama untuk melatih model, dengan komputer yang berjalan sepanjang waktu selama berbulan-bulan.
Pada hari Selasa, Google mengumumkan bahwa mereka telah membangun sistem dengan lebih dari 4.000 TPUs yang bergabung dengan komponen kustom yang dirancang untuk menjalankan dan melatih model A.I. Sistem ini telah berjalan sejak 2020, dan digunakan untuk melatih model PaLM milik Google, yang bersaing dengan model GPT milik OpenAI, selama lebih dari 50 hari.
Superkomputer TPU v4 milik Google, menggunakan chip Tensor Processing Unit (TPU), memiliki kecepatan “1.2x-1.7x lebih cepat dan menggunakan daya 1.3x-1.9x lebih sedikit daripada Nvidia A100,” tulis peneliti Google.
“Kinerja, skalabilitas, dan ketersediaannya membuat superkomputer TPU v4 menjadi kuda bekerja dari model bahasa besar,” lanjut para peneliti.
Namun, hasil TPU Google tidak dibandingkan dengan chip A.I Nvidia terbaru, H100, karena chip tersebut lebih baru dan dibuat dengan teknologi manufaktur yang lebih canggih, kata para peneliti Google.
Hasil dan peringkat dari uji coba chip A.I secara industri yang disebut MLperf dirilis pada hari Rabu, dan CEO Nvidia Jensen Huang mengatakan bahwa hasil untuk chip Nvidia terbaru, H100, jauh lebih cepat dari generasi sebelumnya.
“Hari ini MLPerf 3.0 menyoroti Hopper memberikan kinerja 4x lebih cepat dari A100,” tulis Huang dalam sebuah pos blog. “Tingkat berikutnya dari A.I generatif membutuhkan infrastruktur A.I baru untuk melatih Model Bahasa Besar dengan efisiensi energi yang besar.”
Kebutuhan daya komputer yang besar untuk A.I mahal, dan banyak di industri yang fokus mengembangkan chip baru, komponen seperti koneksi optik, atau teknik perangkat lunak yang mengurangi jumlah daya komputer yang dibutuhkan.
Kebutuhan daya A.I juga menjadi angin segar bagi penyedia cloud seperti Google, Microsoft, dan Amazon, yang dapat menyewakan pemrosesan komputer per jam dan memberikan kredit atau waktu komputasi kepada startup untuk membangun hubungan. Sebagai contoh, Google mengatakan bahwa Midjourney, sebuah generator gambar, telah dilatih dengan menggunakan chip TPU miliknya. Hal ini menunjukkan bahwa Google sedang mencoba membangun hubungan dengan startup dan mencari cara agar produk-produk mereka dapat diakses oleh lebih banyak orang.
Kebutuhan akan daya komputer yang besar untuk A.I. juga memberikan keuntungan bagi penyedia cloud seperti Google, Microsoft, dan Amazon. Mereka dapat menyewakan pengolahan komputer per jam dan memberikan kredit atau waktu komputasi kepada startup untuk membangun hubungan. Selain itu, Google juga menjual waktu pada chip Nvidia melalui layanan cloud-nya.
Meskipun Google TPU v4 terbukti lebih cepat dan hemat energi daripada Nvidia A100, perusahaan-perusahaan di industri A.I. tetap berfokus pada pengembangan chip baru, komponen seperti konektor optik, atau teknik perangkat lunak yang dapat mengurangi kebutuhan daya komputer.
Namun, dengan kemampuan superkomputer baru ini, Google dapat memperkuat posisinya sebagai salah satu pemimpin dalam inovasi A.I. dan berkompetisi dengan perusahaan-perusahaan lainnya di industri ini. Semoga informasi ini dapat memberikan pandangan yang lebih jelas mengenai kemajuan terbaru dalam teknologi A.I. dan bagaimana hal itu mempengaruhi perkembangan industri teknologi di masa depan.(hh)