SHARE

Google mengenalkan chip mesin pembelajaran mereka di I/O tahun lalu. Dikenal sebagai Tenor Processing Units, TPUs jangka pendek, chip ini diketahui 15 sampai 30 kali lebih cepat dari CPU tradisional dan GPU.

TPU dirancang untuk mempercepat pemrosesan mesin pembelajaran di Google Cloud Platform dan mengurangi waktu yang dibutuhkan untuk melatih dan menjalankan model AI berbasis TensorFlow. Google sudah menggunakan TPU ini di pusat data mereka.

Kini, sebagai bagian dari program beta limit, Google membuat chip generasi kedua yang tersedia untuk penggunaan umum  dengan nama Cloud TPU. Tapi tidak murah harganya sekitar $6,5 per Cloud TPU per jam. Sebagai permulaan, Google menyediakan berbagai model ML referensi open source untuk Cloud TPU yang berkisar pada klasifikasi image, deteksi objek, dll.

Setiap board TPU mengemas empat asic kustom, kinerja floating-point hingga 180TFlops, dan memori 64GB. Google mengatakan beberapa TPU board dapat digabungkan melalui jaringan khusus untuk membentuk superkomputer yang disebut TPU Pods. Selama tes, Google menggunakan TPU Pod (dengan 64 TPU) untuk melatih model ResNet-50 dalam waktu kurang dari 30 menit, kuran dari 23 jam saat menggunakan TPU singgle.

Dengan kemampuan AI yang diupgrade, Google Cloud Platform mungkin bisa mengalahkan pesaingnya seperti Microsoft Azure dan Amazon Web Services. Tapi dua yang terakhir memiliki implementasi FPGA (Field Programmable Gate Array) sendiri untuk tugas mesin belajar. Menurut laporan terbaru, Amazon juga mengerjakan chip AI in-house untuk mengaktifkan pemrosesan perintah onboard Alexa. Chip ini juga akan digunakan untuk AWS.