Meta, yang gigih untuk mengejar pesaing dalam ruang AI generatif, menghabiskan berbilion untuk usaha AI sendiri. Sebahagian daripada berbilion itu diarahkan ke arah merekrut penyelidik AI. Tetapi sejumlah yang lebih besar dihabiskan untuk membangunkan peranti keras, khususnya cip untuk menjalankan dan melatih model AI Meta.
Meta mendedahkan hasil ciptaan cip terbaru dari usahanya pada hari ini, mencurigakan sehari selepas Intel mengumumkan peranti pemercepat AI terbaru mereka. Dipanggil 'peningkatan generasi' Pemecut Latihan dan Inferens Meta (MTIA), penerus kepada MTIA v1 tahun lepas, cip ini menjalankan model seperti untuk peringkat dan mencadangkan iklan paparan di hartanah Meta (contohnya Facebook).
Berbanding dengan MTIA v1, yang dibina dalam proses 7nm, MTIA generasi seterusnya adalah 5nm. (Dalam pembuatan cip, 'proses' merujuk kepada saiz komponen terkecil yang boleh dibina di atas cip.) MTIA generasi seterusnya adalah reka bentuk yang lebih besar, dipenuhi dengan lebih banyak teras pemprosesan daripada pendahulunya. Dan walaupun ia mengonsumsi lebih banyak tenaga - 90W berbanding dengan 25W - ia juga mempunyai lebih banyak memori dalaman (128MB berbanding dengan 64MB) dan berjalan pada kelajuan jam purata yang lebih tinggi (1.35GHz dari 800MHz).
Meta mengatakan MTIA generasi seterusnya kini digunakan di 16 kawasan pusat data Meta dan memberikan prestasi keseluruhan hingga 3 kali lebih baik berbanding dengan MTIA v1. Jika dakwaan '3 kali' itu kedengaran sedikit samar, anda tidak salah - begitu juga kita. Tetapi Meta hanya akan membezakan bahawa angka itu datang dari menguji prestasi 'empat model utama' di kedua-dua cip.
'Kerana kami mengawal seluruh peruncitan, kami boleh mencapai kecekapan yang lebih besar berbanding dengan GPU yang terdapat secara komersial,' tulis Meta dalam catatan blog yang dikongsi dengan TechCrunch.
Pertama, Meta mendedahkan dalam catatan blog bahawa mereka tidak menggunakan MTIA generasi seterusnya untuk beban kerja latihan AI generatif pada masa ini, walaupun syarikat itu mendakwa bahawa mereka mempunyai 'beberapa program sedang berjalan' yang meneroka ini. Kedua, Meta mengakui bahawa MTIA generasi seterusnya tidak akan menggantikan GPU untuk menjalankan atau melatih model - tetapi sebaliknya akan melengkapkan mereka.
Membaca di antara baris, Meta bergerak perlahan - mungkin lebih perlahan daripada yang mereka harapkan.
Barisan AI Meta hampir pasti berada di bawah tekanan untuk mengurangkan kos. Syarikat tersebut dijangkakan untuk menghabiskan kira-kira $18 bilion pada hujung tahun 2024 untuk GPU untuk melatih dan menjalankan model AI generatif, dan - dengan kos latihan model generatif canggih berada dalam jutaan dolar - perkakasan dalaman menjadi alternatif yang menarik.
Dan sementara perkakasan Meta lambat, pesaing-pesaing terus meningkat, sangat kebingungan kepimpinan Meta, saya sangka.
Google minggu ini membuat cip kastam generasi kelima untuk melatih model AI, TPU v5p, secara umum tersedia kepada pelanggan Google Cloud, dan mendedahkan cip dedikasi pertama mereka untuk menjalankan model, Axion. Amazon mempunyai beberapa keluarga cip AI kastam di bawah ikat pinggang mereka. Dan Microsoft tahun lalu melompat ke dalam pertempuran dengan Pemicu AI Azure Maia dan CPU Azure Cobalt 100.
Dalam catatan blog, Meta mengatakan bahawa mereka mengambil masa kurang daripada sembilan bulan untuk 'bergerak dari silikon pertama ke model pengeluaran' MTIA generasi seterusnya, yang adil adalah lebih pendek daripada jendela tipikal antara Google TPUs. Tetapi Meta mempunyai banyak kerja untuk mengejar jika berharap untuk mencapai satu tahap kemandirian daripada GPU pihak ketiga - dan menyamai pesaing yang sengit.