Biaya DeepSeek Ternyata Rp.93 Miliar, Bukan Rp.4 Miliar

Nama DeepSeek kembali menjadi sorotan setelah laporan penelitian R1 yang dipublikasikan di Nature memunculkan kebingungan soal biaya pelatihan model AI mereka. Banyak yang percaya bahwa perusahaan AI asal Tiongkok ini berhasil melatih model tersebut hanya dengan biaya sekitar 294.000 dolar AS, angka yang sangat rendah dibandingkan laporan sebelumnya. Namun, kenyataannya jauh lebih mahal dari itu.

Faktanya, angka tersebut hanya mencerminkan biaya untuk proses reinforcement learning (RL) yang dilakukan pada model DeepSeek V3 yang sudah dilatih sebelumnya. Dalam laporan itu, DeepSeek menjelaskan penggunaan 512 GPU selama sekitar 198 jam untuk melatih R1-Zero dan tambahan 80 jam untuk penyempurnaan. Ditambah sekitar 5.000 jam GPU untuk pembuatan dataset supervised fine-tuning, total biaya memang terlihat di bawah 300.000 dolar AS.

Namun, ini bukan biaya pelatihan penuh. DeepSeek sudah menyelesaikan 95 persen pekerjaan pada tahap pre-trainingsebelum masuk ke proses RL. Penelitian ini fokus pada teknik Group Relative Policy Optimization (GRPO) yang dipakai untuk mengasah kemampuan reasoning model.

Jika melihat data lengkap, DeepSeek V3 dilatih menggunakan 2.048 GPU H800 selama dua bulan, dengan total 2,79 juta jam GPU dan biaya sekitar 5,58 juta dolar AS. Jika menambahkan biaya RL, totalnya mencapai sekitar 5,87 juta dolar AS (sekitar Rp93 miliar). Angka ini jauh lebih realistis dan setara dengan biaya pelatihan model besar seperti Meta Llama 4.

Klaim biaya 294.000 dolar (sekitar Rp4,55 miliar) yang beredar terlalu menyederhanakan proses pengembangan AI skala besar. Membuat model sekelas R1 membutuhkan infrastruktur, riset, dan sumber daya yang sangat mahal. Bahkan jika GPU disewa dengan tarif 2 dolar per jam, harga server fisik yang digunakan bisa menembus 51 juta dolar.

DeepSeek memang mengesankan dalam mengoptimalkan pelatihan, tetapi tidak serta-merta lebih murah atau jauh lebih efisien dibanding model Barat. Yang menarik, ini menunjukkan bahwa persaingan AI global semakin ketat, dengan Tiongkok mampu menghasilkan model sekelas Llama 4 milik Meta, bahkan dengan jumlah data pelatihan yang lebih sedikit.