Tim riset dari Universitas California, Berkeley mengajukan metode pelatihan AI baru, GEPA, yang telah diterima oleh ICLR 2026 sebagai makalah Oral. GEPA tidak memperbarui bobot model, tidak perlu pelatihan dengan GPU, hanya menggunakan satu LLM yang “membaca catatan pelatihan” untuk terus menulis ulang prompt sistem AI. Dengan cara ini, pada 6 tugas GEPA rata-rata mengungguli metode reinforcement learning arus utama GRPO sebesar 6%, dengan kemenangan tertinggi mencapai 20%, serta membutuhkan jumlah percobaan pelatihan (rollouts) 35 kali lebih sedikit. Setelah ditata oleh komunitas engineering AI dan menyebar di platform X, topik ini memicu diskusi. Saat ini GEPA telah diintegrasikan ke dalam DSPy sebagai optimizier kelas satu.
GEPA melakukan apa: menjadikan catatan pelatihan sebagai materi ajar, bukan hanya melihat skor
Alur kerja metode reinforcement learning tradisional (seperti GRPO) adalah: membuat AI menjalankan satu kali tugas, memberi “+1 atau -1” sebagai skor berdasarkan hasil, lalu berulang kali menyesuaikan bobot model dengan skor tersebut. Masalahnya, proses AI saat menjalankan tugas satu kali biasanya mencakup langkah inferensi dengan ribuan token, pemanggilan alat, dan pesan kesalahan—detail kaya ini semuanya dipadatkan menjadi satu skor, sehingga informasi proses hilang. Akibatnya, RL perlu menjalankan puluhan ribu hingga jutaan kali agar konvergen.
Cara GEPA justru sebaliknya: setelah AI menjalankan tugas, seluruh rangkaian proses (reasoning, pemanggilan alat, dan catatan error) diberikan apa adanya kepada LLM lain yang “berpikir ulang” untuk dibaca. LLM berpikir ulang seperti insinyur senior yang membaca log kode: mencari langkah mana yang salah, mengapa salah, dan bagaimana mengubah prompt, lalu langsung menulis ulang prompt modul terkait. Dengan satu kali menjalankan tugas yang sama, sinyal yang diekstrak GEPA jauh lebih banyak dibanding skor tunggal RL.
Mengapa bisa menang: mengubah “memberi skor” menjadi “membaca seluruh proses”
GEPA pada 6 tugas rata-rata menang atas GRPO sebesar 6%, dan kemenangan tertinggi 20%; dibandingkan optimizier prompt arus utama lain MIPROv2 juga menang lebih dari 10% (meningkat 12% pada benchmark matematika AIME-2025). Yang paling krusial adalah biaya pelatihan: untuk mencapai performa setara, GEPA membutuhkan rollouts (sekali menjalankan tugas) 35 kali lebih sedikit.
Satu data lain: setelah integrasi GEPA dengan DSPy, “Full Program Adapter” dapat mengoptimalkan seluruh program DSPy (termasuk signature, modul, dan kontrol alur). Pada benchmark MATH mencapai akurasi 93%, jauh melampaui penulisan ChainOfThought asli DSPy yang hanya 67%. GEPA juga tampil sangat baik pada alur kerja multi-module (agent AI yang merangkai banyak modul)—mampu mengunci modul tertentu yang salah lalu mengubah prompt modul tersebut secara presisi, bukan menyesuaikan seluruh sistem.
Siapa yang akan lebih dulu memakainya: DSPy sebagai warga kelas satu, dan kode GitHub sudah open-source
Kode GEPA sudah diopen-source di GitHub, diintegrasikan ke kerangka DSPy dalam bentuk dspy.GEPA, dan juga dirilis terpisah sebagai library Python. Tim riset lintas UC Berkeley, Stanford, Notre Dame, Anthropic, dan institusi lain; penulis makalah mencakup Matei Zaharia (co-founder Databricks, penulis utama DSPy) dan Omar Khattab (penulis utama DSPy).
Bagi komunitas pengembang, GEPA menawarkan solusi baru untuk kasus “memiliki banyak rollout tapi tidak tahu cara memanfaatkannya”—kebanyakan tim telah mengumpulkan ribuan hingga puluhan ribu catatan menjalankan tugas dengan agent, namun selain memeriksa beberapa catatan saat terjadi error untuk debugging, tidak ada metode sistematis untuk mengubah catatan tersebut menjadi peningkatan model. Langkah observasi berikutnya adalah penerapan kasus nyata GEPA dalam alur kerja agentic perusahaan (seperti otomatisasi layanan pelanggan, perbaikan kode otomatis), serta apakah akan muncul implementasi GEPA yang sepadan di luar framework DSPy.
Artikel Berkeley GEPA Analysis: tidak memperbarui bobot supaya AI mempelajari tugas baru, dengan biaya pelatihan 35 kali lebih sedikit daripada RL, mula-mula muncul di Chain News ABMedia.
Artikel Terkait
Particle Network Merilis Roadmap Universal Accounts, Meluncurkan Universal Deposit SDK dan Akun AI Agent
Roblox Meluncurkan Perangkat Lunak AI untuk Menantang Unity dan Epic Games
Angkatan Laut AS Menandatangani Kontrak AI Hampir senilai $100 juta dengan Domino Data Lab untuk Deteksi Ranjau di Selat Hormuz
XAI Grok Hadirkan Custom Voices: Kloning 2 Menit, Verifikasi Identitas Dua Tahap
Fitur hewan peliharaan pada versi desktop OpenAI Codex: 3 status, menetas sesuai bahasa yang digunakan
MoonPay Meluncurkan Kartu MoonAgents, Virtual Mastercard untuk Agen AI, pada Jumat