Analisis Berkeley GEPA: AI bisa mempelajari tugas baru tanpa memperbarui bobot, 35 kali lebih sedikit biaya pelatihan dibanding RL

ChainNewsAbmedia

Tim riset dari Universitas California, Berkeley mengajukan metode pelatihan AI baru, GEPA, yang telah diterima oleh ICLR 2026 sebagai makalah Oral. GEPA tidak memperbarui bobot model, tidak perlu pelatihan dengan GPU, hanya menggunakan satu LLM yang “membaca catatan pelatihan” untuk terus menulis ulang prompt sistem AI. Dengan cara ini, pada 6 tugas GEPA rata-rata mengungguli metode reinforcement learning arus utama GRPO sebesar 6%, dengan kemenangan tertinggi mencapai 20%, serta membutuhkan jumlah percobaan pelatihan (rollouts) 35 kali lebih sedikit. Setelah ditata oleh komunitas engineering AI dan menyebar di platform X, topik ini memicu diskusi. Saat ini GEPA telah diintegrasikan ke dalam DSPy sebagai optimizier kelas satu.

GEPA melakukan apa: menjadikan catatan pelatihan sebagai materi ajar, bukan hanya melihat skor

Alur kerja metode reinforcement learning tradisional (seperti GRPO) adalah: membuat AI menjalankan satu kali tugas, memberi “+1 atau -1” sebagai skor berdasarkan hasil, lalu berulang kali menyesuaikan bobot model dengan skor tersebut. Masalahnya, proses AI saat menjalankan tugas satu kali biasanya mencakup langkah inferensi dengan ribuan token, pemanggilan alat, dan pesan kesalahan—detail kaya ini semuanya dipadatkan menjadi satu skor, sehingga informasi proses hilang. Akibatnya, RL perlu menjalankan puluhan ribu hingga jutaan kali agar konvergen.

Cara GEPA justru sebaliknya: setelah AI menjalankan tugas, seluruh rangkaian proses (reasoning, pemanggilan alat, dan catatan error) diberikan apa adanya kepada LLM lain yang “berpikir ulang” untuk dibaca. LLM berpikir ulang seperti insinyur senior yang membaca log kode: mencari langkah mana yang salah, mengapa salah, dan bagaimana mengubah prompt, lalu langsung menulis ulang prompt modul terkait. Dengan satu kali menjalankan tugas yang sama, sinyal yang diekstrak GEPA jauh lebih banyak dibanding skor tunggal RL.

Mengapa bisa menang: mengubah “memberi skor” menjadi “membaca seluruh proses”

GEPA pada 6 tugas rata-rata menang atas GRPO sebesar 6%, dan kemenangan tertinggi 20%; dibandingkan optimizier prompt arus utama lain MIPROv2 juga menang lebih dari 10% (meningkat 12% pada benchmark matematika AIME-2025). Yang paling krusial adalah biaya pelatihan: untuk mencapai performa setara, GEPA membutuhkan rollouts (sekali menjalankan tugas) 35 kali lebih sedikit.

Satu data lain: setelah integrasi GEPA dengan DSPy, “Full Program Adapter” dapat mengoptimalkan seluruh program DSPy (termasuk signature, modul, dan kontrol alur). Pada benchmark MATH mencapai akurasi 93%, jauh melampaui penulisan ChainOfThought asli DSPy yang hanya 67%. GEPA juga tampil sangat baik pada alur kerja multi-module (agent AI yang merangkai banyak modul)—mampu mengunci modul tertentu yang salah lalu mengubah prompt modul tersebut secara presisi, bukan menyesuaikan seluruh sistem.

Siapa yang akan lebih dulu memakainya: DSPy sebagai warga kelas satu, dan kode GitHub sudah open-source

Kode GEPA sudah diopen-source di GitHub, diintegrasikan ke kerangka DSPy dalam bentuk dspy.GEPA, dan juga dirilis terpisah sebagai library Python. Tim riset lintas UC Berkeley, Stanford, Notre Dame, Anthropic, dan institusi lain; penulis makalah mencakup Matei Zaharia (co-founder Databricks, penulis utama DSPy) dan Omar Khattab (penulis utama DSPy).

Bagi komunitas pengembang, GEPA menawarkan solusi baru untuk kasus “memiliki banyak rollout tapi tidak tahu cara memanfaatkannya”—kebanyakan tim telah mengumpulkan ribuan hingga puluhan ribu catatan menjalankan tugas dengan agent, namun selain memeriksa beberapa catatan saat terjadi error untuk debugging, tidak ada metode sistematis untuk mengubah catatan tersebut menjadi peningkatan model. Langkah observasi berikutnya adalah penerapan kasus nyata GEPA dalam alur kerja agentic perusahaan (seperti otomatisasi layanan pelanggan, perbaikan kode otomatis), serta apakah akan muncul implementasi GEPA yang sepadan di luar framework DSPy.

Artikel Berkeley GEPA Analysis: tidak memperbarui bobot supaya AI mempelajari tugas baru, dengan biaya pelatihan 35 kali lebih sedikit daripada RL, mula-mula muncul di Chain News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Particle Network Merilis Roadmap Universal Accounts, Meluncurkan Universal Deposit SDK dan Akun AI Agent

Menurut ChainCatcher, Particle Network hari ini merilis roadmap fase berikutnya untuk Universal Accounts, dengan memperkenalkan dua produk baru dalam beberapa bulan mendatang: Universal Deposit SDK, yang memungkinkan pengembang menambahkan deposit multi-chain dengan sekitar 10 baris kode, dan Universal Agent Accounts,

GateNews5jam yang lalu

Roblox Meluncurkan Perangkat Lunak AI untuk Menantang Unity dan Epic Games

Menurut Bloomberg, Roblox meluncurkan perangkat lunak AI baru untuk bersaing dengan Unity Technologies dan Epic Games, yang mesinnya mendominasi pengembangan game beranggaran besar. CEO Dave Baszucki menyatakan alat ini bertujuan membantu kreator membangun game multipemain dengan grafik fotorealistik dengan lebih mudah, didukung oleh ar

GateNews10jam yang lalu

Angkatan Laut AS Menandatangani Kontrak AI Hampir senilai $100 juta dengan Domino Data Lab untuk Deteksi Ranjau di Selat Hormuz

Menurut Xinhua News Agency, Komando Sistem Perang Informasi Angkatan Laut AS baru-baru ini menandatangani kontrak dengan perusahaan AI Domino Data Lab yang berbasis di San Francisco untuk pengadaan dan penerapan solusi perangkat lunak machine learning. Kontrak tersebut bernilai hampir 100 juta dolar AS jika dijalankan sepenuhnya, bertujuan untuk

GateNews12jam yang lalu

XAI Grok Hadirkan Custom Voices: Kloning 2 Menit, Verifikasi Identitas Dua Tahap

xAI meluncurkan Grok Custom Voices, merekam sekitar 1 menit audio melalui konsol, lalu dalam 2 menit menghasilkan model suara kustom yang dapat digunakan untuk TTS dan Voice Agent API, serta merilis Grok 4.3 dan Voice Library secara bersamaan. Untuk mencegah kloning, diterapkan verifikasi dua tahap: pertama membaca kalimat verifikasi, lalu membandingkan speaker embedding untuk memastikan hanya orang yang sama yang dapat membuat suara. Voice Library mengintegrasikan manajemen suara buatan sendiri dan yang telah disiapkan, dengan 80+ jenis dan 28 bahasa, yang nantinya akan diperluas lagi.

ChainNewsAbmedia13jam yang lalu

Fitur hewan peliharaan pada versi desktop OpenAI Codex: 3 status, menetas sesuai bahasa yang digunakan

OpenAI Codex versi desktop baru-baru ini menambahkan fitur “Pets” (Hewan Peliharaan), memungkinkan pengembang saat coding mendapatkan status tugas Codex secara real-time melalui karakter animasi yang melayang. Berdasarkan dokumen resmi OpenAI, overlay hewan peliharaan akan beralih berdasarkan status Codex saat ini menjadi 3

ChainNewsAbmedia15jam yang lalu

MoonPay Meluncurkan Kartu MoonAgents, Virtual Mastercard untuk Agen AI, pada Jumat

Menurut The Block, MoonPay meluncurkan MoonAgents Card, kartu debit virtual Mastercard, pada Jumat. Kartu ini dirancang untuk AI agents dan pengguna, mengonversi stablecoin menjadi fiat pada saat pembayaran, serta memungkinkan pengeluaran di merchant online mana pun secara global yang menerima Mastercard. Kartu ini

GateNews05-02 13:51
Komentar
0/400
Tidak ada komentar