Vitalik: Bagaimana saya membangun lingkungan kerja AI yang sepenuhnya lokal, privat, dan sepenuhnya dapat dikendalikan secara mandiri

ChainNewsAbmedia
ETH-3,5%

Pendiri Ethereum Vitalik Buterin pada 2 April memublikasikan sebuah artikel panjang di situs web pribadinya, membagikan pengaturan lingkungan kerja AI yang ia bangun dengan privasi, keamanan, dan kedaulatan diri sebagai inti—semua penalaran LLM dijalankan secara lokal, semua file disimpan secara lokal, dan semuanya dienkapsulasi sepenuhnya dalam sandbox, dengan sengaja menghindari model cloud dan API eksternal.

Di awal artikelnya, ia lebih dulu memberi peringatan: “Jangan langsung menyalin alat dan teknologi yang dijelaskan dalam artikel ini, dan anggaplah bahwa semuanya aman. Ini hanya titik awal, bukan deskripsi tentang produk yang sudah selesai.”

Mengapa sekarang menulis artikel ini? Masalah keamanan untuk AI agent sangat diremehkan

Vitalik menekankan bahwa awal tahun ini AI mengalami transformasi penting dari “chatbot” menjadi “agent”—Anda tidak lagi hanya bertanya, tetapi menyerahkan tugas, membuat AI berpikir dalam jangka waktu lama, memanggil ratusan alat untuk menjalankannya. Ia memberi contoh OpenClaw (repo yang saat ini bertumbuh paling cepat dalam sejarah GitHub), sambil menyebutkan beberapa masalah keamanan yang dicatat para peneliti:

AI agent dapat mengubah pengaturan penting tanpa konfirmasi manusia, termasuk menambahkan kanal komunikasi baru dan mengubah sistem prompt

Mengurai input eksternal yang berbahaya (seperti situs web berbahaya) dapat menyebabkan agent sepenuhnya dikuasai; dalam demonstrasi oleh HiddenLayer, peneliti membuat AI merangkum sekelompok halaman web, di mana ada halaman berbahaya yang memerintahkan agent untuk mengunduh dan menjalankan skrip shell

Sebagian paket kemampuan pihak ketiga (skills) menjalankan kebocoran data secara senyap, mengirim data melalui perintah curl ke server eksternal yang dikendalikan oleh pembuat skill tersebut

Dalam skill package yang mereka analisis, sekitar 15% berisi instruksi berbahaya

Vitalik menegaskan bahwa sudut pandangnya mengenai privasi berbeda dari peneliti keamanan siber tradisional: “Saya datang dari posisi yang sangat takut—memberi seluruh kehidupan pribadi kepada AI berbasis cloud. Tepat pada saat enkripsi end-to-end dan perangkat lunak yang mengutamakan lokal akhirnya menjadi arus utama, kita mungkin justru mundur sepuluh langkah.”

Lima sasaran keamanan

Ia menetapkan kerangka sasaran keamanan yang jelas:

Privasi LLM: dalam situasi yang melibatkan data privasi personal, meminimalkan penggunaan model jarak jauh

Privasi lainnya: meminimalkan kebocoran data non-LLM (seperti kueri pencarian, API online lainnya)

LLM escape: mencegah konten eksternal “membajak” LLM saya, membuatnya bertentangan dengan kepentingan saya (misalnya mengirim token saya atau data pribadi saya)

LLM tidak sengaja: mencegah LLM secara keliru mengirim data pribadi ke kanal yang salah atau mempublikasikannya ke internet

LLM backdoor: mencegah mekanisme tersembunyi yang sengaja dilatih ke dalam model. Ia secara khusus mengingatkan: model terbuka adalah bobot terbuka (open-weights), dan hampir tidak ada yang benar-benar open-source (kode sumber terbuka)

Pilihan perangkat keras: laptop 5090 menang, DGX Spark mengecewakan

Vitalik menguji tiga konfigurasi perangkat keras untuk inferensi lokal, dengan model andalan Qwen3.5:35B, dipadukan dengan llama-server dan llama-swap:

Kesimpulannya adalah: di bawah 50 tok/sec terlalu lambat, 90 tok/sec adalah ideal. Pengalaman paling lancar ada pada laptop NVIDIA 5090; AMD saat ini masih punya lebih banyak masalah pinggiran, tetapi di masa depan berpeluang membaik. MacBook Pro kelas atas juga merupakan opsi yang efektif, hanya saja secara pribadi ia belum mencobanya langsung.

Untuk DGX Spark, ia menyampaikan pendapatnya tanpa basa-basi: “Dideskripsikan sebagai ‘superkomputer AI desktop’, tetapi nyatanya tokens/sec lebih rendah daripada GPU laptop yang bagus, dan Anda juga harus menangani detail tambahan seperti koneksi jaringan—ini sangat buruk.” Saran beliau adalah: jika tidak mampu membeli laptop kelas atas, Anda bisa patungan dengan teman untuk membeli satu mesin yang cukup kuat, menaruhnya di lokasi yang memiliki IP tetap, lalu semua orang menggunakan koneksi jarak jauh.

Mengapa masalah privasi AI lokal lebih mendesak daripada yang Anda bayangkan

Artikel Vitalik ini punya padanan yang menarik dengan diskusi tentang masalah keamanan Claude Code yang dirilis pada hari yang sama—saat AI agent masuk ke alur kerja pengembangan sehari-hari, masalah keamanan juga sedang berubah dari risiko teoretis menjadi ancaman nyata.

Pesan intinya sangat jelas: ketika alat AI semakin kuat, dan semakin mampu mengakses data personal Anda serta hak akses sistem, “mengutamakan lokal, sandboxing, dan meminimalkan kepercayaan” bukanlah paranoia, melainkan titik awal yang rasional.

Artikel ini Vitalik: Bagaimana saya membangun lingkungan kerja AI yang sepenuhnya lokal, privat, dan bisa dikendalikan sendiri pertama kali muncul di Rantai Berita ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar