Berdasarkan pemantauan 1M AI News, pendiri sekaligus co-founder OpenAI, Andrej Karpathy, membagikan sebuah penemuan terbarunya di X: membangun basis pengetahuan personal dengan LLM lebih bernilai dibandingkan memintanya untuk menulis kode. Saat ini, sebagian besar konsumsi token-nya telah beralih dari melakukan operasi kode menjadi melakukan operasi pengetahuan.
Alur kerja lengkap terdiri dari lima langkah:
- Ingest data: Mengindeks dokumen sumber seperti artikel, paper, repositori kode, dataset, gambar, dan lainnya ke direktori raw/, lalu menggunakan LLM untuk melakukan inkremental “kompilasi” menjadi sebuah markdown wiki, yang mencakup ringkasan, tautan balik, kategorisasi konsep, dan pengaitan antartulisan
- Antarmuka penjelajahan: Menggunakan Obsidian sebagai front-end untuk melihat data mentah, wiki yang telah dikompilasi, dan visualisasi turunan; konten wiki sepenuhnya dipelihara oleh LLM, sehingga manusia hampir tidak melakukan pengeditan langsung
- Pencarian kueri tanya-jawab: Ketika wiki telah mencapai skala tertentu (dalam salah satu arah risetnya sudah ada sekitar 100 artikel, 400 ribu kata), seseorang dapat mengajukan pertanyaan kompleks kepada LLM; LLM sendiri akan menelusuri konten wiki untuk menjawab. Ia semula mengira perlu RAG, tetapi indeks file dan ringkasan yang dipelihara otomatis oleh LLM pada skala ini sudah cukup
- Pengembalian output: Hasil kueri dibuat dalam bentuk markdown, slide Marp, atau bagan matplotlib; setelah dilihat di Obsidian, kemudian diarsipkan kembali ke wiki, sehingga eksplorasi personal terus terakumulasi
- Pemeriksaan kualitas: Menggunakan LLM secara berkala melakukan “health check” pada wiki, menemukan ketidaksesuaian data, melengkapi informasi yang hilang, serta menggali keterkaitan antarkonsep, sehingga secara inkremental meningkatkan kelengkapan data
Karpathy menyatakan bahwa ia juga mengembangkan beberapa alat tambahan, misalnya mesin pencari indeks wiki yang sederhana; baik bisa dipakai sendiri di antarmuka web, maupun bisa diberikan kepada LLM sebagai alat baris perintah untuk menangani kueri yang lebih besar. Ia berpandangan bahwa alur kerja ini saat ini masih sekadar “tumpukan penggabungan sejumlah skrip”, tetapi di baliknya tersembunyi peluang “produk baru yang luar biasa”. Gagasan yang lebih jauh adalah: setiap pertanyaan yang diajukan ke model frontier, dapat mengirimkan sekelompok LLM untuk secara otomatis membangun sebuah wiki sementara, melakukan health check kualitas, melakukan iterasi beberapa putaran, dan pada akhirnya menghasilkan sebuah laporan lengkap—“jauh melampaui sekali .decode()”.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.