Kami sedang menyaksikan sebuah fakta yang berbahaya tetapi hampir tidak ada yang menyadarinya:
Ali Qianwen terintegrasi dengan lebih dari 400 produk, menjadi AI superapp, di mana semua aspek kehidupan manusia—pakaian, makanan, tempat tinggal, dan transportasi—berada dalam chatbox AI ini
Sebuah jendela percakapan, yang terhubung dengan pencarian, pekerjaan, kode, konten, layanan pelanggan, sistem perusahaan, plugin, API, dan layanan pihak ketiga
Pengguna tidak lagi mengklik tautan, mengisi formulir, atau meninjau peraturan satu per satu, melainkan menyerahkan niat mereka kepada model—“Bantu saya cari pemasok,” “Bantu saya negosiasi harga,” “Bantu saya urus kerjasama ini,” “Bantu saya tentukan pilihan”
Ini berarti AI tidak lagi sekadar perantara informasi, tetapi mulai menjadi pelaku dalam tindakan ekonomi, tetapi dunia ini belum menyiapkan struktur kepercayaan paling dasar untuk AI.
Tidak ada yang tahu “siapa” AI itu, dan tidak ada sistem yang bisa membuktikan “siapa” yang diwakilinya
Ekosistem AI saat ini terlihat ramai, tetapi sebenarnya sangat rapuh di lapisan dasar:
1) Keretakan lapisan pertama: Identitas
Sebuah AI mengatakan “Saya mewakili seseorang / perusahaan / tim tertentu,”
Bagaimana Anda memastikan bahwa AI tersebut benar-benar memiliki otorisasi? Apakah AI tersebut dapat dipertanggungjawabkan? Di mana batas hak aksesnya? Dalam sistem saat ini, sebuah agent yang baru dibuat selama 5 menit dan agent yang mewakili perusahaan besar hampir tidak berbeda dalam interaksi.
Ini bukan masalah keamanan, tetapi kebutaan struktural.
2) Keretakan lapisan kedua: Pernyataan
AI sedang memfasilitasi layanan, transaksi, dan kerjasama, tetapi “siapa yang bisa menyediakan apa” masih sebatas teks di halaman web, PPT, PDF, dan riwayat chat.
Pernyataan ini tidak dapat diverifikasi oleh mesin, dan tidak dapat digunakan kembali di platform lain
Dalam dunia yang native AI, janji yang tidak dapat diverifikasi oleh program pada dasarnya sama dengan tidak dapat dipercaya
3) Keretakan lapisan ketiga: Privasi
Kerjasama yang benar-benar bernilai hampir selalu melibatkan data sensitif
Namun kenyataannya adalah ekstrem: harus mengungkapkan seluruh privasi untuk mendapatkan kepercayaan, atau tidak mengatakan apa-apa dan tidak bisa bekerjasama
Tanpa mengungkap data, verifikasi fakta hampir tidak ada di sistem arus utama
4) Keretakan lapisan keempat: Penemuan
Ketika jumlah agent mulai meningkat secara eksponensial, mengandalkan web, kata kunci, dan rekomendasi platform untuk menemukan lawan bicara sudah tidak efektif lagi.
Agent membutuhkan struktur data yang dapat diindeks secara semantik, dapat difilter dengan banyak kondisi, dan dapat diverifikasi kepercayaannya, bukan halaman yang dirancang untuk mata manusia.
“Kemampuan masuk” AI sedang meningkat secara eksponensial, tetapi kepercayaan, identitas, privasi, dan penemuan masih tertinggal di era sebelum internet.
Jika masalah ini tidak diselesaikan secara langsung, hasilnya hanya ada dua: AI ekonomi akan dipaksa kembali ke skenario dengan kepercayaan rendah dan nilai rendah, atau semuanya akan dikemas kembali ke dalam platform super dan sistem kotak hitam yang baru
Ini adalah kekosongan infrastruktur yang sedang diperbesar menjadi risiko sistemik
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Kami sedang menyaksikan sebuah fakta yang berbahaya tetapi hampir tidak ada yang menyadarinya:
Ali Qianwen terintegrasi dengan lebih dari 400 produk, menjadi AI superapp, di mana semua aspek kehidupan manusia—pakaian, makanan, tempat tinggal, dan transportasi—berada dalam chatbox AI ini
Sebuah jendela percakapan, yang terhubung dengan pencarian, pekerjaan, kode, konten, layanan pelanggan, sistem perusahaan, plugin, API, dan layanan pihak ketiga
Pengguna tidak lagi mengklik tautan, mengisi formulir, atau meninjau peraturan satu per satu, melainkan menyerahkan niat mereka kepada model—“Bantu saya cari pemasok,” “Bantu saya negosiasi harga,” “Bantu saya urus kerjasama ini,” “Bantu saya tentukan pilihan”
Ini berarti AI tidak lagi sekadar perantara informasi, tetapi mulai menjadi pelaku dalam tindakan ekonomi, tetapi dunia ini belum menyiapkan struktur kepercayaan paling dasar untuk AI.
Tidak ada yang tahu “siapa” AI itu, dan tidak ada sistem yang bisa membuktikan “siapa” yang diwakilinya
Ekosistem AI saat ini terlihat ramai, tetapi sebenarnya sangat rapuh di lapisan dasar:
1) Keretakan lapisan pertama: Identitas
Sebuah AI mengatakan “Saya mewakili seseorang / perusahaan / tim tertentu,”
Bagaimana Anda memastikan bahwa AI tersebut benar-benar memiliki otorisasi?
Apakah AI tersebut dapat dipertanggungjawabkan?
Di mana batas hak aksesnya?
Dalam sistem saat ini, sebuah agent yang baru dibuat selama 5 menit dan agent yang mewakili perusahaan besar hampir tidak berbeda dalam interaksi.
Ini bukan masalah keamanan, tetapi kebutaan struktural.
2) Keretakan lapisan kedua: Pernyataan
AI sedang memfasilitasi layanan, transaksi, dan kerjasama, tetapi “siapa yang bisa menyediakan apa” masih sebatas teks di halaman web, PPT, PDF, dan riwayat chat.
Pernyataan ini tidak dapat diverifikasi oleh mesin, dan tidak dapat digunakan kembali di platform lain
Dalam dunia yang native AI, janji yang tidak dapat diverifikasi oleh program pada dasarnya sama dengan tidak dapat dipercaya
3) Keretakan lapisan ketiga: Privasi
Kerjasama yang benar-benar bernilai hampir selalu melibatkan data sensitif
Namun kenyataannya adalah ekstrem: harus mengungkapkan seluruh privasi untuk mendapatkan kepercayaan, atau tidak mengatakan apa-apa dan tidak bisa bekerjasama
Tanpa mengungkap data, verifikasi fakta hampir tidak ada di sistem arus utama
4) Keretakan lapisan keempat: Penemuan
Ketika jumlah agent mulai meningkat secara eksponensial, mengandalkan web, kata kunci, dan rekomendasi platform untuk menemukan lawan bicara sudah tidak efektif lagi.
Agent membutuhkan struktur data yang dapat diindeks secara semantik, dapat difilter dengan banyak kondisi, dan dapat diverifikasi kepercayaannya, bukan halaman yang dirancang untuk mata manusia.
“Kemampuan masuk” AI sedang meningkat secara eksponensial, tetapi kepercayaan, identitas, privasi, dan penemuan masih tertinggal di era sebelum internet.
Jika masalah ini tidak diselesaikan secara langsung, hasilnya hanya ada dua:
AI ekonomi akan dipaksa kembali ke skenario dengan kepercayaan rendah dan nilai rendah, atau semuanya akan dikemas kembali ke dalam platform super dan sistem kotak hitam yang baru
Ini adalah kekosongan infrastruktur yang sedang diperbesar menjadi risiko sistemik