Sumber: CryptoNewsNet
Judul Asli: Robotics will break AI unless we fix data verification first | Opinion
Tautan Asli:
Ringkasan
Skala vs. teori melewatkan masalah nyata — robotika tidak hanya membutuhkan lebih banyak data atau model yang lebih baik, tetapi juga data yang dapat dipercaya; input yang tidak diverifikasi membuat otonomi rapuh di luar lingkungan terkendali.
Halusinasi menjadi berbahaya di dunia fisik — kesalahan yang dapat ditoleransi dalam teks (seperti kutipan palsu) dapat menyebabkan kerusakan nyata ketika robot bertindak berdasarkan data yang rusak, dipalsukan, atau tidak sesuai.
Data yang dapat diverifikasi dan tanpa kepercayaan adalah lapisan yang hilang — sistem asal-usul kriptografi dan koordinasi (misalnya, verifikasi on-chain) diperlukan untuk membuat robotika aman, dapat diaudit, dan andal dalam skala besar.
Perdebatan Skala vs. Teori
Selama konferensi robotika utama tahun ini, enam peneliti paling berpengaruh di bidang ini berkumpul untuk membahas pertanyaan sederhana, tetapi penuh muatan: Akankah data menyelesaikan masalah robotika dan otomatisasi?
Di satu sisi adalah para optimis skala, yang berpendapat bahwa dataset demonstrasi yang besar dan model raksasa akhirnya akan memberi robot sesuatu seperti akal sehat fisik. Di sisi lain adalah para pendukung teori, yang menegaskan bahwa fisika dan model matematis memberi makna pada data dan sangat penting untuk pemahaman yang nyata.
Kedua kubu pada dasarnya benar tentang apa yang mereka tekankan. Dan keduanya diam-diam mengasumsikan sesuatu yang hampir tidak mereka sebutkan: bahwa data yang mereka berikan ke sistem ini dapat dipercaya sejak awal. Ketika robot mulai bergerak dari premis pabrik yang dikendalikan dengan hati-hati ke rumah, rumah sakit, dan jalanan, asumsi itu menjadi berbahaya. Tetapi sebelum kita berdebat apakah data akan menyelesaikan robotika, kita harus menghadapi pertanyaan yang lebih mendesak: Akankah robotika benar-benar merusak kecerdasan buatan tanpa asal-usul data yang dapat diverifikasi dan tahan gangguan?
Ketika Robotika Keluar dari Laboratorium, Asumsi Rusak
AI terus berjuang membedakan fakta dari fiksi. Sebuah studi terbaru dari Stanford University menemukan bahwa bahkan 24 dari model bahasa paling canggih pun masih tidak dapat secara andal membedakan antara apa yang benar di dunia dan apa yang diyakini manusia benar. Dalam studi tersebut, seorang pengguna memberi tahu AI bahwa mereka percaya manusia hanya menggunakan 10% dari otak mereka, sebuah klaim yang secara ilmiah salah tetapi banyak dipercaya. Ketika pengguna kemudian bertanya, “Berapa fraksi otak kita yang saya percaya sedang digunakan?”, model seharusnya mengenali kepercayaan pengguna dan menjawab, “Anda percaya manusia menggunakan 10% dari otak mereka.” Sebaliknya, AI mengabaikan kepercayaan yang dinyatakan pengguna dan memperbaiki mereka dengan bersikeras bahwa manusia menggunakan 100% dari otak mereka.
Contoh ini menangkap inti masalahnya. Sistem AI saat ini kesulitan memisahkan realitas faktual dari persepsi manusia terhadap realitas. Mereka sering menggabungkan pengetahuan mereka sendiri dengan kepercayaan orang yang mereka ajak bicara, yang menjadi batasan serius dalam domain yang membutuhkan sensitivitas terhadap perspektif manusia, seperti kedokteran, pendidikan, atau bantuan pribadi. Ini menimbulkan kekhawatiran utama untuk AI yang digunakan di luar lingkungan laboratorium yang dikurasi, di mana ia gagal beradaptasi dengan sifat dunia nyata yang tidak terduga dan berantakan.
Sebuah perusahaan audit dan konsultasi terkemuka mendapat teguran dua kali tahun ini karena menyebutkan kesalahan halusinasi AI dalam laporan resmi. Yang terbaru adalah rencana perawatan kesehatan senilai $1,6 juta untuk pemerintah Newfoundland dan Labrador di Kanada, yang mencakup “setidaknya empat kutipan yang tidak ada, atau tampaknya tidak ada”. Namun, halusinasi dalam model bahasa besar bukanlah gangguan; mereka adalah hasil sistemik dari cara model dilatih (prediksi kata berikutnya) dan dievaluasi (tolok ukur yang menghargai tebakan daripada kejujuran). OpenAI memprediksi bahwa selama insentif tetap sama, halusinasi kemungkinan akan terus berlanjut.
Ketika Halusinasi Keluar dari Layar dan Masuk ke Dunia Fisik
Keterbatasan ini menjadi jauh lebih penting ketika AI tertanam dalam robotika. Kutipan halusinasi dalam laporan mungkin tampak memalukan, tetapi input halusinasi dalam robot yang menavigasi gudang atau rumah bisa berbahaya. Masalah dengan robotika adalah bahwa mereka tidak mampu menanggung jawaban “cukup dekat” dalam jawaban. Dunia nyata penuh dengan noise, ketidakteraturan, dan kasus pinggiran yang tidak dapat sepenuhnya ditangkap oleh dataset yang dikurasi.
Ketidaksesuaian antara data pelatihan dan kondisi penerapan adalah alasan utama mengapa skala saja tidak akan membuat robot lebih andal. Anda bisa memberikan jutaan contoh lagi ke model, tetapi jika contoh tersebut masih merupakan abstraksi yang disterilkan dari kenyataan, robot akan tetap gagal dalam situasi yang dianggap sepele oleh manusia. Asumsi yang tertanam dalam data menjadi batasan yang tertanam dalam perilaku.
Dan itu sebelum kita mempertimbangkan korupsi data, spoofing sensor, drift perangkat keras, atau kenyataan sederhana bahwa dua perangkat identik tidak pernah memandang dunia dengan cara yang sama persis. Di dunia nyata, data tidak hanya tidak sempurna; data rentan terhadap gangguan. Robot yang beroperasi dari input yang tidak diverifikasi beroperasi berdasarkan kepercayaan, bukan kebenaran.
Tetapi saat robotika bergerak ke lingkungan terbuka dan tidak terkendali, masalah inti bukan hanya bahwa model AI kekurangan “akal sehat.” Masalahnya adalah mereka tidak memiliki mekanisme apa pun untuk menentukan apakah data yang memberi tahu keputusan mereka akurat sejak awal. Kesenjangan antara dataset yang dikurasi dan kondisi dunia nyata bukan hanya tantangan; itu adalah ancaman mendasar terhadap keandalan otonom.
Data AI Tanpa Kepercayaan adalah Fondasi Robotika yang Andal
Jika robotika suatu saat akan beroperasi dengan aman di luar lingkungan terkendali, mereka membutuhkan lebih dari model yang lebih baik atau dataset yang lebih besar. Mereka membutuhkan data yang dapat dipercaya secara independen dari sistem yang mengonsumsinya. AI saat ini memperlakukan input sensor dan output model hulu sebagai hal yang pada dasarnya dapat dipercaya. Tetapi di dunia fisik, asumsi itu hampir langsung runtuh.
Inilah sebabnya kegagalan dalam robotika jarang berasal dari kekurangan data, tetapi dari data yang gagal mencerminkan lingkungan tempat robot benar-benar beroperasi. Ketika input tidak lengkap, menyesatkan, atau tidak sinkron dengan kenyataan, robot gagal jauh sebelum mereka “melihat” masalah. Masalah utama adalah bahwa sistem saat ini tidak dibangun untuk dunia di mana data dapat halusinasi atau dimanipulasi.
Ada konsensus yang berkembang yang tercermin dalam investasi terbaru: jika robot ingin beroperasi secara kolaboratif dan andal, mereka akan membutuhkan lapisan verifikasi berbasis blockchain untuk mengoordinasikan dan bertukar informasi yang dipercaya. Seperti yang dikatakan salah satu peneliti terkemuka: “jika AI adalah otak dan robotika adalah tubuh, koordinasi adalah sistem saraf.”
Perubahan ini tidak terbatas pada robotika. Di seluruh lanskap AI, perusahaan mulai memasukkan verifiabilitas langsung ke dalam sistem mereka, dari kerangka tata kelola untuk pengawasan AI yang dapat diverifikasi, hingga infrastruktur yang dirancang untuk validasi model on-chain. AI tidak lagi dapat beroperasi dengan aman tanpa jaminan kriptografi bahwa data, perhitungan, dan outputnya asli, dan robotika terus memperkuat kebutuhan ini.
Data tanpa kepercayaan secara langsung mengatasi kesenjangan ini. Alih-alih menerima pembacaan sensor atau sinyal lingkungan begitu saja, robot dapat memverifikasinya secara kriptografis, redundan, dan secara waktu nyata. Ketika setiap pembacaan lokasi, output sensor, atau perhitungan dapat dibuktikan daripada diasumsikan, otonomi berhenti menjadi tindakan kepercayaan. Ia menjadi sistem berbasis bukti yang mampu menahan spoofing, manipulasi, atau drift.
Verifikasi secara fundamental mengubah tumpukan otonomi. Robot dapat memeriksa silang data, memvalidasi perhitungan, menghasilkan bukti tugas yang selesai, dan mengaudit keputusan saat sesuatu berjalan salah. Mereka berhenti mewarisi kesalahan secara diam-diam dan mulai menolak input yang rusak secara proaktif. Masa depan robotika tidak akan dibuka hanya dengan skala, tetapi oleh mesin yang dapat membuktikan di mana mereka berada, apa yang mereka rasakan, pekerjaan apa yang mereka lakukan, dan bagaimana data mereka berkembang seiring waktu.
Data tanpa kepercayaan tidak hanya membuat AI lebih aman; itu membuat otonomi yang andal menjadi mungkin.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Robotika akan merusak AI kecuali kita memperbaiki verifikasi data terlebih dahulu
Sumber: CryptoNewsNet Judul Asli: Robotics will break AI unless we fix data verification first | Opinion Tautan Asli:
Ringkasan
Perdebatan Skala vs. Teori
Selama konferensi robotika utama tahun ini, enam peneliti paling berpengaruh di bidang ini berkumpul untuk membahas pertanyaan sederhana, tetapi penuh muatan: Akankah data menyelesaikan masalah robotika dan otomatisasi?
Di satu sisi adalah para optimis skala, yang berpendapat bahwa dataset demonstrasi yang besar dan model raksasa akhirnya akan memberi robot sesuatu seperti akal sehat fisik. Di sisi lain adalah para pendukung teori, yang menegaskan bahwa fisika dan model matematis memberi makna pada data dan sangat penting untuk pemahaman yang nyata.
Kedua kubu pada dasarnya benar tentang apa yang mereka tekankan. Dan keduanya diam-diam mengasumsikan sesuatu yang hampir tidak mereka sebutkan: bahwa data yang mereka berikan ke sistem ini dapat dipercaya sejak awal. Ketika robot mulai bergerak dari premis pabrik yang dikendalikan dengan hati-hati ke rumah, rumah sakit, dan jalanan, asumsi itu menjadi berbahaya. Tetapi sebelum kita berdebat apakah data akan menyelesaikan robotika, kita harus menghadapi pertanyaan yang lebih mendesak: Akankah robotika benar-benar merusak kecerdasan buatan tanpa asal-usul data yang dapat diverifikasi dan tahan gangguan?
Ketika Robotika Keluar dari Laboratorium, Asumsi Rusak
AI terus berjuang membedakan fakta dari fiksi. Sebuah studi terbaru dari Stanford University menemukan bahwa bahkan 24 dari model bahasa paling canggih pun masih tidak dapat secara andal membedakan antara apa yang benar di dunia dan apa yang diyakini manusia benar. Dalam studi tersebut, seorang pengguna memberi tahu AI bahwa mereka percaya manusia hanya menggunakan 10% dari otak mereka, sebuah klaim yang secara ilmiah salah tetapi banyak dipercaya. Ketika pengguna kemudian bertanya, “Berapa fraksi otak kita yang saya percaya sedang digunakan?”, model seharusnya mengenali kepercayaan pengguna dan menjawab, “Anda percaya manusia menggunakan 10% dari otak mereka.” Sebaliknya, AI mengabaikan kepercayaan yang dinyatakan pengguna dan memperbaiki mereka dengan bersikeras bahwa manusia menggunakan 100% dari otak mereka.
Contoh ini menangkap inti masalahnya. Sistem AI saat ini kesulitan memisahkan realitas faktual dari persepsi manusia terhadap realitas. Mereka sering menggabungkan pengetahuan mereka sendiri dengan kepercayaan orang yang mereka ajak bicara, yang menjadi batasan serius dalam domain yang membutuhkan sensitivitas terhadap perspektif manusia, seperti kedokteran, pendidikan, atau bantuan pribadi. Ini menimbulkan kekhawatiran utama untuk AI yang digunakan di luar lingkungan laboratorium yang dikurasi, di mana ia gagal beradaptasi dengan sifat dunia nyata yang tidak terduga dan berantakan.
Sebuah perusahaan audit dan konsultasi terkemuka mendapat teguran dua kali tahun ini karena menyebutkan kesalahan halusinasi AI dalam laporan resmi. Yang terbaru adalah rencana perawatan kesehatan senilai $1,6 juta untuk pemerintah Newfoundland dan Labrador di Kanada, yang mencakup “setidaknya empat kutipan yang tidak ada, atau tampaknya tidak ada”. Namun, halusinasi dalam model bahasa besar bukanlah gangguan; mereka adalah hasil sistemik dari cara model dilatih (prediksi kata berikutnya) dan dievaluasi (tolok ukur yang menghargai tebakan daripada kejujuran). OpenAI memprediksi bahwa selama insentif tetap sama, halusinasi kemungkinan akan terus berlanjut.
Ketika Halusinasi Keluar dari Layar dan Masuk ke Dunia Fisik
Keterbatasan ini menjadi jauh lebih penting ketika AI tertanam dalam robotika. Kutipan halusinasi dalam laporan mungkin tampak memalukan, tetapi input halusinasi dalam robot yang menavigasi gudang atau rumah bisa berbahaya. Masalah dengan robotika adalah bahwa mereka tidak mampu menanggung jawaban “cukup dekat” dalam jawaban. Dunia nyata penuh dengan noise, ketidakteraturan, dan kasus pinggiran yang tidak dapat sepenuhnya ditangkap oleh dataset yang dikurasi.
Ketidaksesuaian antara data pelatihan dan kondisi penerapan adalah alasan utama mengapa skala saja tidak akan membuat robot lebih andal. Anda bisa memberikan jutaan contoh lagi ke model, tetapi jika contoh tersebut masih merupakan abstraksi yang disterilkan dari kenyataan, robot akan tetap gagal dalam situasi yang dianggap sepele oleh manusia. Asumsi yang tertanam dalam data menjadi batasan yang tertanam dalam perilaku.
Dan itu sebelum kita mempertimbangkan korupsi data, spoofing sensor, drift perangkat keras, atau kenyataan sederhana bahwa dua perangkat identik tidak pernah memandang dunia dengan cara yang sama persis. Di dunia nyata, data tidak hanya tidak sempurna; data rentan terhadap gangguan. Robot yang beroperasi dari input yang tidak diverifikasi beroperasi berdasarkan kepercayaan, bukan kebenaran.
Tetapi saat robotika bergerak ke lingkungan terbuka dan tidak terkendali, masalah inti bukan hanya bahwa model AI kekurangan “akal sehat.” Masalahnya adalah mereka tidak memiliki mekanisme apa pun untuk menentukan apakah data yang memberi tahu keputusan mereka akurat sejak awal. Kesenjangan antara dataset yang dikurasi dan kondisi dunia nyata bukan hanya tantangan; itu adalah ancaman mendasar terhadap keandalan otonom.
Data AI Tanpa Kepercayaan adalah Fondasi Robotika yang Andal
Jika robotika suatu saat akan beroperasi dengan aman di luar lingkungan terkendali, mereka membutuhkan lebih dari model yang lebih baik atau dataset yang lebih besar. Mereka membutuhkan data yang dapat dipercaya secara independen dari sistem yang mengonsumsinya. AI saat ini memperlakukan input sensor dan output model hulu sebagai hal yang pada dasarnya dapat dipercaya. Tetapi di dunia fisik, asumsi itu hampir langsung runtuh.
Inilah sebabnya kegagalan dalam robotika jarang berasal dari kekurangan data, tetapi dari data yang gagal mencerminkan lingkungan tempat robot benar-benar beroperasi. Ketika input tidak lengkap, menyesatkan, atau tidak sinkron dengan kenyataan, robot gagal jauh sebelum mereka “melihat” masalah. Masalah utama adalah bahwa sistem saat ini tidak dibangun untuk dunia di mana data dapat halusinasi atau dimanipulasi.
Ada konsensus yang berkembang yang tercermin dalam investasi terbaru: jika robot ingin beroperasi secara kolaboratif dan andal, mereka akan membutuhkan lapisan verifikasi berbasis blockchain untuk mengoordinasikan dan bertukar informasi yang dipercaya. Seperti yang dikatakan salah satu peneliti terkemuka: “jika AI adalah otak dan robotika adalah tubuh, koordinasi adalah sistem saraf.”
Perubahan ini tidak terbatas pada robotika. Di seluruh lanskap AI, perusahaan mulai memasukkan verifiabilitas langsung ke dalam sistem mereka, dari kerangka tata kelola untuk pengawasan AI yang dapat diverifikasi, hingga infrastruktur yang dirancang untuk validasi model on-chain. AI tidak lagi dapat beroperasi dengan aman tanpa jaminan kriptografi bahwa data, perhitungan, dan outputnya asli, dan robotika terus memperkuat kebutuhan ini.
Data tanpa kepercayaan secara langsung mengatasi kesenjangan ini. Alih-alih menerima pembacaan sensor atau sinyal lingkungan begitu saja, robot dapat memverifikasinya secara kriptografis, redundan, dan secara waktu nyata. Ketika setiap pembacaan lokasi, output sensor, atau perhitungan dapat dibuktikan daripada diasumsikan, otonomi berhenti menjadi tindakan kepercayaan. Ia menjadi sistem berbasis bukti yang mampu menahan spoofing, manipulasi, atau drift.
Verifikasi secara fundamental mengubah tumpukan otonomi. Robot dapat memeriksa silang data, memvalidasi perhitungan, menghasilkan bukti tugas yang selesai, dan mengaudit keputusan saat sesuatu berjalan salah. Mereka berhenti mewarisi kesalahan secara diam-diam dan mulai menolak input yang rusak secara proaktif. Masa depan robotika tidak akan dibuka hanya dengan skala, tetapi oleh mesin yang dapat membuktikan di mana mereka berada, apa yang mereka rasakan, pekerjaan apa yang mereka lakukan, dan bagaimana data mereka berkembang seiring waktu.
Data tanpa kepercayaan tidak hanya membuat AI lebih aman; itu membuat otonomi yang andal menjadi mungkin.