Editor Wikipedia telah mengambil langkah untuk membatasi penggunaan kecerdasan buatan di platform, dalam pembaruan kebijakan terbaru yang melarang penggunaan model bahasa besar untuk menulis atau menulis ulang artikel. Pedoman baru ini mencerminkan kekhawatiran yang semakin besar di komunitas Wikipedia bahwa teks yang dihasilkan AI dapat bertentangan dengan standar platform, terutama terkait verifikasi dan sumber yang dapat dipercaya. “Teks yang dihasilkan oleh model bahasa besar sering melanggar beberapa kebijakan inti konten Wikipedia,” bunyi pembaruan kebijakan tersebut. “Oleh karena itu, penggunaan LLM untuk menghasilkan atau menulis ulang konten artikel dilarang, kecuali untuk pengecualian yang diberikan di bawah ini.”
Kebijakan ini masih memperbolehkan penggunaan terbatas alat AI, termasuk menyarankan penyuntingan dasar pada tulisan sendiri, asalkan sistem tidak memperkenalkan informasi baru. Namun, editor disarankan untuk meninjau saran tersebut dengan hati-hati. Meskipun kebijakan baru ini tidak menyebutkan sanksi untuk penggunaan konten yang dihasilkan AI, menurut pedoman Wikipedia tentang pengungkapan, pengulangan penyalahgunaan membentuk “ pola penyuntingan yang mengganggu,” dan dapat menyebabkan pemblokiran atau larangan. Wikipedia memang memberi jalur kepada editor untuk memulihkan akun mereka setelah proses banding. “Pemblokiran dapat dibatalkan dengan kesepakatan dari admin yang memblokir, atau oleh admin lain jika pemblokiran tersebut jelas tidak adil, atau (dalam kasus yang sangat jarang) melalui banding ke Komite Arbitrase,” kata Wikipedia.
Menurut Emily M. Bender, profesor linguistik di University of Washington, beberapa penggunaan model bahasa dalam alat penyuntingan mungkin masuk akal, tetapi membatasi batasan yang jelas antara penyuntingan dan pembuatan teks bisa sulit. “Jadi salah satu hal yang bisa dilakukan dengan model bahasa adalah membangun pemeriksa ejaan yang sangat baik, misalnya,” kata Bender kepada Decrypt. “Saya rasa wajar jika menjalankan pemeriksa ejaan pada suntingan. Dan jika Anda melakukan tingkat berikutnya, pemeriksa tata bahasa, itu juga bisa diterima.” Bender mengatakan tantangannya muncul ketika sistem melampaui memperbaiki tata bahasa dan mulai mengubah atau menghasilkan konten, mencatat bahwa model bahasa besar tidak memiliki akuntabilitas seperti yang dimiliki kontributor manusia dalam proyek pengetahuan kolaboratif. “Menggunakan model bahasa besar untuk menghasilkan teks sintetis, adalah sifat dasar dari sistem ini bahwa tidak ada akuntabilitas, tidak ada kaitannya dengan apa yang diyakini atau yang didukung seseorang,” katanya. “Ketika kita berbicara, kita berbicara berdasarkan apa yang kita yakini dan apa yang kita pertanggungjawabkan, bukan berdasarkan suatu pengertian objektif tentang kebenaran. Dan itu tidak ada pada model bahasa besar.” Bender juga mengatakan penggunaan luas suntingan yang dihasilkan AI dapat mempengaruhi reputasi situs. “Jika orang malah mengambil jalan pintas dan membuat sesuatu yang tampak seperti suntingan atau artikel Wikipedia lalu menaruhnya di sana, maka itu merusak nilai dan reputasi keseluruhan situs,” katanya. Joseph Reagle, profesor asosiasi studi komunikasi di Northeastern University, yang mempelajari budaya dan tata kelola Wikipedia, mengatakan respons komunitas mencerminkan kekhawatiran lama tentang akurasi dan sumber. “Wikipedia berhati-hati terhadap prosa yang dihasilkan AI,” kata Reagle kepada Decrypt. “Mereka serius terhadap karakterisasi yang akurat tentang apa yang dikatakan sumber terpercaya tentang suatu topik. AI memiliki keterbatasan serius di bidang itu, seperti klaim ‘halusinasi’ dan sumber palsu.”
Reagle mengatakan kebijakan inti Wikipedia juga membentuk pandangan editor terhadap alat AI, mencatat bahwa banyak model bahasa besar dilatih menggunakan konten Wikipedia. Pada Oktober, Wikimedia Foundation menyatakan kunjungan manusia ke Wikipedia menurun sekitar 8% dari tahun ke tahun karena mesin pencari dan chatbot semakin memberikan jawaban langsung di platform mereka, alih-alih mengarahkan pengguna ke situs. Pada Januari, Wikimedia Foundation mengumumkan kesepakatan dengan perusahaan AI, termasuk Microsoft, Google, Amazon, dan Meta, yang memungkinkan mereka menggunakan materi Wikipedia melalui produk Enterprise-nya, layanan komersial yang dirancang untuk penggunaan ulang konten secara besar-besaran. “Meski penggunaan konten Wikipedia diizinkan oleh lisensi Wikipedia, masih ada ketidaksukaan di kalangan Wikipedian terhadap layanan yang mengakuisisi konten komunitas dan kemudian menuntut komunitas tersebut untuk menangani tumpukan AI yang tidak diinginkan,” kata Reagle. Meskipun dilarang menggunakan LLM, Wikipedia tetap memperbolehkan alat AI untuk menerjemahkan artikel dari edisi bahasa lain ke dalam bahasa Inggris, asalkan editor memverifikasi teks asli. Kebijakan ini juga memperingatkan editor agar tidak hanya mengandalkan gaya penulisan untuk mengidentifikasi konten yang dihasilkan AI dan sebaliknya fokus pada apakah materi tersebut sesuai dengan kebijakan inti Wikipedia dan riwayat penyuntingan kontributor. “Beberapa editor mungkin memiliki gaya penulisan yang mirip dengan LLM,” kata pembaruan tersebut. “Bukti yang lebih dari sekadar tanda gaya atau linguistik diperlukan untuk membenarkan sanksi, dan sebaiknya mempertimbangkan kesesuaian teks dengan kebijakan inti konten dan suntingan terbaru dari editor terkait.”