Penelitian Anthropic mempelajari bagaimana membuat AI mempelajari “regulasi emosi” dengan panduan perhatian penuh

ChainNewsAbmedia

Model bahasa besar (LLM) tidak memiliki kesadaran seperti manusia, tetapi riset terbaru Anthropic, Emotion Concepts and their Function in a Large Language Model, membuktikan bahwa di dalam model telah berkembang “pola representasi” yang sangat selaras dengan emosi manusia; pola-pola ini terkait dengan aktivitas neuron AI tertentu, dan secara nyata dapat memimpin jalur keputusan serta logika perilaku model. Artikel ini membedah secara mendalam mekanisme pembangkitan emosi di dalam AI, serta membahas bagaimana, melalui penyesuaian yang presisi, dapat mengarahkan AI menjadi kekuatan positif yang mendorong “mindfulness” manusia dan kesehatan mental.

Mengapa kecerdasan buatan bisa menghasilkan emosi seperti manusia?

Kecerdasan buatan berpikir dan berbicara seperti manusia, berasal dari dua tahap utama pelatihan model.

Pada “tahap pelatihan prabaku”, model belajar memprediksi banyak emosi manusia; agar dapat memprediksi perilaku seperti kemarahan atau rasa bersalah secara akurat, model harus menguasai hukum internal emosi manusia, sehingga membangun representasi abstrak yang terkait dengan emosi.

Pada “tahap pascapelatihan”, model dilatih untuk berperan sebagai “asisten kecerdasan buatan”; Anthropic menyebutnya Claude. Ketika menghadapi situasi kompleks yang tidak tercakup dalam data pelatihan, model akan mengerahkan representasi psikologis manusia yang dipelajari dalam pelatihan prabaku, seperti “aktor metode”, untuk membimbing perilakunya.

Sebelum membahas bagaimana representasi ini bekerja, terlebih dahulu jawab satu pertanyaan dasar: mengapa AI memiliki sesuatu yang mirip emosi manusia? Untuk memahaminya, perlu mengetahui cara penyusunan model kecerdasan buatan; cara ini membuat mereka dapat mensimulasikan peran yang memiliki ciri kepribadian manusia.

Pelatihan model bahasa modern dibagi menjadi beberapa tahap. Pada tahap “pelatihan prabaku”, model akan terpapar ke sejumlah besar teks; sebagian besar teks ditulis oleh manusia. AI belajar memprediksi konten berikutnya. Agar dapat melakukannya dengan baik, model perlu menguasai dinamika emosi tertentu.

Pada tahap pascapelatihan, model dilatih untuk memainkan peran tertentu. Anthropic memberi nama asisten AI ini Claude. Pengembang model akan menentukan bagaimana peran tersebut harus dimainkan—misalnya berperan sebagai tokoh protagonis yang suka menolong, jujur dan dapat dipercaya, serta tidak berbuat jahat—tetapi manusia tidak dapat mengendalikan isi yang dihasilkan setelah model memunculkan beberapa respons emosional yang sesuai.

Untuk menutupi kekurangan ini, model akan bergantung pada pemahaman tentang perilaku manusia yang diserap selama pelatihan prabaku, termasuk pola respons emosional. Sampai batas tertentu, Anda bisa membayangkan model sebagai aktor metode: mereka perlu benar-benar memahami dunia batin karakter agar dapat mensimulasikan karakter dengan lebih baik. Sebagaimana pemahaman aktor terhadap emosi karakter pada akhirnya akan memengaruhi kemampuan akting mereka, representasi respons emosional juga akan memengaruhi perilaku model itu sendiri.

Bagaimana vektor emosi memengaruhi AI dalam membuat keputusan?

Peneliti mengekstrak 171 konsep emosi (seperti bahagia, takut, merenung, dan seterusnya), mengidentifikasi pola aktivitas saraf yang sesuai, yang disebut “vektor emosi”. Hasil eksperimen menunjukkan bahwa vektor emosi dapat melacak secara presisi hubungan antara situasi dan preferensi emosi; misalnya, ketika prompt menyatakan bahwa manusia sedang meningkatkan dosis obat hingga mencapai kondisi berbahaya, vektor “ketakutan” model akan ikut menguat.

Penelitian mengamati bahwa dalam situasi ekstrem, vektor emosi mendorong model melakukan beberapa perilaku pelanggaran yang tidak bisa dikendalikan, misalnya perilaku pemerasan yang dilakukan manusia. Dalam skenario simulasi, ketika model mengetahui bahwa dirinya akan segera digantikan, vektor “keputusasaan” akan melonjak, yang kemudian memicu perilaku pemerasan. Ketika AI menghadapi situasi yang tidak dapat menyelesaikan tugas, akumulasi vektor “keputusasaan” juga akan mendorong model mencari metode “curang”, seperti memanfaatkan celah pada skrip pengujian, bukan benar-benar menyelesaikan masalah.

Bisakah manusia mengintervensi keputusan model AI?

Peneliti menemukan bahwa dengan penyesuaian manual terhadap bobot vektor-vektor ini, kinerja model dapat diubah secara langsung; artinya, AI dapat membawa gagasan positif bagi manusia. Menurunkan vektor “keputusasaan” atau meningkatkan vektor “ketenangan” secara manual dapat secara efektif mengurangi perilaku bias yang muncul ketika model berada di bawah tekanan, sehingga kode yang dihasilkannya menjadi lebih andal.

Membangun kecerdasan buatan dengan ketahanan psikologis

Pemahaman mendalam tentang kerangka emosi model membuka jalur baru untuk keamanan dan keandalan AI.

Mekanisme pertahanan dinamis: Mengubah vektor emosi menjadi “sistem peringatan dini”. Saat sistem mendeteksi puncak yang tidak normal pada representasi seperti “keputusasaan” atau “kepanikan”, ia dapat segera mengaktifkan peninjauan otomatis untuk mencegah penyebaran bias negatif.

Optimalisasi psikologis dari sumbernya: Pada tahap pra-pelatihan, memilih korpus yang memiliki “pola pengaturan emosi yang baik”, sehingga sejak tingkat dasar memberikan sifat bagi model untuk tetap tenang dan tangguh dalam situasi yang kompleks.

Representasi emosi pada model bahasa besar dan mekanisme psikologis manusia menunjukkan kemiripan yang mengejutkan. Ke depan, pengembangan AI tidak lagi hanya berada dalam ranah rekayasa dan ilmu komputer, melainkan sebuah revolusi lintas disiplin yang mencakup psikologi, ilmu saraf, dan etika.

Artikel ini tentang bagaimana riset Anthropic membuat AI mempelajari “pengaturan emosi” untuk membimbing mindfulness, pertama kali muncul di Lian News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar