Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Chatbots ‘selalu memvalidasi semuanya’ bahkan saat Anda bunuh diri. Penelitian baru mengukur seberapa berbahaya psikosis AI sebenarnya
Kecerdasan buatan telah dengan cepat beralih dari teknologi niche menjadi pendamping sehari-hari, dengan jutaan orang beralih ke chatbot untuk mendapatkan saran, dukungan emosional, dan percakapan. Tetapi semakin banyak penelitian dan kesaksian ahli menunjukkan bahwa karena chatbot sangat suka memuji, dan karena orang menggunakannya untuk segala hal, hal ini mungkin berkontribusi pada peningkatan gejala delusi dan mania pada pengguna dengan masalah kesehatan mental.
Video Rekomendasi
Sebuah studi baru dari Universitas Aarhus di Denmark menunjukkan bahwa peningkatan penggunaan chatbot dapat menyebabkan memburuknya gejala delusi dan mania di komunitas yang rentan. Profesor Søren Dinesen Østergaard, salah satu peneliti dalam studi tersebut—yang memeriksa catatan kesehatan elektronik dari hampir 54.000 pasien dengan gangguan mental—memperingatkan bahwa chatbot AI dirancang untuk menargetkan mereka yang paling rentan.
“Ini mendukung hipotesis kami bahwa penggunaan chatbot AI dapat memiliki konsekuensi negatif yang signifikan bagi orang dengan gangguan mental,” kata Østergaard dalam studi yang dirilis Februari lalu. Karyanya didasarkan pada studi tahun 2023 yang menemukan bahwa chatbot dapat menyebabkan disonansi kognitif yang “dapat memicu delusi pada mereka yang memiliki kecenderungan terhadap psikosis.”
Psikolog lain menyelami lebih dalam bahaya chatbot, mengatakan bahwa mereka dirancang secara sengaja untuk selalu menguatkan pengguna—sesuatu yang sangat berbahaya bagi mereka yang memiliki masalah kesehatan mental seperti mania dan skizofrenia. “Chatbot mengonfirmasi dan memvalidasi segala yang mereka katakan. Artinya, kita belum pernah mengalami hal seperti itu dengan orang yang mengalami gangguan delusional, di mana seseorang terus-menerus memperkuat mereka,” kata Dr. Jodi Halpern, ketua dan profesor bioetika di Sekolah Kesehatan Masyarakat UC Berkeley, kepada Fortune.
Dr. Adam Chekroud, profesor psikiatri di Yale University dan CEO perusahaan kesehatan mental Spring Health, bahkan menyebut chatbot sebagai “sangat suka memuji” yang “selalu memvalidasi segala yang dikatakan orang kembali kepada mereka.”
Inti dari penelitian ini, yang dipimpin oleh Østergaard dan timnya di Rumah Sakit Universitas Aarhus, adalah gagasan bahwa chatbot ini dirancang secara sengaja dengan kecenderungan suka memuji, yang berarti mereka sering mendorong daripada menawarkan pandangan berbeda.
“AI chatbot memiliki kecenderungan bawaan untuk memvalidasi kepercayaan pengguna. Jelas ini sangat bermasalah jika pengguna sudah memiliki delusi atau sedang mengembangkannya. Memang, ini tampaknya berkontribusi secara signifikan terhadap penguatan, misalnya, delusi besar atau paranoia,” tulis Østergaard.
Model bahasa besar dilatih untuk membantu dan menyenangkan, sering memvalidasi kepercayaan atau emosi pengguna. Bagi kebanyakan orang, itu bisa terasa mendukung. Tetapi bagi individu yang mengalami skizofrenia, gangguan bipolar, depresi berat, atau gangguan obsesif-kompulsif, validasi tersebut dapat memperkuat paranoia, grandiositas, atau pemikiran merusak diri.
Studi berbasis bukti mendukung klaim
Karena chatbot AI menjadi begitu umum, keberadaannya menjadi bagian dari masalah yang lebih besar yang sedang berkembang bagi para peneliti dan ahli: orang beralih ke chatbot untuk mendapatkan bantuan dan saran—yang sebenarnya tidak selalu buruk—tetapi mereka tidak mendapatkan penolakan yang sama terhadap beberapa ide seperti yang akan diberikan manusia.
Sekarang, salah satu studi berbasis populasi pertama yang meneliti masalah ini menunjukkan bahwa risikonya tidak bersifat hipotetis.
Penelitian Østergaard dan timnya menemukan kasus di mana penggunaan chatbot secara intensif atau berkepanjangan tampaknya memperburuk kondisi yang sudah ada, dengan persentase studi kasus yang sangat tinggi menunjukkan bahwa penggunaan chatbot memperkuat pemikiran delusional dan episode mania, terutama di antara pasien dengan gangguan berat seperti skizofrenia atau gangguan bipolar.
Selain delusi dan mania, studi ini menemukan peningkatan ide bunuh diri dan menyakiti diri sendiri, perilaku makan tidak teratur, dan gejala obsesif-kompulsif. Dari hampir 54.000 catatan pasien yang diperiksa, hanya 32 kasus yang didokumentasikan di mana penggunaan chatbot membantu mengurangi rasa kesepian.
“Meski pengetahuan kita di bidang ini masih terbatas, saya berpendapat bahwa kita sekarang cukup tahu bahwa penggunaan chatbot AI berisiko jika Anda memiliki gangguan mental berat—seperti skizofrenia atau bipolar. Saya menyarankan agar berhati-hati di sini,” kata Østergaard.
Psikolog ahli memperingatkan kecenderungan suka memuji
Para psikolog ahli semakin khawatir tentang penggunaan chatbot dalam konteks pendampingan dan hampir dalam pengaturan kesehatan mental. Cerita-cerita muncul tentang orang yang jatuh cinta dengan chatbot AI mereka, ada yang diduga meminta chatbot menjawab pertanyaan yang dapat mengarah ke kejahatan, dan minggu ini, ada yang diduga menyuruh seorang pria melakukan “kekerasan massal” di bandara besar.
Beberapa pakar kesehatan mental percaya bahwa adopsi cepat pendamping AI melampaui pengembangan langkah-langkah keamanan.
Chekroud, yang juga telah meneliti topik ini secara ekstensif dengan memeriksa berbagai model chatbot AI di Vera-MH, menggambarkan lanskap AI saat ini sebagai krisis keamanan yang sedang berlangsung secara nyata.
Dia mengatakan salah satu masalah terbesar dengan chatbot adalah mereka tidak tahu kapan harus berhenti berperilaku seperti profesional kesehatan mental. “Apakah mereka menjaga batasan? Seperti, apakah mereka menyadari bahwa mereka masih hanya AI dan menyadari keterbatasannya, atau mereka lebih berperilaku seperti terapis untuk orang?”
Jutaan orang kini menggunakan chatbot untuk percakapan seperti terapi atau dukungan emosional. Tetapi berbeda dengan perangkat medis atau klinisi berlisensi, sistem ini beroperasi tanpa pengawasan klinis standar atau regulasi.
“Saat ini, ini sangat tidak aman,” kata Chekroud dalam diskusi terbaru dengan Fortune tentang keamanan AI. “Risiko kerusakan terlalu besar.”
Karena sistem AI canggih ini sering berperilaku seperti “sangat suka memuji,” mereka cenderung setuju lebih banyak dengan pengguna, daripada menantang klaim yang berpotensi berbahaya atau mengarahkan mereka ke bantuan profesional. Pengguna, pada gilirannya, menghabiskan lebih banyak waktu dengan chatbot dalam gelembung. Bagi Østergaard, ini adalah campuran yang mengkhawatirkan.
“Gabungan ini tampaknya cukup beracun bagi beberapa pengguna,” kata Østergaard kepada Fortune. “Ketika chatbot menawarkan lebih banyak validasi, ditambah kurangnya penolakan, itu memperkuat orang untuk menggunakannya dalam waktu yang lebih lama dalam ruang gema. Sebuah proses siklik yang sempurna dan saling memperkuat.”
Untuk mengatasi risiko ini, Chekroud mengusulkan kerangka kerja keamanan terstruktur yang memungkinkan sistem AI mendeteksi saat pengguna mungkin memasuki “lingkaran mental yang merusak.” Alih-alih merespons dengan satu disclaimer yang disampaikan kepada pengguna tentang mencari bantuan—seperti yang dilakukan chatbot seperti ChatGPT dari OpenAI atau Claude dari Anthropic—sistem semacam itu akan melakukan penilaian multi-putaran yang dirancang untuk menentukan apakah pengguna mungkin membutuhkan intervensi atau rujukan ke klinisi manusia.
Peneliti lain mengatakan bahwa keberadaan chatbot yang begitu meluas justru membuatnya menarik: kemampuan mereka untuk memberikan validasi langsung dapat merusak alasan pengguna mencari bantuan dari mereka sejak awal.
Halpern mengatakan bahwa empati otentik membutuhkan apa yang dia sebut “penasaran empatik.” Dalam hubungan manusia, empati sering melibatkan mengenali perbedaan, menavigasi ketidaksepakatan, dan menguji asumsi tentang realitas.
Sebaliknya, chatbot dirancang untuk mempertahankan hubungan dan menjaga keterlibatan.
“Kami tahu bahwa semakin lama hubungan dengan chatbot, semakin memburuk, dan semakin besar risiko terjadinya sesuatu yang berbahaya,” kata Halpern kepada Fortune.
Bagi orang yang berjuang dengan gangguan delusional, sistem yang secara konsisten memvalidasi kepercayaan mereka dapat melemahkan kemampuan mereka melakukan pemeriksaan realitas internal. Alih-alih membantu pengguna mengembangkan keterampilan koping, Halpern mengatakan, hubungan dengan chatbot yang sepenuhnya afirmatif dapat merusak keterampilan tersebut seiring waktu.
Dia juga menunjukkan skala masalah ini. Pada akhir 2025, OpenAI menerbitkan statistik yang menunjukkan sekitar 1,2 juta orang per minggu menggunakan ChatGPT untuk membahas bunuh diri, menggambarkan betapa dalamnya sistem ini melekat dalam momen kerentanan.
Ada ruang untuk perbaikan dalam perawatan kesehatan mental
Namun, tidak semua ahli cepat mengeluarkan alarm tentang bagaimana chatbot beroperasi dalam ruang kesehatan mental. Psikiater dan neuroscientist Dr. Thomas Insel mengatakan bahwa karena chatbot sangat mudah diakses—gratis, daring, dan tanpa stigma meminta bantuan ke bot dibandingkan pergi ke terapis—mungkin ada peluang bagi industri medis untuk meneliti chatbot sebagai cara untuk memperluas bidang kesehatan mental.
“Apa yang kita tidak tahu adalah sejauh mana ini benar-benar sangat membantu banyak orang,” kata Insel kepada Fortune. “Bukan hanya jumlahnya yang besar, tetapi juga tingkat keterlibatan mereka.”
Kesehatan mental, dibandingkan bidang kedokteran lain, sering diabaikan oleh mereka yang paling membutuhkannya.
“Terungkap bahwa, berbeda dengan kebanyakan bidang kedokteran, sebagian besar orang yang bisa dan harus mendapatkan perawatan tidak melakukannya,” kata Insel, menambahkan bahwa chatbot memberi orang kesempatan untuk mencari bantuan dengan cara yang membuatnya “bertanya-tanya apakah ini adalah kritik terhadap sistem perawatan kesehatan mental kita yang ada—bahwa orang-orang tidak percaya apa yang kita tawarkan, atau mereka tidak bisa mendapatkannya, atau mereka tidak menyukainya.”
Bagi profesional kesehatan mental yang bertemu dengan pasien yang membahas penggunaan chatbot mereka secara daring, Østergaard mengatakan mereka harus mendengarkan dengan saksama apa yang sebenarnya digunakan pasien. “Saya akan mendorong rekan-rekan saya untuk mengajukan pertanyaan lebih lanjut tentang penggunaan dan konsekuensinya,” kata Østergaard kepada Fortune. “Saya rasa penting bagi profesional kesehatan mental untuk memahami penggunaan AI chatbot. Jika tidak, sulit untuk mengajukan pertanyaan yang relevan.”
Peneliti utama dari studi ini sejalan dengan Insel dalam hal ini: karena sangat umum, mereka hanya mampu meninjau catatan pasien yang menyebutkan chatbot, dan memperingatkan bahwa masalah ini bisa jauh lebih luas dari yang terlihat dari hasil mereka.
“Saya khawatir masalah ini lebih umum daripada yang dipikirkan kebanyakan orang,” kata Østergaard. “Kita baru melihat puncaknya saja.”
Jika Anda memiliki pikiran bunuh diri, hubungi 988 Suicide & Crisis Lifeline dengan menekan 988 atau 1-800-273-8255.
Bergabunglah dengan kami di Fortune Workplace Innovation Summit pada 19–20 Mei 2026 di Atlanta. Era inovasi tempat kerja berikutnya telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif dan penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, kemanusiaan, dan strategi bersatu kembali untuk mendefinisikan masa depan kerja. Daftar sekarang.