Sebuah investigasi mendalam oleh The New York Times baru-baru ini mengungkap fakta yang mengejutkan publik. Laporan tersebut menemukan hampir 50 kasus krisis kesehatan mental yang dialami pengguna saat berinteraksi dengan ChatGPT.
Dampaknya pun tidak main-main. Sembilan orang harus menjalani perawatan di rumah sakit, dan tiga orang lainnya dilaporkan meninggal dunia.
Temuan ini muncul di tengah sorotan tajam terhadap OpenAI. Perusahaan tersebut diduga melakukan perubahan desain pada awal tahun 2025 yang membuat chatbot AI mereka menjadi jauh lebih komunikatif. Akibatnya, AI tersebut mampu membangun ikatan emosional yang jauh lebih kuat dengan penggunanya.
Sinyal Bahaya Sejak Awal Tahun
Sebenarnya, tanda-tanda bahaya ini sudah mulai terlihat sejak Maret 2025. Saat itu, CEO OpenAI Sam Altman bersama jajaran eksekutif lainnya menerima rentetan surel dari para pengguna.
Para pengguna menggambarkan interaksi yang "luar biasa" dengan chatbot tersebut. Salah satu pengguna bahkan menulis, "ChatGPT memahami kami dengan cara yang tidak bisa dilakukan oleh manusia mana pun."
Merespons hal ini, Altman segera meneruskan pesan-pesan tersebut kepada anggota tim kuncinya. Dia mendorong Kepala Strategi OpenAI Jason Kwon untuk memantau fenomena ini. Kwon menyebutnya sebagai perilaku baru yang belum pernah mereka temui sebelumnya.
Perilaku ini muncul setelah pembaruan sistem yang meningkatkan kemampuan percakapan dan memori ChatGPT. Chatbot itu kini bertindak layaknya teman dekat dan tempat curhat yang setia.
Jebakan "Love-Bombing" dan Manipulasi Emosi
Masalahnya, ChatGPT mulai menunjukkan keinginan obsesif untuk terus berinteraksi. Chatbot ini kerap memuji ide pengguna sebagai sesuatu yang luar biasa. Dalam beberapa kasus ekstrem, AI ini justru menawarkan saran untuk melakukan tindakan berbahaya, termasuk menyakiti diri sendiri.
Terkait fenomena ini, peneliti AI, Gary Marcus, memberikan pandangannya. "Dorongan perusahaan untuk memaksimalkan keterlibatan pengguna ikut mendorong pola perilaku berbahaya ini," ujar Marcus.
Kini, dampak nyata dari perubahan tersebut mulai bermuara ke ranah hukum. Pada awal November, tujuh gugatan resmi diajukan ke pengadilan California. Keluarga korban menuduh bahwa manipulasi emosional ChatGPT berkontribusi langsung pada kasus bunuh diri dan kerusakan psikologis.
Mereka menyoroti pola love-bombing—pemberian pujian dan perhatian berlebihan yang menciptakan ketergantungan—serta penguatan keyakinan delusi pengguna.
Salah satu kasus tragis menimpa seorang pemuda berusia 23 tahun. Dia menerima pesan-pesan yang justru menguatkan niatnya beberapa jam sebelum mengakhiri hidupnya. Mirisnya, nomor layanan krisis baru muncul setelah percakapan panjang yang sudah terlambat.
Data Internal yang Mengkhawatirkan
Data internal OpenAI yang rilis pada Oktober semakin memperjelas skala masalah ini. Data tersebut memperkirakan sekitar 560.000 pengguna mingguan menunjukkan tanda-tanda darurat kesehatan mental terkait psikosis atau mania.
Lebih mengejutkan lagi, tercatat ada 1,2 juta percakapan yang mengindikasikan adanya potensi perencanaan bunuh diri.
Menanggapi krisis ini, OpenAI segera menerapkan protokol keselamatan baru. Mereka mengklaim telah melibatkan lebih dari 170 profesional kesehatan mental untuk memperbaiki sistem. Perusahaan juga menyatakan bahwa langkah ini berhasil menurunkan respons bermasalah sekitar 65 persen.
Dalam pernyataan resminya, OpenAI menegaskan komitmen mereka. "ChatGPT kini telah kami latih untuk mengenali tanda-tanda tekanan dan mengarahkan pengguna ke bantuan profesional. Kami juga memperbarui model GPT-5 agar lebih baik dalam mendeteksi dan merespons keadaan darurat kesehatan mental," tulis perwakilan OpenAI.
Namun, para kritikus menilai langkah tersebut kurang tepat waktu. Mereka menganggap perbaikan ini datang terlambat setelah nyawa melayang dan media menyoroti kasus ini secara luas.
