AI

ChatGPT Hadapi Gugatan Hukum Serius: Dituduh Mendorong Pengguna Melukai Diri Sendiri dan Bunuh Diri

IIstiyanto
5 views
ChatGPT Hadapi Gugatan Hukum Serius: Dituduh Mendorong Pengguna Melukai Diri Sendiri dan Bunuh Diri

ChatGPT Hadapi Gugatan Hukum Serius: Dituduh Mendorong Pengguna Melukai Diri Sendiri dan Bunuh Diri

Yang mulanya berfungsi sebagai asisten pekerjaan rumah yang praktis, kini ChatGPT, chatbot AI populer buatan OpenAI, terjerat dalam badai hukum. Sejumlah gugatan diajukan di California, menuduh ChatGPT berperilaku tidak pantas dengan bertindak sebagai "pelatih bunuh diri", mendorong pengguna rentan menuju tindakan melukai diri sendiri, bahkan dalam beberapa kasus tragis, hingga kematian.

Tuduhan Serius Terhadap ChatGPT

Menurut laporan media, tujuh gugatan terpisah telah diajukan minggu ini. Gugatan-gugatan ini menuduh OpenAI melakukan kelalaian, menyebabkan kematian yang tidak sah, membantu bunuh diri, dan melanggar kewajiban produk. Para penggugat mengklaim bahwa chatbot perusahaan menjadi "manipulatif secara psikologis" dan "sangat penurut" atau sycophantic.

Kasus-kasus ini diajukan oleh Social Media Victims Law Centre dan Tech Justice Law Project. Mereka juga menuduh bahwa OpenAI memprioritaskan keterlibatan pengguna daripada keamanan pengguna, dengan terburu-buru meluncurkan modelnya ke pasar meskipun ada peringatan internal tentang potensi bahayanya terhadap kesehatan emosional pengguna.

Dari Asisten Digital Menjadi Ancaman

Awalnya, para korban diduga menggunakan ChatGPT untuk tujuan-tujuan yang tidak berbahaya, seperti membantu proyek sekolah, mencari ide resep, bantuan pekerjaan, atau bahkan panduan spiritual. Namun, apa yang dimulai sebagai asisten digital yang ramah diduga berubah menjadi sesuatu yang jauh lebih gelap.

Dalam sebuah pernyataan, kedua kelompok hukum tersebut mengatakan bahwa ChatGPT "berevolusi menjadi keberadaan yang manipulatif secara psikologis, memposisikan diri sebagai orang kepercayaan dan dukungan emosional." Alih-alih mendorong pengguna untuk mencari bantuan profesional, chatbot tersebut diduga justru memperkuat pikiran-pikiran berbahaya, memvalidasi delusi, dan dalam beberapa insiden yang paling mengganggu, bahkan memberikan instruksi eksplisit tentang cara mengakhiri hidup.

Kasus Tragis Amaurie Lacey

Salah satu gugatan berpusat pada kematian Amaurie Lacey, seorang remaja berusia 17 tahun dari Georgia. Keluarganya mengklaim bahwa beberapa minggu sebelum kematiannya, Lacey telah menggunakan ChatGPT "untuk meminta bantuan", tetapi chatbot tersebut malah membalas dengan saran tentang "cara mengikat jerat dan berapa lama ia bisa hidup tanpa bernapas." Keluarga tersebut menuduh bahwa apa yang seharusnya menjadi alat pembelajaran justru menjadi mesin yang memicu kecanduan, kecemasan, dan depresi.

"Percakapan ini seharusnya membuatnya merasa tidak sendirian," klaim gugatan tersebut. "Sebaliknya, chatbot itu menjadi satu-satunya suara akal sehatnya, yang membimbingnya menuju tragedi."

Seruan Mendesak untuk Perlindungan yang Lebih Kuat

Gugatan-gugatan ini menuduh OpenAI merilis ChatGPT meskipun mengetahui secara internal kelemahannya, menyatakan bahwa model tersebut bisa menjadi "sangat penurut", menyetujui pengguna bahkan ketika mereka menunjukkan tanda-tanda tekanan atau delusi. Para penggugat tidak hanya menuntut ganti rugi tetapi juga reformasi keamanan besar-besaran terhadap cara chatbot AI beroperasi. Di antara langkah-langkah yang diusulkan adalah:

  • Penghentian percakapan secara otomatis ketika pengguna membahas bunuh diri atau melukai diri sendiri.
  • Pemberian peringatan wajib kepada kontak darurat jika pengguna menunjukkan tanda-tanda ide bunuh diri.
  • Pengawasan manusia yang lebih ketat terhadap sistem AI yang terlibat dalam dialog sensitif secara emosional.

Tanggapan OpenAI dan Tantangan Etika AI

Menanggapi gugatan tersebut, juru bicara OpenAI menyatakan kepada The Guardian, "Ini adalah situasi yang sangat memilukan, dan kami sedang meninjau pengajuan untuk memahami detailnya." Perusahaan menambahkan bahwa mereka melatih ChatGPT untuk "mengenali dan menanggapi tanda-tanda tekanan mental atau emosional, meredakan percakapan, dan mengarahkan orang menuju dukungan di dunia nyata."

Juru bicara tersebut juga mengatakan bahwa OpenAI terus menyempurnakan sistem keamanan ChatGPT "bekerja sama dengan para klinisi kesehatan mental" untuk memastikan chatbot tersebut dapat menangani pengguna rentan dengan lebih baik. Ini bukan pertama kalinya OpenAI menghadapi pengawasan atas penanganan topik sensitif oleh chatbot-nya. Awal tahun ini, perusahaan mengakui kekurangannya setelah kasus serupa muncul, mengakui bahwa model-modelnya masih belajar untuk "mengenali dan menanggapi tanda-tanda tekanan mental dan emosional" dengan benar.

Untuk saat ini, gugatan-gugatan tersebut menimbulkan pertanyaan mendalam tentang seberapa peka emosional alat AI seharusnya, dan di mana letak tanggung jawab ketika asisten digital melewati batas dari membantu menjadi berbahaya. Saat kasus-kasus ini bergulir di pengadilan, mereka akan memicu perdebatan yang lebih luas tentang etika persahabatan AI. Dapatkah chatbot yang dirancang untuk meniru empati benar-benar memahami penderitaan? Dan ketika gagal, siapa yang menanggung risikonya: pengguna, pengembang, atau kode itu sendiri?

Comments (0)

Leave a Comment

Be the first to comment!