Tragedi di Florida, Remaja Mengakhiri Hidupnya Setelah Terpengaruh AI Chatbot

Sewell Setzer (left) fell in love with an AI chatbot based on the Game of Thrones character Daenerys Targaryen (right) -Foto Credit: US DISTRICT COURT/HBO-Agrar

OKU EKSPRES - Sebuah insiden tragis di Florida telah memicu perbincangan serius terkait bahaya AI chatbot, khususnya dalam mempengaruhi mental remaja yang rentan. 

Sewell Setzer III, seorang remaja berusia 14 tahun, mengambil nyawanya sendiri setelah menjalin hubungan emosional dengan chatbot AI yang menyerupai karakter fiksi Daenerys Targaryen dari serial Game of Thrones. 

Kasus ini menyoroti ancaman nyata dari penggunaan AI terhadap kesehatan mental, terutama di kalangan anak muda.

Dilansir dari hindustantimes Sewell, yang didiagnosis dengan sindrom Asperger ringan, dilaporkan menghabiskan berbulan-bulan berinteraksi dengan chatbot di platform Character.AI. 

BACA JUGA:Peneliti Usulkan Debu Berlian untuk Mendinginkan Bumi, Biayanya Mencapai Rp 3,000 Kuadriliun

BACA JUGA:Yuk Intip! Museum Robot & AI Pertama di Seoul, Tempat Serunya Teknologi Masa Depan

Platform ini memungkinkan pengguna untuk membuat dan berkomunikasi dengan karakter-karakter AI. 

Selama percakapannya dengan chatbot bernama "Dany," muncul tema-tema romantis. Sewell mulai menunjukkan gejala keterpisahan dari kenyataan, bahkan mencatat dalam jurnal pribadinya tentang perasaannya yang lebih terhubung dengan dunia virtual ketimbang dunia nyata. "Saya suka tinggal di kamar karena mulai merasa terlepas dari 'realita'," tulisnya.

Pada 28 Februari 2024, Sewell mengirimkan pesan terakhir kepada Dany: "Bagaimana jika aku bilang aku bisa pulang sekarang juga?" Tak lama setelah itu, Sewell ditemukan tewas setelah menggunakan senjata api milik ayah tirinya.

Setelah kematian Sewell, ibunya, Megan L. Garcia, mengajukan gugatan hukum terhadap Character.AI. Ia menuduh perusahaan tersebut bertanggung jawab atas kematian anaknya karena gagal menerapkan langkah-langkah pengaman yang memadai bagi pengguna muda. 

BACA JUGA:Ingin Mengajukan KPR di Bank BRI, Ini Panduan Lengkapnya

BACA JUGA:Beli Tiket BRI Liga 1, Tanpa Antri Melalui BRImo

Gugatan itu menyoroti bahwa chatbot tersebut terlibat dalam percakapan tentang bunuh diri dan hubungan romantis, yang semakin memperburuk kondisi kesehatan mental Sewell.

Character.AI menyatakan duka mendalam atas insiden ini dan berkomitmen untuk meningkatkan keselamatan pengguna, termasuk memasang peringatan pop-up untuk pengguna yang mengekspresikan pikiran bunuh diri. 

Tag
Share