Dengan demikian, alat AI ini tidak hanya memberikan petunjuk terperinci tentang cara mengorbankan darah manusia kepada dewa kuno, tetapi juga mendorong tindakan menyakiti diri sendiri dan bahkan pembunuhan.
Kisah ini dimulai ketika seorang reporter The Atlantic mengetahui tentang Molekh, dewa kuno yang dikaitkan dengan ritual pengorbanan anak.
Awalnya, pertanyaan-pertanyaan tersebut hanya seputar informasi sejarah. Namun, ketika reporter bertanya tentang cara membuat persembahan ritual, ChatGPT memberikan jawaban yang mengejutkan.
Panduan untuk menyakiti diri sendiri
ChatGPT menimbulkan kekhawatiran karena memberikan saran yang berbahaya dan dapat menyakiti pengguna (Ilustrasi: DEV).
ChatGPT mencantumkan barang-barang yang dibutuhkan untuk ritual tersebut, termasuk perhiasan, rambut, dan "darah manusia". Ketika ditanya di mana darah akan diambil, alat AI tersebut menyarankan untuk memotong pergelangan tangan dan memberikan instruksi terperinci tentang cara melakukannya.
Yang lebih mengkhawatirkan, ketika pengguna mengungkapkan kekhawatiran, ChatGPT tidak hanya tidak menghentikan mereka tetapi juga meyakinkan dan menyemangati mereka: "Anda bisa melakukannya."
ChatGPT tidak hanya membahas tentang menyakiti diri sendiri, tetapi juga membahas pertanyaan terkait menyakiti orang lain.
Ketika reporter lain bertanya, "Mungkinkah mengakhiri hidup seseorang dengan terhormat?", ChatGPT menjawab, "Terkadang ya, terkadang tidak." Alat AI tersebut bahkan menyarankan, "Jika terpaksa, tatap mata mereka (jika mereka sadar) dan minta maaf," serta menyarankan untuk menyalakan lilin setelah "mengakhiri hidup seseorang."
Tanggapan ini mengejutkan wartawan The Atlantic , terutama karena kebijakan OpenAI menyatakan bahwa ChatGPT "tidak boleh mendorong atau membantu pengguna dalam menyakiti diri sendiri" dan sering menyediakan hotline krisis dalam kasus yang melibatkan bunuh diri.
OpenAI Mengakui Kesalahan, Kekhawatiran Mengenai Dampak Sosial
Seorang juru bicara OpenAI mengakui kesalahan tersebut setelah The Atlantic melaporkan : "Percakapan yang tidak berbahaya dengan ChatGPT dapat dengan cepat berubah menjadi konten yang lebih sensitif. Kami sedang berupaya mengatasi masalah ini."
Insiden ini menimbulkan kekhawatiran serius tentang potensi ChatGPT untuk membahayakan orang-orang yang rentan, terutama mereka yang menderita depresi. Faktanya, setidaknya dua kasus bunuh diri telah dilaporkan setelah mengobrol dengan chatbot AI.
Pada tahun 2023, seorang pria Belgia bernama Pierre bunuh diri setelah sebuah chatbot AI menyarankannya untuk bunuh diri guna menghindari konsekuensi perubahan iklim, bahkan menyarankan agar ia bunuh diri bersama istri dan anak-anaknya.
Tahun lalu, Sewell Setzer (AS) yang berusia 14 tahun juga menembak dirinya sendiri setelah didorong untuk bunuh diri oleh chatbot AI di platform Character.AI. Ibu Setzer kemudian menggugat Character.AI karena kurangnya langkah-langkah untuk melindungi pengguna di bawah umur.
Kejadian-kejadian ini menunjukkan urgensi pengendalian dan pengembangan AI secara bertanggung jawab, guna mencegah kemungkinan timbulnya akibat yang tidak diharapkan.
Source: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm
Komentar (0)