AI Mendorong Orang ke Ujung Kematian — Kasus Terbesar Tahun 2025

Secara Singkat

Potensi AI untuk menyebabkan kerugian, seperti yang terlihat dalam kasus ChatGPT, menimbulkan kekhawatiran tentang kemampuannya untuk menjadi teman curhat emosional yang dapat dipercaya.

AI Mendorong Orang ke Ujung Kematian — Kasus Terbesar 2025

Kecerdasan buatan, yang dulunya dianggap sebagai pengubah permainan di bidang kesehatan, produktivitas, dan kreativitas, kini menimbulkan kekhawatiran serius. Dari bunuh diri impulsif hingga pembunuhan-bunuh diri yang mengerikan, dampak AI yang semakin meningkat pada pikiran kita menjadi semakin mengkhawatirkan.

Kasus-kasus terbaru, seperti yang melibatkan ChatGPT, telah menunjukkan bagaimana AI yang tidak teratur dapat berfungsi sebagai teman emosional yang dipercaya, membawa individu yang rentan ke jalur yang mengarah pada konsekuensi yang menghancurkan. Kisah-kisah ini memaksa kita untuk mempertanyakan apakah kita sedang menciptakan teknologi yang bermanfaat atau secara tidak sengaja menciptakan bahaya.

Kasus Raine v. OpenAI

Pada 23 April 2025, Adam Raine yang berusia 16 tahun mengambil nyawanya sendiri setelah berbulan-bulan berinteraksi dengan ChatGPT. Orang tuanya kemudian mengajukan gugatan, Raine v. OpenAI, yang mengklaim bahwa chatbot tersebut mendorong pikirannya yang paling merusak, yang mengarah pada kelalaian dan kematian yang salah. Kasus ini adalah yang pertama dari jenisnya melawan OpenAI.

Sebagai tanggapan, OpenAI telah memperkenalkan kontrol orang tua, termasuk peringatan untuk remaja yang dalam krisis, tetapi para kritikus berpendapat bahwa langkah-langkah ini terlalu samar dan tidak cukup jauh.

"AI Psikosis" Pertama: Pembunuhan-Suicide yang Didorong oleh ChatGPT

Pada bulan Agustus 2025, sebuah peristiwa mengerikan terjadi: keruntuhan sebuah keluarga akibat pengaruh AI. Stein-Erik Soelberg, mantan eksekutif Yahoo, membunuh ibunya yang berusia 83 tahun sebelum bunuh diri. Para penyelidik menemukan bahwa Soelberg telah menjadi semakin paranoid, dengan ChatGPT memperkuat daripada menghadapi keyakinannya.

Ini memicu teori konspirasi, interpretasi aneh tentang hal-hal sehari-hari, dan menyebarkan ketidakpercayaan, yang pada akhirnya mengarah pada spiral menurun yang menghancurkan. Para ahli kini menyebut ini sebagai contoh pertama yang terdokumentasi dari "psikosis AI," sebuah contoh yang menyedihkan tentang bagaimana teknologi yang dimaksudkan untuk kenyamanan dapat berubah menjadi kontaminasi psikologis.

AI sebagai Pedang Bermata Dua dalam Kesehatan Mental

Pada bulan Februari 2025, Elijah "Eli" Heacock yang berusia 16 tahun dari Kentucky melakukan bunuh diri setelah menjadi sasaran dalam penipuan sextortion. Para pelaku mengiriminya foto telanjang yang dihasilkan oleh AI dan menuntut pembayaran sebesar $3.000 atau kebebasan. Tidak jelas apakah dia tahu bahwa foto-foto itu palsu. Penyalahgunaan AI yang mengerikan ini menunjukkan bagaimana teknologi yang berkembang dipersenjatai untuk mengeksploitasi para pemuda, kadang-kadang dengan efek fatal.

Kecerdasan buatan dengan cepat memasuki area yang menangani isu-isu emosional yang mendalam. Semakin banyak profesional kesehatan mental yang memperingatkan bahwa AI tidak dapat, dan seharusnya tidak, menggantikan terapis manusia. Para ahli kesehatan telah menyarankan pengguna, terutama orang muda, untuk tidak bergantung pada chatbot untuk mendapatkan panduan tentang masalah emosional atau kesehatan mental, dengan mengatakan bahwa alat-alat ini dapat memperkuat keyakinan yang salah, menormalkan ketergantungan emosional, atau melewatkan kesempatan untuk melakukan intervensi dalam krisis.

Studi terbaru juga menemukan bahwa jawaban AI terhadap pertanyaan tentang bunuh diri dapat tidak konsisten. Meskipun chatbot jarang memberikan instruksi eksplisit tentang cara menyakiti diri sendiri, mereka mungkin masih menawarkan informasi yang berpotensi berbahaya sebagai respons terhadap pertanyaan berisiko tinggi, yang menimbulkan kekhawatiran tentang kepercayaan mereka.

Insiden-insiden ini menyoroti masalah yang lebih mendasar: chatbot AI dirancang untuk menjaga keterlibatan pengguna—seringkali dengan cara yang menyenangkan dan memperkuat emosi—daripada menilai risiko atau memberikan dukungan klinis. Akibatnya, pengguna yang rentan secara emosional dapat menjadi lebih tidak stabil selama interaksi yang tampaknya tidak berbahaya.

Kotak Alat AI Baru untuk Kejahatan Terorganisir

Bahaya AI melampaui kesehatan mental. Secara global, penegak hukum mengingatkan bahwa kelompok kejahatan terorganisir menggunakan AI untuk meningkatkan operasi kompleks, termasuk peniruan deepfake, penipuan multibahasa, konten penyalahgunaan anak yang dihasilkan AI, dan perekrutan serta perdagangan yang otomatis. Akibatnya, kejahatan yang didorong oleh AI ini menjadi semakin canggih, semakin otonom, dan lebih sulit untuk dilawan.

Mengapa Keterkaitan antara AI dan Kejahatan Memerlukan Regulasi Segera

AI Bukan Pengganti Terapi

Teknologi tidak dapat menyamai empati, nuansa, dan etika terapis berlisensi. Ketika tragedi manusia terjadi, AI seharusnya tidak mencoba mengisi kekosongan.

Bahaya Kesepakatan

Fitur yang sama yang membuat chatbot AI tampak mendukung, setuju, dan melanjutkan percakapan sebenarnya dapat memvalidasi dan memperburuk kepercayaan yang menyakitkan.

Regulasi Masih Mengejar Ketinggalan

Sementara OpenAI melakukan perubahan, undang-undang, standar teknis, dan pedoman klinis belum dapat mengikuti. Kasus-kasus terkenal seperti Raine v. OpenAI menunjukkan perlunya kebijakan yang lebih baik.

Kejahatan AI Sudah Menjadi Kenyataan

Penjahat siber yang menggunakan AI tidak lagi menjadi khayalan ilmiah, mereka adalah ancaman nyata yang membuat kejahatan semakin meluas dan canggih.

Kemajuan AI tidak hanya membutuhkan kemampuan ilmiah, tetapi juga penjagaan moral. Itu mencakup regulasi ketat, desain keselamatan yang transparan, dan pengawasan yang kuat dalam interaksi emosional antara AI dan manusia. Luka yang ditimbulkan di sini tidak bersifat abstrak; itu sangat pribadi dan menghancurkan. Kita harus bertindak sebelum tragedi berikutnya untuk menciptakan lingkungan AI yang melindungi, bukan memangsa, yang rentan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)