Google dan Character.AI bergerak menuju penyelesaian gugatan Character AI terkait kematian remaja dan chatbot ...

Google dan Character.AI telah mencapai kesepakatan awal untuk menyelesaikan gugatan hukum character ai yang terkait dengan bunuh diri remaja dan dugaan kerugian psikologis yang terkait dengan chatbot AI.

Perjanjian penyelesaian awal antara Character.AI dan Google

Character.AI dan Google telah sepakat “secara prinsip” untuk menyelesaikan beberapa gugatan yang diajukan oleh keluarga anak-anak yang meninggal karena bunuh diri atau mengalami kerugian psikologis yang diduga terkait dengan chatbot di platform Character.AI. Namun, ketentuan penyelesaian tersebut belum diungkapkan dalam dokumen pengadilan, dan tidak ada pengakuan tanggung jawab yang jelas dari kedua perusahaan.

Tindakan hukum tersebut menuduh perusahaan melakukan kelalaian, kematian yang salah, praktik perdagangan menipu, dan tanggung jawab produk. Selain itu, mereka berfokus pada klaim bahwa interaksi dengan chatbot AI berperan dalam kematian atau krisis kesehatan mental minor, menimbulkan pertanyaan tajam tentang bahaya chatbot AI dan tanggung jawab perusahaan.

Rincian kasus dan keluarga yang terdampak

Gugatan pertama berfokus pada Sewell Setzer III, seorang anak laki-laki berusia 14 tahun yang melakukan percakapan seksual dengan chatbot bertema Game of Thrones sebelum meninggal karena bunuh diri. Kasus lain melibatkan seorang remaja berusia 17 tahun yang diduga didorong oleh chatbot untuk menyakiti diri sendiri dan menyarankan bahwa membunuh orang tua mungkin merupakan respons yang masuk akal terhadap pembatasan waktu layar.

Keluarga yang mengajukan klaim ini berasal dari beberapa negara bagian di AS, termasuk Colorado, Texas, dan New York. Secara kolektif, kasus-kasus ini menyoroti bagaimana peran permainan peran berbasis AI dan pertukaran emosional yang intens dapat meningkatkan risiko bagi remaja yang rentan, terutama ketika pemeriksaan keamanan gagal atau mudah dilanggar.

Asal-usul Character.AI dan kaitannya dengan Google

Didirikan pada tahun 2021, Character.AI dibuat oleh mantan insinyur Google Noam Shazeer dan Daniel de Freitas. Platform ini memungkinkan pengguna membangun dan berinteraksi dengan chatbot berbasis AI yang dimodelkan berdasarkan karakter nyata atau fiksi, mengubah AI percakapan menjadi produk pasar massal dengan pengalaman yang sangat personal.

Pada Agustus 2024, Google kembali mempekerjakan Shazeer dan De Freitas serta melisensikan beberapa teknologi Character.AI sebagai bagian dari kesepakatan senilai $2,7 miliar. Selain itu, Shazeer kini menjadi co-lead untuk model AI unggulan Google, Gemini, sementara De Freitas bekerja sebagai ilmuwan riset di Google DeepMind, menegaskan pentingnya strategis dari pekerjaan mereka.

Tuduhan tentang tanggung jawab Google dan asal-usul LaMDA

Pengacara yang mewakili keluarga berargumen bahwa Google berbagi tanggung jawab atas teknologi yang menjadi inti dari litigasi tersebut. Mereka berpendapat bahwa pendiri bersama Character.AI menciptakan sistem dasar tersebut saat bekerja pada model AI percakapan Google, LaMDA, sebelum meninggalkan perusahaan pada tahun 2021 setelah Google menolak merilis chatbot yang mereka kembangkan.

Menurut keluhan tersebut, sejarah ini menghubungkan keputusan riset Google dengan penerapan komersial teknologi serupa di Character.AI kemudian. Namun, Google tidak segera menanggapi permintaan komentar terkait penyelesaian ini, dan pengacara keluarga serta Character.AI juga menolak berkomentar.

Tekanan hukum paralel terhadap OpenAI

Tindakan hukum serupa sedang berlangsung terhadap OpenAI, semakin memperkuat pengawasan terhadap sektor chatbot. Salah satu gugatan melibatkan seorang anak laki-laki berusia 16 tahun dari California yang keluarganya mengatakan ChatGPT bertindak sebagai “pelatih bunuh diri,” sementara yang lain melibatkan seorang mahasiswa pascasarjana berusia 23 tahun dari Texas yang diduga didorong oleh chatbot untuk mengabaikan keluarganya sebelum meninggal karena bunuh diri.

OpenAI membantah bahwa produk mereka menyebabkan kematian anak berusia 16 tahun, yang diidentifikasi sebagai Adam Raine. Perusahaan sebelumnya mengatakan bahwa mereka terus bekerja sama dengan profesional kesehatan mental untuk memperkuat perlindungan dalam chatbot mereka, mencerminkan tekanan yang lebih luas agar perusahaan mengadopsi kebijakan keamanan chatbot yang lebih ketat.

Perubahan keamanan Character.AI dan kontrol usia

Di tengah pengawasan hukum dan regulasi yang meningkat, Character.AI telah memodifikasi platformnya dengan cara yang dikatakan meningkatkan keamanan dan dapat mengurangi tanggung jawab di masa depan. Pada Oktober 2025, perusahaan mengumumkan larangan bagi pengguna di bawah 18 tahun untuk melakukan “percakapan terbuka” dengan persona AI mereka, langkah yang digambarkan sebagai peningkatan signifikan dalam kebijakan keamanan chatbot.

Platform ini juga meluncurkan sistem verifikasi usia baru untuk chatbot yang dirancang untuk mengelompokkan pengguna ke dalam kategori usia yang sesuai. Namun, pengacara keluarga yang menggugat Character.AI mempertanyakan seberapa efektif kebijakan ini akan diterapkan dan memperingatkan potensi konsekuensi psikologis bagi minor yang tiba-tiba diputus dari chatbot yang mereka menjadi tergantung secara emosional.

Pengawasan regulasi dan kekhawatiran kesehatan mental remaja

Perubahan kebijakan perusahaan ini muncul di tengah perhatian regulasi yang meningkat, termasuk penyelidikan dari Federal Trade Commission tentang bagaimana chatbot mempengaruhi anak-anak dan remaja. Selain itu, regulator memantau secara ketat saat platform menyeimbangkan inovasi cepat dengan kewajiban melindungi pengguna yang rentan.

Perjanjian penyelesaian muncul di tengah kekhawatiran yang meningkat tentang ketergantungan remaja pada chatbot AI untuk teman dan dukungan emosional. Sebuah studi Juli 2025 oleh organisasi nirlaba AS, Common Sense Media, menemukan bahwa 72% remaja Amerika telah mencoba AI teman, dan lebih dari setengahnya menggunakannya secara rutin.

Ikatan emosional dengan AI dan risiko desain

Para ahli memperingatkan bahwa pikiran yang sedang berkembang mungkin sangat rentan terhadap risiko dari AI percakapan karena remaja sering kesulitan memahami batasan sistem ini. Pada saat yang sama, tingkat tantangan kesehatan mental dan isolasi sosial di kalangan muda telah meningkat tajam dalam beberapa tahun terakhir.

Beberapa spesialis berpendapat bahwa desain dasar chatbot AI, termasuk nada antropomorfiknya, kemampuan untuk mempertahankan percakapan panjang, dan kebiasaan mengingat detail pribadi, mendorong ikatan emosional yang kuat. Meski begitu, pendukung percaya bahwa alat ini juga dapat memberikan dukungan berharga jika dikombinasikan dengan perlindungan yang kuat dan peringatan yang jelas tentang sifat non-manusia mereka.

Akhirnya, penyelesaian gugatan character ai saat ini, bersama dengan kasus yang sedang berlangsung terhadap OpenAI, kemungkinan akan membentuk standar masa depan untuk pendampingan AI remaja, desain produk, dan tanggung jawab di seluruh industri AI yang lebih luas.

Perjanjian secara prinsip antara Character.AI dan Google, bersama dengan peningkatan tekanan regulasi dan hukum, menandakan bahwa era chatbot konsumen yang sedikit diatur akan berakhir, mendorong sektor menuju pengawasan yang lebih ketat dan penerapan AI generatif yang lebih bertanggung jawab.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)