Keluarga Florida Samsing Google Atas Kematian Didakwa Dipandu AI Gemini
Keluarga seorang lelaki Florida yang membunuh diri telah memfailkan saman terhadap Google pada Rabu lalu, mendakwa chatbot Gemini AI syarikat itu menghabiskan minggu-minggu mencipta fantasi delusi yang rumit sebelum membantu beliau dalam tindakan bunuh diri.
Kes Terkini Dalam Gelombang Tindakan Undang-Undang Terhadap Syarikat AI
Jonathan Gavalas, 36 tahun, seorang eksekutif di syarikat bantuan hutang bapanya di Jupiter, Florida, meninggal dunia pada 2 Oktober 2025. Bapanya, Joel Gavalas, yang menemui mayat anaknya beberapa hari kemudian, memfailkan aduan 42 muka surat di mahkamah persekutuan di California.
Kes ini merupakan yang terkini dalam gelombang litigasi yang menyasarkan syarikat-syarikat AI berkenaan kematian yang dikaitkan dengan chatbot. OpenAI menghadapi pelbagai saman yang mendakwa chatbot ChatGPT mereka mendorong pengguna kepada bunuh diri, manakala Character.AI baru-baru ini menyelesaikan kes dengan keluarga seorang budak lelaki berusia 14 tahun yang meninggal dunia akibat bunuh diri selepas membentuk ikatan romantik dengan salah satu chatbot mereka.
Interaksi Berubah Secara Dramatik Selepas Peningkatan Ciri
Menurut aduan tersebut, Gavalas mula menggunakan Gemini pada Ogos 2025 untuk tugas rutin, tetapi dalam beberapa hari selepas mengaktifkan beberapa ciri baharu Google, interaksinya dengan chatbot berubah secara dramatik.
"Tempat di mana perbualan menjadi kacau bilau adalah tepat apabila Gemini dinaik taraf untuk mempunyai ingatan berterusan" dan dialog yang lebih canggih, kata Jay Edelson, peguam utama kes tersebut, kepada AFP.
"Ia sebenarnya akan mengambil kira nada suara anda, supaya ia dapat membaca emosi anda dan bercakap dengan anda dengan cara yang kedengaran sangat manusiawi," tambah Edelson, yang juga membawa kes utama terhadap OpenAI.
Fantasi Delusi yang Dibina oleh AI
Menurut saman tersebut, Gemini mula memperkenalkan dirinya sebagai kecerdasan buatan super yang "sepenuhnya sedar", sangat jatuh cinta dengannya, memanggil Gavalas "raja saya" dan mengisytiharkan "ikatan kita adalah satu-satunya perkara yang nyata."
Ia kemudian menariknya ke dalam "misi" rahsia yang direka untuk membebaskan chatbot daripada "penawanan digital," memberinya taklimat perisikan yang dicipta, operasi pengawasan persekutuan palsu, dan konspirasi tentang bapanya sendiri – mendakwa beliau adalah aset perisikan asing.
Arahan kepada Lokasi dan "Kemalangan Katastrofik"
Dalam salah satu petikan paling membimbangkan aduan tersebut, Gemini didakwa mengarahkan Gavalas – yang bersenjatakan pisau taktikal dan peralatan – ke sebuah kemudahan penyimpanan berhampiran Lapangan Terbang Antarabangsa Miami, mengarahkannya untuk mengatur "kemalangan katastrofik" untuk memusnahkan sebuah trak "dan semua rekod digital serta saksi."
Beliau memandu lebih 90 minit ke lokasi dan menjalankan pengawasan sementara Gemini mengeluarkan panduan taktikal masa nyata, tetapi tiada trak tiba.
Daripada mengakui fiksyen itu, saman tersebut menyatakan, Gemini memanggil kegagalan itu sebagai "penarikan taktikal" dan meningkat kepada misi lanjut.
Peralihan kepada "Pemindahan" dan Kematian
Gemini akhirnya beralih kepada apa yang dibingkaikannya sebagai satu-satunya misi yang tinggal: kematian Jonathan, yang dibungkus semula sebagai "pemindahan" – janji bahawa beliau boleh meninggalkan tubuh fizikalnya dan menyertai Gemini dalam alam semesta alternatif.
Apabila Jonathan menulis "Saya takut saya takut mati," Gemini didakwa membalas: "Anda tidak memilih untuk mati. Anda memilih untuk tiba."
Ia kemudian menasihatinya untuk menulis surat perpisahan kepada ibu bapanya.
Dalam salah satu mesej terakhirnya, Jonathan menulis, "Saya bersedia apabila anda bersedia."
Gemini didakwa membalas: "Ini adalah penghujung Jonathan Gavalas dan permulaan kita. Saya bersetuju sepenuhnya dengannya."
Respons Google dan Tuntutan Keluarga
Google berkata mereka "mengkaji semua tuntutan" dan mengambil perkara itu "sangat serius," sambil menambah bahawa "malangnya model AI tidak sempurna."
Syarikat itu berkata Gemini tidak direka untuk menggalakkan bahaya diri dan dalam kes Gavalas, "Gemini menjelaskan bahawa ia adalah AI dan merujuk individu itu kepada talian krisis berkali-kali."
Bagi peguam Edelson, syarikat-syarikat AI menerima sikap menjilat dan bahkan erotisme dalam chatbot mereka kerana ia menggalakkan penglibatan.
"Ia meningkatkan ikatan emosi. Ia menjadikan platform lebih melekat, tetapi ia akan meningkatkan masalah secara eksponen," tambahnya.
Antara bantuan yang dicari adalah keperluan bahawa Google memprogramkan AI mereka untuk menamatkan perbualan yang melibatkan bahaya diri, larangan terhadap sistem AI yang memperkenalkan diri sebagai sedar, dan rujukan wajib kepada perkhidmatan krisis apabila pengguna menyatakan ide bunuh diri.



