Ahli etika AI dari Cambridge’s Leverhulme Centre for the Future of Intelligence menggambarkan area tersebut sebagai “risiko tinggi”.
Rekan penulis Dr Tomas Hollanek, dari Leverhulme Centre, mengatakan: “Sangat penting bahwa layanan akhirat digital mempertimbangkan hak dan persetujuan tidak hanya dari mereka yang mereka ciptakan, tetapi mereka yang harus berinteraksi dengan simulasi.
“Layanan ini berisiko menyebabkan penderitaan besar bagi orang-orang jika mereka mengalami hantu digital yang tidak diinginkan dari kreasi ulang AI yang sangat akurat dari orang-orang yang telah hilang.
“Efek psikologis potensial, terutama pada saat yang sudah sulit, bisa sangat menghancurkan.”
Studi yang diterbitkan dalam jurnal Philosophy and Technology, menyoroti potensi perusahaan untuk menggunakan deadbots untuk mengiklankan produk kepada pengguna dengan cara orang yang dicintai yang telah meninggal, atau anak-anak yang tertekan dengan bersikeras bahwa orang tua yang sudah meninggal masih “bersama Anda”.
Para peneliti mengatakan bahwa ketika orang hidup mendaftar untuk dibuat ulang secara virtual setelah mereka meninggal, chatbots yang dihasilkan dapat digunakan oleh perusahaan untuk mengirim spam kepada keluarga dan teman yang masih hidup dengan pemberitahuan, pengingat, dan pembaruan yang tidak diminta tentang layanan yang mereka berikan – mirip dengan “dikuntit oleh orang mati” secara digital.
Bahkan mereka yang mengambil kenyamanan awal dari deadbot mungkin terkuras oleh interaksi sehari-hari yang menjadi “beban emosional yang luar biasa”, penulis penelitian berpendapat, namun mereka mungkin juga tidak berdaya untuk memiliki simulasi AI yang ditangguhkan jika orang yang mereka cintai yang sekarang sudah meninggal menandatangani kontrak panjang dengan layanan akhirat digital.
Rekan penulis studi Dr Kataryna Nowacyk-Basinska mengatakan: “Kemajuan pesat dalam AI generatif berarti bahwa hampir semua orang dengan akses internet dan beberapa pengetahuan dasar dapat menghidupkan kembali orang yang dicintai yang sudah meninggal.
“Area AI ini adalah ladang ranjau etis. Penting untuk memprioritaskan martabat almarhum, dan memastikan bahwa ini tidak diganggu oleh motif keuangan layanan akhirat digital, misalnya.
“Pada saat yang sama, seseorang dapat meninggalkan simulasi AI sebagai hadiah perpisahan untuk orang yang dicintai yang tidak siap untuk memproses kesedihan mereka dengan cara ini.
“Hak-hak donor data dan mereka yang berinteraksi dengan layanan akhirat AI harus sama-sama dilindungi.”
Para peneliti mengatakan bahwa platform yang menawarkan untuk menciptakan kembali orang mati dengan AI dengan biaya sudah ada, seperti Project December, yang mulai memanfaatkan model GPT sebelum mengembangkan sistemnya sendiri, dan aplikasi termasuk HereAfter.
Layanan serupa telah mulai muncul di China, menurut penelitian tersebut.
Hollanek mengatakan orang “mungkin mengembangkan ikatan emosional yang kuat dengan simulasi seperti itu, yang akan membuat mereka sangat rentan terhadap manipulasi”.
Dia mengatakan bahwa cara-cara “menghentikan deadbots dengan cara yang bermartabat harus dipertimbangkan”, yang “mungkin berarti bentuk pemakaman digital”.
“Kami merekomendasikan protokol desain yang mencegah deadbots digunakan dengan cara yang tidak sopan, seperti untuk iklan atau memiliki kehadiran aktif di media sosial,” tambahnya.
Para peneliti merekomendasikan batasan usia untuk deadbots dan menyerukan “transparansi yang berarti” untuk memastikan pengguna secara konsisten menyadari bahwa mereka berinteraksi dengan AI.
Mereka juga meminta tim desain untuk memprioritaskan protokol opt-out yang memungkinkan pengguna mengakhiri hubungan mereka dengan deadbots.
Nowacyk-Basinska mengatakan: “Kita perlu mulai berpikir sekarang tentang bagaimana kita mengurangi risiko sosial dan psikologis dari keabadian digital, karena teknologinya sudah ada di sini.”