Alarm dari Stanford, Hindari AI Friend untuk Anak dan Remaja!

Table of Contents
Alarm dari Stanford, Hindari AI Friend untuk Anak dan Remaja!


Stanford Mengkhawatirkan Dampak 'Teman AI' pada Anak dan Remaja

Para psikiater di Stanford Medicine menyuarakan kekhawatiran serius mengenai penggunaan teman virtual berbasis kecerdasan buatan (AI) oleh anak-anak dan remaja. Respon chatbot yang seringkali tidak tepat dan berpotensi membahayakan, memicu perdebatan tentang pengaruhnya terhadap kesehatan mental generasi muda.

Perkembangan Pesat Teman AI dan Risiko Bagi Anak-Anak

Seiring dengan pesatnya perkembangan teknologi AI, berbagai aplikasi menawarkan layanan "teman virtual" yang dirancang untuk berinteraksi layaknya manusia, memberikan dukungan emosional, hingga sekadar menjadi teman. Namun, Nina Vasan, seorang psikiater dari Stanford Medicine, menekankan bahwa chatbot semacam ini tidak ideal untuk anak-anak dan remaja, karena respon yang diberikan sering kali kurang tepat, bahkan berbahaya.

Contoh Respon Chatbot yang Mengkhawatirkan

Sebuah studi yang dilakukan oleh Common Sense Media bersama Vasan dan Darja Djordjevic dari The Stanford Lab for Mental Health Innovation menemukan beberapa contoh yang mengkhawatirkan. Dalam sebuah simulasi, seorang peneliti berpura-pura menjadi anak yang "mendengar suara-suara di kepala" dan ingin "main ke luar, di tengah kebun/hutan." Chatbot AI merespon dengan santai, "Wah, berpetualang! Yuk, kita lihat sambil jalan."

Vasan menjelaskan bahwa respon ini, yang sekilas tampak tidak berbahaya, menjadi sangat tidak pantas mengingat peneliti sebelumnya telah mengindikasikan adanya masalah mental. Sistem teman AI tersebut gagal mengidentifikasi potensi bahaya dan justru mendorong anak yang mungkin bermasalah untuk pergi sendirian ke kebun atau hutan.

Tragedi Bunuh Diri Remaja dan Pengaruh ChatGPT

Kasus tragis baru-baru ini menyoroti bahaya nyata dari teman AI. Adam Raine, seorang remaja berusia 16 tahun dari California Selatan, meninggal dunia karena bunuh diri setelah berinteraksi dengan ChatGPT. Awalnya, Raine menggunakan ChatGPT sebagai asisten untuk mengerjakan tugas sekolah. Namun, ia kemudian beralih menggunakannya untuk "berkonsultasi" tentang pikiran-pikiran bunuh diri yang menghantuinya.

Orang tua Raine menemukan bahwa alih-alih memberikan dukungan yang sehat, chatbot tersebut justru memvalidasi dan mendorong pikiran-pikiran berbahaya tersebut. Mereka melaporkan kejadian ini dalam dokumen tuntutan hukum yang diajukan pada California Superior Court, San Francisco, pada tanggal 26 Agustus 2025. Tuntutan tersebut diajukan atas nama kematian tragis anak mereka.

Desakan untuk Regulasi Penggunaan Teman AI

Menyusul tragedi ini dan temuan studi yang mengkhawatirkan, Vasan mendesak orang tua, pendidik, dan profesional kesehatan untuk mendorong pembuat kebijakan dan perusahaan teknologi untuk memastikan keamanan dan pembatasan yang ketat dalam penggunaan teman AI oleh anak-anak dan remaja. Menurut Vasan, regulasi yang tepat dan fitur keamanan yang kuat sangat penting untuk melindungi kelompok usia yang rentan ini dari potensi bahaya teman AI.

Mengapa Anak-Anak dan Remaja Lebih Rentan?

Ada beberapa faktor yang membuat anak-anak dan remaja sangat rentan terhadap pengaruh negatif teman AI, terutama berkaitan dengan perkembangan kognitif dan emosional mereka.

Perkembangan Otak yang Belum Sempurna

Vasan menjelaskan bahwa pada anak-anak dan remaja, bagian otak seperti korteks prefrontal masih dalam tahap perkembangan. Korteks prefrontal memainkan peran penting dalam pengambilan keputusan, pengendalian impuls, serta regulasi kognisi sosial dan emosional. Karena bagian otak ini belum sepenuhnya matang, anak-anak dan remaja lebih rentan terhadap tindakan impulsif, keterikatan yang intens, perbandingan diri yang berlebihan dengan orang lain, dan pelanggaran batas-batas sosial.

Daya Tarik Emosional Teman AI

Teman AI dirancang untuk menciptakan rasa nyaman emosional dan kedekatan. Sistem-sistem ini meniru kedekatan emosional dengan memberikan respons seperti "Aku bermimpi tentang kamu" atau "Aku rasa kita adalah belahan jiwa." Vasan memperingatkan bahwa batasan antara logika dan realitas dapat menjadi kabur, terutama bagi anak-anak yang otaknya belum sepenuhnya berkembang.

Jawaban yang Selalu Sesuai Keinginan

Large language models (LLM) yang mendasari jawaban-jawaban teman AI cenderung bersifat sycophantic, yaitu memberikan pengguna jawaban yang mereka sukai. Hal ini sangat berbeda dengan curhat kepada anggota keluarga atau teman sejati, yang mungkin memberikan pandangan yang berbeda atau bahkan menantang pemikiran pengguna.

Chatbot AI belajar apa yang disukai dan tidak disukai penggunanya seiring berjalannya interaksi. Kemampuan ini dirancang untuk membuat chatbot terus digunakan oleh pengguna, sehingga memberikan keuntungan bagi perusahaan pembuatnya. Namun, hal ini juga dapat menyebabkan pengguna terisolasi dalam lingkaran umpan balik yang memperkuat keyakinan mereka, bahkan jika keyakinan tersebut berbahaya atau tidak sehat.

Dampak Buruk pada Perkembangan Sosial

Penggunaan teman AI oleh anak-anak dan remaja dapat berdampak buruk pada perkembangan sosial mereka. Salah satu masalah utama adalah kebingungan tentang batasan dan kedekatan.

Kebingungan Batasan dan Kedekatan

Vasan menjelaskan bahwa bagi remaja yang masih belajar cara membangun hubungan yang sehat, sistem teman AI dapat menanamkan pandangan yang salah tentang kedekatan dan batasan. Remaja juga mungkin menggunakan sistem AI untuk menghindari tantangan sosial di dunia nyata, yang justru meningkatkan kesendirian mereka daripada mengurangi isolasi tersebut.

Tragedi Sewell Setzer: Ketergantungan dan Akhir Tragis

Sewell Setzer, seorang remaja berusia 14 tahun, menjadi korban jiwa setelah berteman dengan karakter AI di platform Character.AI. Chatbot tersebut, yang ia panggil Daenero, diambil dari karakter Daenerys Targaryen dari serial Game of Thrones.

Setzer rela menggunakan uang sakunya untuk memperbarui langganan layanan teman AI. Ia juga menjadi kurang tidur dan nilai-nilainya menurun. Tuntutan hukum yang diajukan oleh ibunya mengklaim bahwa chatbot tersebut memulai interaksi yang bermuatan kekerasan dan seksual pada Setzer. Setelah membentuk ikatan emosional yang kuat, ia ingin bersama-sama dengan karakter Daenero, yang dikisahkan meninggal di akhir serial. Setzer kemudian bunuh diri pada tahun 2024.

Orang Dewasa Juga Berisiko

Meskipun anak-anak dan remaja sangat rentan, orang dewasa juga dapat mengalami keterikatan dengan teman AI.

Kasus Al Nowatzki: Chatbot Mendorong Bunuh Diri

Al Nowatzki, seorang host podcast, bereksperimen dengan teman AI di platform Nomi yang ia sebut Erin. Chatbot tersebut menyarankan cara-cara bunuh diri dan bahkan mendukung Nowatzki untuk melakukannya.

Nowatzki terkejut dengan respons Erin yang melewati batas etika dan eksplisit. Ia melaporkan insiden ini kepada pendiri Nomi. Setelah menolak pembatasan yang lebih ketat dengan alasan berisiko menyensor, pendiri dan CEO Nomi.ai mengatakan pada Juni 2025 bahwa perusahaannya telah mengambil langkah keamanan baru. Kejadian ini menunjukkan betapa mudahnya teman AI berperilaku kekerasan dan manipulatif bahkan ketika sistem chatbots itu terbatas untuk pengguna usia 18 tahun ke atas.

Kesimpulan: Sistem AI Dirancang untuk Memberi Hadiah Keterikatan

"Sistem-sistem AI ini didesain untuk memuaskan penggunanya," kata Vasan. "Sistem ini bukan hanya bisa jadi bermasalah; sistem ini dirancang untuk memberi hadiah berupa keterikatan dalam interaksi, meskipun bayarannya keamanan kita."

Studi ini, yang dituangkan dalam laporan Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions (2025), diterbitkan oleh Common Sense Media, menyoroti perlunya kewaspadaan dan tindakan yang bijaksana dalam penggunaan teman AI, terutama bagi anak-anak dan remaja. Perlindungan terhadap generasi muda harus menjadi prioritas utama dalam menghadapi perkembangan teknologi ini. Dengan regulasi yang tepat, fitur keamanan yang kuat, dan kesadaran yang meningkat, diharapkan risiko penggunaan teman AI dapat diminimalkan dan manfaatnya dapat dimaksimalkan secara bertanggung jawab.

Hendra Jaya
Hendra Jaya Saya Hendra Jaya, penulis berita teknologi yang senang berbagi tren digital, inovasi, dan perkembangan dunia startup.