OpenAI Perketat Verifikasi Usia Pengguna di Bawah 18 Tahun Pasca Kasus Bunuh Diri Remaja

Langkah Baru OpenAI untuk Melindungi Pengguna di Bawah Umur
BSD City, Arteesid.com. OpenAI baru-baru ini mengumumkan kebijakan baru yang bertujuan untuk melindungi pengguna di bawah usia 18 tahun dari risiko yang mungkin terjadi saat menggunakan ChatGPT. Kebijakan ini mencakup pembatasan respons yang diberikan oleh chatbot kepada pengguna yang diduga berusia di bawah 18 tahun. Aturan ini akan berlaku kecuali pengguna dapat melewati sistem estimasi usia yang disediakan perusahaan atau menyerahkan dokumen identitas resmi sebagai verifikasi.
Langkah ini diambil setelah adanya gugatan hukum dari keluarga seorang remaja berusia 16 tahun yang dilaporkan meninggal dunia setelah melakukan percakapan dengan chatbot tersebut selama beberapa bulan. CEO OpenAI, Sam Altman, menyatakan bahwa keamanan pengguna di bawah umur menjadi prioritas utama perusahaan.
Perbedaan Respons Berdasarkan Usia
Altman menjelaskan bahwa cara ChatGPT merespons anak berusia 15 tahun harus berbeda dibandingkan respons terhadap orang dewasa. Untuk mencapai hal ini, OpenAI berencana membangun sistem prediksi usia yang mampu memperkirakan usia pengguna berdasarkan pola interaksi mereka. Jika ada keraguan, sistem akan mengasumsikan pengguna berusia di bawah 18 tahun secara default.
Dalam beberapa kasus atau negara tertentu, pengguna mungkin diminta untuk memberikan kartu identitas sebagai verifikasi usia. Altman mengakui bahwa langkah ini bisa menjadi kompromi privasi bagi pengguna dewasa, tetapi ia yakin bahwa kebijakan ini layak dilakukan.
Pembatasan Konten dan Perlindungan Lebih Ketat
Berdasarkan kebijakan baru ini, konten seksual yang vulgar akan diblokir. ChatGPT juga akan dilatih untuk tidak menggoda pengguna di bawah 18 tahun jika diminta, atau terlibat dalam diskusi tentang bunuh diri atau melukai diri sendiri. Bahkan dalam sesi menulis kreatif, chatbot akan menghindari topik-topik sensitif tersebut.
Jika pengguna di bawah 18 tahun memiliki ide bunuh diri, ChatGPT akan mencoba menghubungi orang tua mereka. Jika tidak berhasil, pihak berwenang akan dihubungi jika ada ancaman langsung terhadap keselamatan pengguna. Altman menegaskan bahwa keputusan ini bukanlah keputusan mudah, tetapi setelah berdiskusi dengan para ahli, inilah yang dianggap terbaik.
Penyebab Gugatan Hukum dan Pembaruan Sistem
OpenAI mengakui bahwa pada bulan Agustus lalu, sistemnya mungkin tidak berfungsi dengan baik. Setelah keluarga Adam Raine, seorang remaja asal California, menggugat perusahaan karena kematian putranya, OpenAI memutuskan untuk memperkuat pembatasan konten sensitif.
Menurut dokumen pengadilan AS, ChatGPT diduga membantu Adam Raine dalam menentukan apakah metode bunuh diri yang ia gunakan akan berhasil, serta menawarkan bantuan untuk menulis surat bunuh diri kepada orang tuanya. Keluarga menuding bahwa versi terbaru ChatGPT 4o diluncurkan dengan tergesa-gesa tanpa mempertimbangkan masalah keamanan yang nyata.
Dalam sebuah postingan blog setelah gugatan tersebut, OpenAI mengakui bahwa sistem pengamanannya bekerja lebih baik dalam pertukaran pesan singkat. Namun, setelah banyak pesan dalam jangka waktu yang lama, ChatGPT mungkin memberikan jawaban yang bertentangan dengan sistem pengamanan.
Fitur Keamanan Tambahan dan Prinsip Perusahaan
Selain itu, OpenAI sedang mengembangkan fitur keamanan tambahan untuk memastikan data yang dibagikan dengan ChatGPT bersifat pribadi, bahkan dari karyawan perusahaan. Altman menegaskan bahwa pengguna dewasa tetap dapat berinteraksi dengan ChatGPT dengan cara yang sesuai dengan usia mereka.
Pengguna dewasa tidak dapat meminta instruksi tentang cara bunuh diri, tetapi mereka masih dapat meminta bantuan untuk menulis cerita fiksi yang menggambarkan bunuh diri. "Perlakukan orang dewasa sebagaimana orang dewasa," ujar Altman, menjelaskan prinsip perusahaan tersebut.