Peringatan: Obrolan Pribadi di ChatGPT Bisa Tampil di Google

Featured Image

Peringatan untuk Pengguna ChatGPT: Keamanan dan Privasi Harus Diutamakan

Pengguna layanan chatbot AI seperti ChatGPT perlu lebih waspada dalam menggunakan fitur yang tersedia. Beberapa waktu terakhir, muncul laporan bahwa ribuan percakapan pengguna ChatGPT bocor dan muncul di hasil pencarian Google. Hal ini menimbulkan kekhawatiran terkait privasi dan keamanan data pribadi pengguna.

Temuan ini pertama kali dilaporkan oleh media bisnis asal Amerika Serikat, Fast Company. Menurut laporan tersebut, ribuan obrolan pengguna ChatGPT ditemukan di mesin pencari Google. Meski jumlahnya hanya sebagian dari total percakapan yang ada, kemungkinan besar jumlah percakapan yang bocor jauh lebih besar.

Isi Percakapan yang Bocor Mengandung Data Sensitif

Meskipun informasi identitas pengguna tidak diekspos secara langsung, isi percakapan yang bocor sering kali berisi data pribadi. Contohnya termasuk hubungan dengan keluarga, masalah kesehatan mental, penggunaan narkoba, hingga pengalaman traumatis. Data-data ini bisa digunakan untuk mengidentifikasi pengguna lebih lanjut, terutama jika detail spesifik diberikan kepada chatbot.

Beberapa ahli menilai bahwa hal ini sangat mengkhawatirkan. Carissa Véliz, pakar etika AI dari University of Oxford, menyampaikan kekecewaannya terhadap situasi ini. Ia menegaskan bahwa kebocoran data sensitif seperti ini dapat membahayakan kepercayaan pengguna terhadap teknologi AI.

Fitur "Discoverable" sebagai Penyebab Utama

Menurut Fast Company, salah satu penyebab utama kebocoran data adalah fitur eksperimental bernama "Make this chat discoverable". Fitur ini memungkinkan percakapan antara pengguna dan chatbot AI untuk diindeks oleh mesin pencari seperti Google.

Namun, proses aktivasi fitur ini tidak sepenuhnya transparan. Pengguna harus menekan tombol “Share” dan menyetujui peringatan bahwa percakapan mereka akan bisa ditemukan di mesin pencari. Sayangnya, teks peringatan ini ditulis dalam ukuran kecil sehingga mudah terlewat oleh pengguna.

Langkah OpenAI untuk Menghapus Fitur

Setelah kasus ini ramai dibicarakan, OpenAI akhirnya memutuskan untuk menghapus fitur "discoverable" dari ChatGPT. Chief Information Security Officer OpenAI, Dane Stuckey, menjelaskan bahwa fitur ini awalnya dibuat sebagai eksperimen. Namun, setelah melihat risiko yang muncul, perusahaan memutuskan untuk menghapusnya.

Selain itu, OpenAI juga melakukan upaya untuk menghapus konten-konten yang sudah terindeks oleh mesin pencari lain. Keputusan ini diambil agar pengguna merasa lebih aman dalam menggunakan layanan ChatGPT.

Tanggung Jawab Berada di Tangan OpenAI

Google menegaskan bahwa pihaknya tidak ikut serta dalam menentukan percakapan mana yang akan diindeks. Menurut perusahaan, Google hanya menampilkan halaman yang sudah dipublikasikan oleh pihak ketiga, dalam hal ini OpenAI. Dengan demikian, tanggung jawab atas kebocoran data berada sepenuhnya di tangan OpenAI.

Janji OpenAI untuk Meningkatkan Keamanan

Dalam responsnya, OpenAI berjanji untuk meningkatkan standar keamanan dan privasi di produknya. Perusahaan menekankan bahwa keamanan dan privasi adalah prioritas utama. Mereka akan terus berupaya untuk memastikan bahwa pengguna merasa aman saat menggunakan layanan ChatGPT.

Fast Company juga menyarankan pengguna untuk memeriksa apakah percakapan pribadi mereka masih muncul di Google. Cara sederhana untuk memverifikasi adalah dengan menyalin alamat URL dari tautan chat yang pernah dibagikan dan mencarinya di Google.

Dilema Pertumbuhan ChatGPT

Insiden ini menunjukkan bahwa ChatGPT semakin diminati oleh pengguna. Selain sebagai platform tanya-jawab, banyak pengguna menjadikannya sebagai tempat untuk berbagi masalah pribadi. Saat ini, ChatGPT digunakan oleh lebih dari 100 juta pengguna aktif bulanan.

Namun, Jennifer King, peneliti kebijakan privasi dari Stanford University, mengingatkan bahwa pengguna harus tetap waspada. Meski ChatGPT dianggap sebagai ruang yang aman, sistem ini tidak memiliki kerangka hukum yang melindungi kerahasiaan pengguna.

Peringatan dari CEO OpenAI

CEO OpenAI, Sam Altman, juga memberikan peringatan bagi pengguna. Ia mengimbau para pengguna untuk tidak sembarangan membagikan informasi pribadi kepada ChatGPT. Altman menegaskan bahwa meskipun chatbot ini semakin umum digunakan, ia tidak boleh digantikan oleh layanan profesional seperti konsultasi medis atau psikologis.

Altman menyoroti bahwa orang-orang sering kali membicarakan hal-hal paling pribadi kepada ChatGPT. Ia menekankan bahwa perlindungan hukum yang ada dalam interaksi dengan profesional seperti dokter atau pengacara belum tersedia saat berbicara dengan chatbot.

Dalam kondisi tertentu, data yang dimasukkan pengguna bisa diminta dalam proses hukum. Jika terjadi gugatan, OpenAI bisa saja diwajibkan untuk menyerahkan data tersebut. Oleh karena itu, penting bagi pengguna untuk selalu waspada dan memahami batasan dari layanan ChatGPT.