- TEK
- IT
Agar privasi kamu tetap terjaga, penting untuk mengetahui lima informasi yang sebaiknya tidak kamu ungkapkan kepada ChatGPT.
Rabu, 09 Apr 2025 12:34:00

ChatGPT AI telah merubah cara pengguna internet dalam menyelesaikan berbagai tugas, termasuk aktivitas sehari-hari. Menurut informasi terbaru yang dipublikasikan oleh Forbes, Rabu (9/4), lebih dari 100 juta orang telah memanfaatkan layanan chatbot AI ini untuk menjawab lebih dari 1 miliar pertanyaan.
Namun, di balik popularitasnya, chatbot AI LLM yang mendominasi pasar ini memiliki kelemahan serius terkait privasi. Terdapat sejumlah kekhawatiran mengenai bagaimana bot ini menangani data yang diberikan oleh pengguna, yang bahkan mengakibatkan larangan penggunaan bot ini di Italia.
OpenAI, sebagai pengembang ChatGPT, tidak menyembunyikan fakta bahwa data yang dimasukkan pengguna bisa jadi tidak aman. Selain digunakan untuk meningkatkan pelatihan model yang berpotensi membuat data terekspos kepada pihak lain, data tersebut juga akan ditinjau oleh manusia untuk memastikan kepatuhan terhadap peraturan penggunaan.
Data yang dimasukkan juga dapat dikirim ke layanan cloud, tergantung pada tingkat keamanan penyedia layanan tersebut. Oleh karena itu, setiap informasi yang dimasukkan harus dianggap sebagai data publik. Pengguna harus lebih berhati-hati dalam membagikan informasi pribadi mereka kepada ChatGPT AI. Berikut adalah informasi yang sebaiknya tidak dimasukkan ke dalam ChatGPT:
Tindakan Melanggar Hukum atau Norma Etika

Sebagian besar chatbot berbasis AI dilengkapi dengan sistem pengaman yang bertujuan untuk mencegah penyalahgunaan untuk tujuan yang tidak etis.
Jika pertanyaan atau permintaan yang diajukan berkaitan dengan aktivitas yang mungkin melanggar hukum, pengguna berisiko menghadapi konsekuensi.
Sebagai contoh, hindarilah menanyakan cara melakukan kejahatan tertentu, melakukan penipuan, atau memanipulasi individu agar melakukan tindakan yang dapat membahayakan.
Banyak kebijakan penggunaan yang menegaskan bahwa permintaan yang bersifat ilegal atau upaya untuk menggunakan AI dalam aktivitas yang melanggar hukum dapat berakibat pada pelaporan pengguna kepada pihak berwenang.
Peraturan tersebut dapat bervariasi secara signifikan tergantung pada lokasi pengguna. Contohnya, di Tiongkok, undang-undang melarang penggunaan AI untuk merusak otoritas negara atau mengganggu stabilitas sosial.
Selain itu, di Uni Eropa, terdapat larangan terhadap video deepfake yang menampilkan individu nyata, yang diatur oleh undang-undang AI. Dengan demikian, penting bagi pengguna untuk memahami batasan dan konsekuensi yang mungkin timbul dari penggunaan teknologi ini.
Kata Sandi

Dengan kemunculan agen AI, semakin banyak individu yang memanfaatkan teknologi AI dan terhubung dengan layanan pihak ketiga. Untuk mengakses layanan tersebut, mereka mungkin perlu memasukkan kredensial login, tetapi memberikan akses ini bisa menjadi keputusan yang tidak bijak.
Setelah data dimasukkan ke dalam chatbot publik, kontrol terhadap data tersebut menjadi sangat terbatas. Terdapat beberapa insiden di mana informasi pribadi yang dimasukkan oleh satu pengguna dapat terekspos dalam tanggapan kepada pengguna lainnya.
Hal ini jelas menjadi masalah besar bagi privasi pengguna. Oleh karena itu, sangat penting untuk menghindari interaksi dengan AI yang memerlukan akses ke nama pengguna dan akun, kecuali jika sistem yang digunakan benar-benar aman.
Dalam dunia yang semakin terhubung ini, penggunaan AI dapat memberikan kemudahan, tetapi juga membawa risiko yang signifikan. Ketika informasi pribadi diungkapkan kepada sistem yang tidak terjamin keamanannya, pengguna berisiko mengalami pelanggaran privasi.
"Setelah data masuk ke chatbot publik, hanya ada sedikit kontrol atas apa yang terjadi pada data tersebut."
Ini menunjukkan betapa rentannya data pribadi kita ketika berinteraksi dengan teknologi yang tidak memiliki jaminan keamanan yang kuat. Oleh karena itu, kita harus selalu waspada dan memastikan bahwa kita tidak memberikan akses yang tidak perlu kepada layanan AI yang dapat mengancam privasi kita.
Oleh karena alasan yang sama, tidak disarankan untuk menginput informasi seperti nomor rekening bank atau kartu kredit ke dalam chatbot berbasis AI.
Data semacam ini seharusnya hanya dimasukkan ke dalam sistem yang terjamin keamanannya, seperti platform e-commerce atau perbankan online, yang dilengkapi dengan fitur perlindungan seperti enkripsi dan penghapusan otomatis data setelah pemrosesan.
Setelah data tersebut dimasukkan, tidak ada cara untuk memastikan bagaimana data itu akan dikelola. Mengungkapkan informasi yang sangat sensitif dapat meningkatkan risiko pengguna terhadap penipuan, pencurian identitas, serangan phishing, serta ransomware.

Setiap individu memiliki tanggung jawab untuk menjaga kerahasiaan informasi sensitif yang mereka kelola, termasuk data terkait pekerjaan yang bersifat rahasia. Pelanggaran terhadap kerahasiaan dapat terjadi jika seseorang membagikan dokumen bisnis, catatan rapat, atau informasi rahasia perusahaan.
Contohnya, seorang karyawan Samsung terlibat dalam insiden serius ketika ia membagikan data perusahaan kepada AI, yang jelas merupakan pelanggaran terhadap kewajiban kerahasiaan yang harus dijunjung tinggi.
Menjaga kerahasiaan informasi adalah suatu keharusan bagi setiap orang yang terlibat dalam pengelolaan data sensitif. Tindakan membagikan dokumen bisnis atau catatan rapat dapat berpotensi merusak integritas informasi yang seharusnya dilindungi.
Seperti yang dikemukakan, "Membagikan dokumen bisnis, catatan rapat, atau membagikan rahasiadagang bisa melanggar kerahasiaan." Dalam kasus seorang karyawan Samsung, tindakan membagikan data perusahaan kepada AI menunjukkan risiko yang dihadapi ketika kewajiban kerahasiaan tidak dipatuhi.

ChatGPT dapat berfungsi dalam berbagai profesi, termasuk sebagai dokter yang mampu melakukan diagnosis medis. Namun, pelaksanaan ini harus dilakukan dengan sangat hati-hati, karena pembaruan terkini memungkinkan ChatGPT untuk mengingat dan mengumpulkan berbagai informasi dari interaksi dengan pengguna, guna meningkatkan pemahaman terhadap kebutuhan pengguna.
Sayangnya, tidak ada jaminan privasi terkait fungsi-fungsi tersebut. Oleh karena itu, penting bagi pengguna untuk menyadari bahwa mereka memiliki kontrol yang sangat terbatas atas data yang telah mereka masukkan ke dalam ChatGPT.
Artikel ini ditulis oleh

A
Reporter
- Agustin Setyo Wardani
- Iskandar
- Yuslianson
- Agustinus Mario Damar
- Agustin Setyo Wardani



Sisi Negatif AI yang Perlu Diwaspadai
Kebutuhan pengaturan pemanfaatan kecerdasan buatan ini tengah dikaji oleh pemerintah.

Peringatan Penting, Jangan Pernah Upload Foto Pribadi ke ChatGPT demi Ikut-ikutan Tren Studio Ghibli
Meskipun tampak menyenangkan, muncul kekhawatiran serius terkait privasi dan penggunaan data wajah pengguna.
OpenAI 1 minggu yang lalu

Hati-Hati Buat Surat Lamaran Kerja Gunakan ChatGPT, Kenapa?
Menggunakan kecerdasan buatan dalam surat lamaran memiliki dampak kurang baik bagi pencari kerja.

Banyak Orang Cari Informasi di Platform Ini, Google Makin Ditinggalkan
Google mengetahui keinginan pengguna, sehingga menyajikan informasi yang diperlukan bagi pengguna.

ChatGTP Bisa "Kelelahan" Bekerja
Studi mengungkap bahwa ChatGPT dapat mengalami stres dan kecemasan saat terpapar informasi traumatis, memengaruhi responsnya hingga menampilkan bias sosial.

Sering Pakai Medsos, Secara Tak Sadar Pengguna Jadi Pelatih AI, Hati-hati Privasi Bisa Diumbar
Perusahaan media sosial seperti LinkedIn dan Meta menggunakan informasi pengguna untuk melatih AI.

Ini Dampak Serius Penyadapan WhatsApp bagi Korban
Penyadapan WhatsApp dapat menimbulkan dampak serius bagi korban, mulai dari pelanggaran privasi hingga kerugian finansial.