• Opini
  • MAHASISWA BERSUARA: Risiko Pelanggaran Privasi dalam Dinamika Kecerdasan Buatan

MAHASISWA BERSUARA: Risiko Pelanggaran Privasi dalam Dinamika Kecerdasan Buatan

Data sensitif dan data pribadi sering terjebak dalam algoritma kecerdasan buatan yang menciptakan risiko pelanggan privasi.

Jessica Sandra Ryanti

Mahasiswa Universitas Katolik Parahyangan (Unpar) Bandung

Ilustrasi. Kartu Tanda Penduduk (KTP) Indonesia, 15 April 2021. KTP adalah hak semua warga negara Indonesia yang wajib disediakan negara. (Foto: Prima Mulia)

7 Januari 2024


BandungBergerak.id – Dunia saat ini tengah menghadapi era digital, di mana  teknologi kian berkembang dan melaju dengan kecepatan yang sungguh luar biasa. Kondisi tersebut ditandai dengan penggunaan mesin digital dan internet yang menyebabkan perubahan secara signifikan pada segala aspek kehidupan manusia. Hal itu telah mengubah pola kerja manusia yang pada awalnya dilakukan secara “manual” kini telah berubah ke arah “digitalisasi” atau “otomatisasi”. Tidak dapat dimungkiri bahwa perkembangan teknologi tersebut memberikan peluang positif bagi kemajuan peradaban dunia.

Masuknya era digitalisasi itu tampak dengan hadirnya teknologi kecerdasan buatan (Artificial Intelligence atau AI) yang  menjadi salah satu inovasi besar. Dengan kecerdasan buatan angan-angan manusia untuk dapat melakukan pekerjaannya dengan mudah kini telah menjadi kenyataan. Munculnya kecerdasan buatan saat ini bukan merupakan hal yang benar-benar baru, karena perkembangannya begitu cepat masuk dan memengaruhi kehidupan manusia. Secara sederhana sistem kecerdasan buatan ini merupakan salah satu  bagian dari ilmu komputer yang mengatur agar mesin (komputer) dapat bekerja seperti dan sebaik yang dilakukan manusia. Kecerdasan buatan memiliki kemampuan untuk belajar, memecahkan masalah, dan mengambil keputusan secara cepat.

Namun, bersamaan dengan peluang serta potensi yang menjanjikan, penggunaan kecerdasan buatan juga membawa tantangan bahkan  ancaman. Keberadaan kecerdasan buatan telah memengaruhi lapangan kerja, saat ini dalam beberapa kasus pekerjaan manusia telah tergantikan oleh kecerdasan buatan. Selain itu muncul juga kekhawatiran tentang privasi dan keamanan data, sebab kecerdasan buatan dapat mengumpulkan, menganalisis dan menginterpretasikan data pribadi dalam skala yang sangat besar.

Berdasarkan hasil survei dari Pew Research Center pada Agustus 2023 yang melibatkan 11.201 responden orang dewasa AS, menunjukkan bahwa 53% orang Amerika mengatakan AI lebih merugikan daripada membantu orang menjaga kerahasiaan informasi pribadi mereka. Dalam hal ini, perlindungan terhadap hak-hak privasi menjadi penting agar tidak terjadi penyalahgunaan data pribadi dan timbulnya pelanggaran yang tidak diinginkan. Lantas bagaimana perlindungan privasi data pribadi tersebut dapat dilaksanakan?  Apakah dengan hadirnya kecerdasan buatan hukum memiliki kekuatan membentuk kebijakan untuk melindungi privasi individu? Berkaitan dengan itu, maka diperlukan kebijakan hukum sebagai bentuk perlindungan privasi dan membatasi sistem  kecerdasan buatan dalam mengakses data secara masif.

Baca Juga: Rapuhnya Perlindungan Data Pribadi Warga Indonesia di Balik Euforia Peretas Bjorka
Peluang dan Tantangan Kecerdasan Buatan (AI) sebagai Teknologi Masa Depan
Kamera Pengenal Wajah Dibanggakan Pemkot Bandung dan PT KAI, Dikhawatirkan Akademisi kerena Mengancam Keselamatan Data Pribadi

Potensi Penyalahgunaan Data Pribadi

Dalam melakukan tugasnya kecerdasan buatan memerlukan data untuk dapat bekerja, tetapi data tersebut didapatkan secara masif atau dalam jumlah yang sangat besar. Pemerolehan data secara masif tersebut sering kali melibatkan informasi pribadi. Hal itu tentu menciptakan masalah privasi yang serius, pasalnya data yang didapatkan memuat informasi yang sensitif dan pribadi. Permasalahan tersebut terjadi sebab kurangnya kebijakan dalam perlindungan privasi secara ketat, akibatnya penggunaan kecerdasan buatan dengan mudah dapat mengakses sejumlah data pribadi. Berdasarkan penelitian yang dilakukan oleh Dwork et al. pada tahun 2016 mengungkapkan adanya ancaman terhadap privasi yang terkait dengan penggunaan AI dalam pengumpulan dan analisis data pribadi. Dalam konteks ini, data sensitif dan pribadi sering terjebak dalam algoritma kecerdasan buatan, yang pada gilirannya dapat menciptakan risiko pelanggan privasi.

Data yang dikumpulkan untuk sistem kecerdasan buatan dilakukan melalui berbagai saluran seperti, media sosial, platform daring, dan sumber lainnya. Teknologi kecerdasan buatan menggunakan data untuk memahami pola, tren, dan korelasi yang kemudian digunakan untuk membuat prediksi dan keputusan. Namun besarnya skala pengumpulan data yang beragam oleh sistem kecerdasan buatan menimbulkan kekhawatiran mengenai kualitas, keakuratan dan keamanan data yang digunakan.

Tidak hanya itu, muncul juga kekhawatiran lain mengenai potensi digunakannya data sensitif dan pribadi tanpa seizin pihak yang bersangkutan untuk kepentingan-kepentingan tertentu. Bahkan yang lebih menakutkan apabila data pribadi yang diperoleh dipergunakan untuk tujuan kriminal yang akhirnya menimbulkan kerugian bagi pihak-pihak yang bersangkutan. Ancaman tersebut menuntut adanya perhatian serius untuk menjaga privasi data pribadi agar tidak terjadi penyalahgunaan yang merugikan.

Menjaga Data Pribadi dalam Algoritma Kecerdasan Buatan

Banyak data yang dihasilkan, dan diproses oleh kecerdasan buatan menimbulkan pertanyaan tentang bagaimana data pribadi dan sensitif dikumpulkan, digunakan dan dilindungi. Para pengembang kecerdasan buatan perlu memastikan bahwa data yang diperoleh  digunakan dan diproses sesuai dengan undang-undang. Hal tersebut dimaksudkan agar hak privasi individu dapat tetap terjaga, serta menghindari adanya penyalahgunaan data pribadi. Berdasarkan hasil survei dari Applause yang melibatkan lebih dari 3.144 profesional pengujian kualitas digital di seluruh dunia tentang penggunaan teknologi, menunjukkan bahwa  67% responden  merasa bahwa sebagian besar layanan AI generatif melanggar privasi data. Dengan itu maka diperlukan langkah yang serius untuk menjaga privasi data pribadi, mengingat di era serba digital data pribadi dengan mudah diperoleh dan disebar tanpa sepengetahuan pihak yang bersangkutan .

Dalam algoritmanya sistem kecerdasan buatan dapat memproses data sensitif, seperti data biometrik, informasi keuangan, catatan kesehatan, dan data sensitif lainnya. Penggunaan data sensitif dalam sistem kecerdasan buatan menimbulkan potensi pelanggaran privasi, pencurian identitas, dan penyalahgunaan informasi pribadi. Untuk memastikan penanganan data sensitif yang bertanggung jawab sangat penting untuk melindungi privasi dalam sistem AI. Perlindungan tersebut dapat dilakukan dengan memberikan payung hukum yang kuat terhadap perlindungan data pribadi serta diperlukan struktur hukum untuk menunjang perlindungan data pribadi.

Dasar Hukum Perlindungan Privasi

Mendapatkan privasi data pribadi merupakan hak setiap individu dan hak privasi seseorang merupakan perwujudan dari hak asasi manusia yang melekat pada masing-masing individu. Di Indonesia perlindungan hak privasi telah dijamin dalam Pasal 28 G ayat (1) UUD 1945. Selain itu, pada tahun 2022 telah dibentuk Undang-undang No. 27 Tahun 2022 tentang Perlindungan Data Pribadi (UU PDP). UU PDP ini telah memasukkan pengambilan keputusan otomatis dan pemrosesan data menggunakan teknologi baru sebagai aktivitas pemrosesan data yang berisiko tinggi. Namun masih belum jelas cara UU PDP dan peraturan pelaksananya dapat mengatasi masalah kecerdasan buatan. Oleh sebab itu, timbul pertanyaan apakah UU PDP ini sudah cukup untuk melindungi data pribadi dan menghadapi dinamika kecerdasan buatan yang semakin berkembang.

Dalam praktik dan pelaksanaannya, UU PDP memang dapat memberikan payung hukum bagi seseorang yang melanggar ketentuan mengenai data pribadi. Namun jika disandingkan dalam perkembangan teknologi terutama kecerdasan buatan yang akan terus berkembang, UU PDP memiliki kelemahan. Kelemahan yang terjadi adalah belum diaturnya regulasi lebih lanjut mengenai kecerdasan buatan, terlebih lagi yang menjadi kunci tersimpannya data pribadi. Aplikasi maupun mesin yang menggunakan kecerdasan buatan  harus memiliki izin dan penetapan di bawah lindungan hukum agar dapat dimintai pertanggung jawaban atas segala risiko yang akan terjadi, selain itu regulasi sangat diperlukan di kemudian hari sebagai rujukan dan pedoman yang lebih jelas.

Kesimpulan

Sebagai upaya dalam menghadapi permasalahan perlindungan data yang terjadi akibat dinamika kecerdasan buatan penting untuk mengembangkan kebijakan yang efektif. Kebijakan tersebut harus mencangkup pengaturan tentang  bagaimana data pribadi dikumpulkan, diproses, dan digunakan dalam sistem kecerdasan buatan. Regulasi yang ketat dan transparan dapat membantu dalam menjaga privasi individu, serta memberikan panduan dan standar yang jelas bagi para pengembang dan pengguna AI.

Sebab dalam konteks kecerdasan buatan, privasi sangat penting untuk memastikan bahwa sistem kecerdasan buatan tidak digunakan untuk memanipulasi individu atau mendiskriminasi mereka berdasarkan data pribadi mereka. Sistem kecerdasan buatan yang mengandalkan data pribadi untuk mengambil keputusan harus transparan dan akuntabel untuk memastikan bahwa mereka tidak membuat keputusan yang tidak adil atau bias. Berkaitan dengan itu, diperlukan perlindungan terhadap data pribadi yang diatur dalam peraturan perundang-undangan. Saat ini di Indonesia sudah ada peraturan perundang-undangan yang mengatur privasi data pribadi, namun diperlukan langkah lebih lanjut untuk melibatkan kecerdasan buatan. Maka sebuah regulasi yang khusus dalam mengatasi tantangan privasi dalam konteks kecerdasan buatan sangat diperlukan. Tujuannya adalah memastikan bahwa privasi tetap terjaga sejalan dengan kemajuan teknologi, terutama di era kecerdasan buatan.

Selain itu, diperlukan adanya edukasi terhadap masyarakat tentang pentingnya menjaga privasi data pribadi dan bagaimana kecerdasan buatan memengaruhi privasi Individu. hal tersebut bertujuan agar masyarakat memahami secara obyektif apa saja manfaat dan risiko yang timbul dari kecerdasan buatan.  Kesadaran masyarakat dapat menjadi bagian dari solusi dalam menghadapi pelanggaran privasi akibat dinamika kecerdasan buatan.

Editor: Ahmad Fikri

COMMENTS

//