• Opini
  • Urgensi Pengembangan Artificial Intelligence untuk Mendeteksi Ujaran Kebencian

Urgensi Pengembangan Artificial Intelligence untuk Mendeteksi Ujaran Kebencian

Integrasi antara teknologi Artificial Intelligence (AI) dengan kaidah linguistik membuka peluang pengembangan otomasi penilaian ujaran kebencian di media sosial.

Fauzan Novaldy Pratama

Mahasiswa Jenjang Doktor Prodi Linguistik Sekolah Pascasarjana Universitas Pendidikan Indonesia (UPI) Bandung

Presenter TvOne dalam bentuk avatar produk dari kecerdasan buatan (artifiicial intelligence/AI). (Foto: Tangkapan Layar TvOne)

12 Oktober 2023


BandungBergerak.id – Dalam sistem demokrasi, kebebasan adalah hakikat yang melekat pada setiap individu (Kurniawan, 2015, hlm. 97). Secara praktis, konsekuensi praktik demokrasi tersebut dapat ditinjau secara nyata dalam hal kebebasan berpendapat, baik dalam skala nasional maupun internasional. Pada kasus Indonesia, Pasal 28 UUD 1945 menjadi poin legitimasi sekaligus tameng bagi pihak yang ingin mengemukakan pendapat, baik bernada positif maupun negatif. Namun, dalam konteks negatif, dilansir di laman editorial Media Indonesia (2017), kebisingan ujaran kebencian di masyarakat tak terhindarkan tanpa melihat dampak sosialnya secara menyeluruh. Bahkan, produksi ujaran kebencian diindustrialisasi demi mendapatkan keuntungan pihak tertentu.

Satu kasus konkret mencuat pada saat Pemilu DKI Jakarta pada 2017 yang di rekognisi sebagai awal perpecahan suara masyarakat (Lestari, 2019, hlm. 37) ke dalam dikotomi kubu berbasis agamis dan liberalis. Ujaran kebencian diproduksi oleh berbagai pihak dengan tujuan untuk saling menjatuhkan oposisi politiknya. Di lain waktu, kasus ujaran kebencian lain terjadi dalam pembasahan di luar politik, seperti kasus penghinaan atribut agama yang dilakukan oleh pihak marketing salah satu restoran terkemuka (Ramadhan, 2022). Maka, pada dasarnya, ujaran kebencian tidak terikat pada situasi dan fenomena tertentu saja, tetapi selalu berkaitan dengan rasa ingin menjatuhkan pihak lain.

Sebagai reaksi terhadap fenomena tersebut, Kepolisian Negara Republik Indonesia (Polri) menerbitkan Surat Edaran No. SE/6/X/2015 yang khusus mengelaborasi urusan terkait ujaran kebencian, baik dari sisi definisi, bentuk, tindakan preventif, sampai ke tindakan penegakan hukum. Lalu, Komisi Nasional Hak Asasi Manusia (Komnas Ham) merumuskan panduan singkat parameter mengenai struktur dan konten yang terekognisi sebagai ujaran kebencian (Komnas HAM, 2015, hlm. vi). Panduan tersebut dilengkapi dengan tindak lanjut pelanggaran serta proyeksi potensi dampak sosial ke depannya. Panduan ini adalah manifestasi gagasan dalam rangka pencegahan maraknya ujaran kebencian di masyarakat. Parameter-parameter yang disediakan pun secara implisit menggunakan kaidah-kaidah kebahasaan formal. Kaidah-kaidah tersebut berupa kodifikasi konkret sebagai tolak ukur apakah suatu ujaran dikatakan melanggar aturan atau tidak. Namun, Parameter dalam panduan tersebut aplikatif terhadap kajian kebahasaan dalam kuantitas tertentu dengan kapasitas dan kapabilitas manusia sebagai tolak ukurnya.

Baca Juga: Kecerdasan Buatan, Sebuah Ancaman bagi Umat Manusia?
Teknologi Kecerdasan Buatan Tetap Membutuhkan Kontrol Manusia
Peluang dan Tantangan Kecerdasan Buatan (AI) sebagai Teknologi Masa Depan

Solusi Digital Memanfaatkan AI

Seiring kemajuan era, platform digital, khususnya media sosial, menyediakan wadah berekspresi yang tidak terlimit (Susanto & Irwansyah, 2021, hlm. 66), baik dari sisi kuantitas maupun konten, termasuk di dalamnya ujaran kebencian. Kebebasan kuantitas berpotensi menjadi problem, karena besarnya sebaran ujaran kebencian menimbulkan kesulitan dalam menjaga kewarasan kognisi sosial. Suguhan konten negatif yang bertubi-tubi menggiring paradigma pembacanya ke arah sesuai dengan konten ujaran tersebut.

Problematika “digital” lebih efektif ditangani dengan solusi digital pula. Dalam hal ini, permasalahan kuantitas ujaran kebencian yang tidak terbendung akibat platform digital tersebut lebih proporsional jika diselesaikan dengan produk digital pula. Teknologi digital dewasa ini mentransformasi cara kerja manual di berbagai sektor menjadi otomatis, khususnya dengan pemanfaatan artificial intelligence (AI). Dengan integrasi antara AI dan kaidah linguistik, otomasi penilaian ujaran kebencian di media sosial sangat potensial dilakukan.

Dalam pengembangan AI, kecerdasan yang menjadi dasar engine bekerja berupa data yang sengaja didesain sedemikian rupa agar mudah dicerna oleh algoritma. Dengan kata lain, otomasi pendeteksian ujaran kebencian memerlukan data berupa fitur linguistik yang presisi. Data tersebut diperoleh dari ujaran yang secara natural sudah tersebar di dunia maya, barang bukti yang inkrah, ataupun artifisial dengan aturan tertentu.

Telah dijelaskan sebelumnya bahwa Komnas HAM telah merumuskan parameter umum ujaran kebencian. Parameter tersebut dapat dimanfaatkan sebagai panduan, baik secara konten maupun indikasi kaidah linguistik yang paling proporsional. Berbeda dengan analisis linguistik forensik untuk kebutuhan persidangan di mana manifestasi bahasa dijadikan sebagai alat bukti sehingga proses telaah dilakukan dengan komprehensif, pengembangan korpus harus menyesuaikan dengan kemampuan ekstraksi algoritma engine agar mudah dicerna.

Panduan Komnas HAM memberikan lima parameter yang merupakan graduasi berdasarkan tingkat ancamannya (Komnas HAM, 2015, hlm. 19). Dari paling rendah, urutannya adalah masih etis, stereotipe, pelabelan, provokasi, dan tingkat ancaman yang lebih nyata. Dalam kaidah linguistik, daya paksa dapat dideteksi menggunakan pendekatan pragmatis melalui Tindak Tutur (Speech Act) versi Searle, mengerucut pada Daya Ilokusi (Searle, 1979, hlm. viii). Pendekatan ini dapat memperlihatkan seberapa kuat kesan ancaman yang muncul dari satu ujaran. Panduan tersebut memberikan contoh (1) “Kristen halal da­ rahnya! Bunuh mereka! Jangan biarkan mereka mendirikan gereja di tanah kita” yang secara pragmatis dapat dikategorikan sebagai ujaran deklaratif. Artinya, ancaman deklaratif ini memaksa petutur untuk mengikuti perintah dari yang terkandung dalam ujaran tersebut. Di sisi lain, contoh (2) “Kristen di Indonesia dibawa oleh penjajah Belanda” bersifat asertif, yaitu hanya memberikan pernyataan.

Lalu, terdapat pula parameter konten yang termasuk ujaran kebencian. Secara garis besar, dengan dasar UU ITE, panduan tersebut menyatakan bahwa ujaran kebencian berdasarkan pada pasal 28 (2) UU 11/2018 tentang SARA. Lebih jauh, SARA dielaborasi berdasarkan KUHP pasal 156, meliputi suku, agama, aliran keagamaan, keyakinan/kepercayaan, ras, warna kulit, antar golongan, etnis, gender, orang dengan distabilitas (difabel), dan orientasi seksual atau ekspresi gender (Komnas HAM, 2015, hlm. 16). Dalam kaidah linguistik, parameter tersebut dapat menjadi acuan untuk menentukan Medan Makna (Semantic Domain, Semantic Field) dari satu ujaran. Menggunakan contoh (1) dan (2) di atas, keduanya berada pada domain SARA, yaitu agama.

Batasan dalam Akurasi AI

Penjelasan di atas memberikan proyeksi bahwa pendekatan Pragmasemantik (sintesis antara Pragmatik dan Semantik) dapat dijadikan pendekatan untuk mengategorikan satu ujaran termasuk ujaran kebencian atau bukan. Semantik mengacu pada bidang ilmu bahasa terkait pemaknaannya (Saeed, 2016, hlm. 3). Pemaknaan muncul ketika terjadi relasi antara tanda (sign) dengan objek yang mewakili konsep tanda tersebut (Saeed, 2016, hlm. 15). Di sisi lain, Pragmatik mengacu pada bidang ilmu bahasa terkait penggunaannya. Makna penggunaan muncul ketika tanda digunakan dengan intensi tertentu oleh penutur (Saeed, 2016, hlm. 15). Keduanya terikat dalam fungsi bahasa sebagai manifestasi interaksi sosial (Allan, 2002, hlm. 3). Pendekatan ini berpotensi aplikatif untuk membentuk korpus sebagai informasi awal dalam membangun kecerdasan buatan.

Secara akurasi, memang deteksi konten menggunakan AI memiliki batasan dalam hal persentase ketepatan prediksi, sehingga tidak memenuhi kualifikasi sebagai referensi tunggal pembuat keputusan. Namun secara fitur, kapasitas engine lebih memungkinkan untuk memprediksi data dalam kuantitas besar. Dalam dunia AI dikenal istilah garbage in, garbage out, artinya jika kualitas data sebagai pengetahuan tidak memadai, maka luarannya pun memiliki tingkat reliabilitas yang rendah. Lalu, semakin beragam dan banyak fitur bahasa yang masuk, semakin memadai pula pengetahuan engine tersebut. Maka, pembentukan korpus harus dalam kuantitas yang memadai dan kualitas yang presisi, khususnya dalam hal konsistensi.

Pada dasarnya, pemanfaatan tools ini berpotensi memperlihatkan sejauh mana tingkat ancaman dari penggunaan hate speech secara kumulatif di ruang virtual, sehingga dapat diketahui seperti apa tindakan yang selanjutnya dilakukan. Tindakan tersebut dapat berupa kebijakan preventif atau penanggulangan yang sudah terjadi, sehingga demokrasi dapat berjalan lebih akademis dan intelek dan secara perlahan-lahan mengurangi tendensi subjektif dalam memandang suatu fenomena.

Editor: Ahmad Fikri

COMMENTS

//