Bagaimana Algoritma Media Sosial Mempercepat Kebencian?

Antara tahun 2020 hingga 2025, media sosial tidak hanya menjadi medium berbagi informasi, tetapi juga bertransformasi menjadi mesin penyebar kebencian global. Dari kerusuhan New Delhi hingga konflik di Tigray, dari gelombang kebencian anti-Asia selama pandemi hingga kerusuhan Capitol di Amerika Serikat, algoritma media sosial terbukti mempercepat penyebaran ujaran kebencian dan disinformasi.

Proses terbentuknya kebencian di media sosial bermula dari apa yang disebut sebagai dinamika afektif dan algoritmis. Pertama, pengguna cenderung lebih tertarik dan terlibat dengan konten yang membangkitkan emosi moral seperti kemarahan atau kejijikan. Konten semacam ini lebih sering dibagikan dan dikomentari, menciptakan efek bola salju digital. Kedua, algoritma media sosial dirancang untuk memprioritaskan konten yang menghasilkan keterlibatan tinggi. Artinya, ketika konten bernuansa kebencian menunjukkan performa engagement yang tinggi, sistem akan menyebarkannya lebih luas lagi. Hal ini menciptakan ruang gema (echo chamber) dan spiral kebencian yang sulit dihentikan.

Platform seperti Facebook, Twitter (kini X), YouTube, dan TikTok dirancang untuk mengoptimalkan keterlibatan pengguna. Konten yang memuat emosi moral seperti kemarahan lebih mungkin dibagikan dan menjadi viral. Ini bukan kebetulan. Dokumen internal Facebook yang dibocorkan pada 2021 menunjukkan bahwa perusahaan menyadari bahwa algoritma mereka mempromosikan konten penuh kemarahan demi mempertahankan perhatian pengguna dan, pada akhirnya, keuntungan finansial.

Di YouTube, studi Mozilla Foundation tahun 2021 mengungkapkan bahwa 71% dari video ekstremis yang ditandai oleh pengguna justru direkomendasikan oleh sistem, bukan dicari secara aktif. Ini menunjukkan bahwa algoritma bukan hanya memfasilitasi penyebaran kebencian, tetapi secara aktif mendorongnya.

Konsekuensinya nyata dan berbahaya. Di India, politisi dari partai berkuasa menyebarkan ujaran anti-Muslim melalui Facebook dan WhatsApp menjelang kerusuhan New Delhi 2020. Laporan Wall Street Journal tahun 2020 mengungkap bahwa Facebook menolak menghapus unggahan pelaku politik karena khawatir merusak hubungan dengan pemerintah. Akibatnya, lebih dari 50 orang tewas.

Di Ethiopia, kegagalan Facebook dalam memoderasi konten berbahasa Amharik berkontribusi pada kekerasan terhadap etnis Tigray. Amnesty International tahun 2023 mencatat bahwa konten-konten yang menyerukan kekerasan tetap beredar selama konflik, termasuk unggahan yang berujung pada pembunuhan seorang akademisi yang didoeksing di media sosial.

Sementara itu, di Amerika Serikat, teori konspirasi tentang “pemilu curang” menyebar luas di Facebook dan Twitter, terutama melalui akun Donald Trump dan kelompok QAnon. Kerusuhan Capitol 6 Januari 2021 adalah puncak dari polarisasi ini. Namun setelah akun-akun utama diblokir, penyebaran disinformasi menurun drastis—73% hanya dalam waktu seminggu.

Twitter di bawah Elon Musk menjadi eksperimen ekstrem dalam pelonggaran moderasi. Setelah ribuan akun yang sebelumnya diblokir diaktifkan kembali, termasuk penyebar kebencian dan konspirasi, laporan dari Center for Countering Digital Hate 2022 menunjukkan peningkatan tajam dalam ujaran rasis dan homofobik.

Namun ini bukan hanya soal Amerika atau negara-negara besar. Penelitian menunjukkan bahwa ujaran kebencian dapat dikurangi dengan respons berbasis empati, sebuah strategi counter-speech yang kini mulai diadopsi oleh masyarakat sipil di berbagai belahan dunia. Meskipun demikian, upaya ini masih kalah cepat dibanding kecepatan viralnya konten kebencian yang diperkuat algoritma. Upaya regulasi seperti Digital Services Act (UE) dan NetzDG (Jerman) bisa jadi satu langkah awal yang dapat dijadikan acuan awal. Namun di negara tanpa komitmen terhadap hak asasi dan transparansi, regulasi dapat berubah menjadi alat represi.

Apa yang harus dilakukan?

Pertama, platform harus diwajibkan membuka algoritma mereka untuk audit independen. Tanpa transparansi, tidak ada akuntabilitas.

Kedua, negara-negara harus menyusun regulasi berbasis HAM yang menyeimbangkan antara kebebasan berekspresi dan perlindungan terhadap kelompok rentan.

Ketiga, perusahaan teknologi harus berinvestasi dalam sistem moderasi konten lintas bahasa dan budaya. Kehidupan warga di Ethiopia, India, atau Indonesia tidak kalah penting dari pengguna di AS atau Jerman.

Keempat, pendidikan literasi digital harus menjadi pilar kebijakan publik. Masyarakat perlu dibekali keterampilan untuk mengenali ujaran kebencian, disinformasi, dan taktik manipulasi daring (online).

Dan terakhir, kita semua harus menyadari bahwa setiap klik, like, dan share memiliki konsekuensi. Ketika kita ikut menyebarkan konten kebencian atau teori konspirasi, kita memperkuat sistem yang merusak demokrasi dan merugikan sesama warga.

Media sosial tidak netral. Ia dibentuk oleh desain teknologinya dan oleh kepentingan ekonomi di baliknya. Ketika desain ini memperkuat konten yang paling memecah belah, maka yang kita hadapi bukan sekadar krisis informasi, tetapi krisis sosial global. Jika kita tidak bertindak, maka yang akan terus viral bukanlah kebenaran atau empati, tetapi kebencian itu sendiri.


Leave a Comment Here

This site uses Akismet to reduce spam. Learn how your comment data is processed.