Di tengah kebangkitan teknologi prediktif dan algoritma generatif, satu fakta tak kunjung berubah di masa depan adalah tantangan krisis kesehatan. Pandemi COVID-19 membuktikan bahwa, krisis kesehatan tidak sekedar masalah kesehatan publik, tapi berkembang lebih luas dan berakhir pada krisis sosial. Dan dalam krisis sosial, pertanyaan paling penting bukan seberapa cepat informasi disebar, tetapi siapa yang dipercaya dan mengapa mereka layak untuk kita percaya.
Sebuah studi terbaru menegaskan bahwa AI memang mampu merumuskan ulang komunikasi risiko dan memetakan banjir informasi (infodemi) dalam krisis. Tapi ketika menyentuh keterlibatan pada komunitas (community engagement) mesin AI menemukan batas epistemologis dan etisnya.
Melalui pendekatan Delphi dengan 54 pakar global, studi ini menyusun sebuah konsensus bahwa AI efektif untuk mengawasi infodemi, menyusun pesan multibahasa, hingga mengotomasi analisis sosial. Namun ketika diminta menilai potensi AI untuk membangun hubungan dengan komunitas, panel anggota nyaris bulat menyatakan “tidak bisa”. Bahkan, AI dikhawatirkan menggerus ruang sosial yang justru menjadi prasyarat keberhasilan intervensi kesehatan berbasis kepercayaan.
Pertanyaannya, apakah kepercayaan dapat direkayasa secara algoritmik?
Studi ini menyusun tujuh prinsip etika yaitu kesetaraan, keamanan, transparansi, akuntabilitas, privasi, keterlibatan manusia, dan adaptabilitas. Namun hasil penelitian justru menunjukkan bahwa prinsip-prinsip ini tidak inheren dalam AI, melainkan harus diinjeksikan secara politis dan regulatif. AI tidak etis atau bias karena dirinya sendiri; ia menjadi demikian karena dibentuk dalam konteks sosial yang bias, tak setara, dan sering kali tertutup dari akuntabilitas publik.
Studi ini menyusun tujuh prinsip etika yaitu kesetaraan, keamanan, transparansi, akuntabilitas, privasi, keterlibatan manusia, dan adaptabilitas. Namun hasil penelitian justru menunjukkan bahwa prinsip-prinsip ini tidak inheren dalam AI, melainkan harus diinjeksikan secara politis dan regulatif
Di sinilah letak kegagalan wacana teknologi dalam diskusi publik hari ini. Terlalu sering AI dibicarakan seolah-olah ia netral, padahal ia hadir melalui infrastruktur kekuasaan yang sangat politis—mulai dari desain data, kontrak pengadaan, hingga siapa yang diikutsertakan dalam proses pelatihan model. Dalam konteks Global South, di mana akses digital dan literasi rendah, potensi AI malah bisa melanggengkan ketimpangan, bukan memperbaikinya.
Salah satu suara dalam studi ini mengingatkan dengan lugas:
“Jika kita menyerahkan proses yang semestinya manusiawi kepada mesin, maka kita kehilangan peluang membangun kepercayaan yang nyata.”
Dan itulah paradoksnya, justru karena AI begitu kuat dalam memproduksi bahasa, kita tergoda menggunakannya di tempat di mana yang dibutuhkan bukan sekadar kata-kata, tetapi empati, kedekatan, dan politik pengakuan. Misinformasi bukan hanya soal informasi yang salah, tapi juga tentang hilangnya relasi sosial dan matinya institusi perantara yang dulu menjadi jembatan antara ilmu dan masyarakat. Maka, AI seharusnya tidak menjadi pengganti komunikasi publik, tetapi katalis untuk memperbarui tata kelola komunikasi itu sendiri.
Implikasinya besar. Negara seperti Indonesia, yang kini sedang bereksperimen dengan teknologi AI untuk sistem kesehatan nasional, harus berhenti mengimpor kerangka teknologi tanpa membangun kerangka etikanya sendiri. Jika tidak, maka yang kita ekspor adalah kepercayaan publik, dan yang kita impor adalah ketergantungan terhadap infrastruktur yang tidak kita kuasai.
AI, dalam bentuk paling progresifnya, seharusnya bukan sekadar alat bantu teknis, tapi pengungkit institusional untuk menegosiasikan ulang relasi antara negara, masyarakat, dan teknologi. Namun itu hanya mungkin jika kita berhenti menanyakan “apa yang bisa dilakukan AI”, dan mulai menanyakan “masyarakat seperti apa yang ingin kita bangun dengan AI?”
