Oleh: Tim Penyusun, Diupdate 10 Januari 2026
Perkembangan kecerdasan buatan (artificial intelligence / AI) yang sangat cepat menghadirkan peluang besar sekaligus risiko serius bagi hak asasi manusia (HAM). Sistem AI kini memengaruhi siapa yang mendapatkan pekerjaan, kredit, layanan kesehatan, hingga bagaimana aparat penegak hukum mengambil keputusan. Di satu sisi, AI dapat meningkatkan efisiensi dan kualitas layanan publik; di sisi lain, AI berpotensi memperkuat diskriminasi, memperluas pengawasan massal, dan mengikis otonomi individu jika tidak dikembangkan dan diatur secara etis. Tulisan ini mengkaji keterkaitan etika AI dan HAM dengan fokus pada: (1) landasan teori etika yang relevan (deontologi, utilitarianisme, etika kebajikan); (2) nilai-nilai kunci yang harus memandu pengembangan AI (martabat manusia, otonomi, keadilan, non-diskriminasi, transparansi, akuntabilitas); (3) hak-hak asasi yang paling terdampak oleh AI (privasi, kesetaraan, kebebasan berekspresi, due process); (4) risiko etis dalam berbagai sektor (peradilan pidana, kesehatan, ketenagakerjaan, bantuan sosial, pengawasan); (5) kerangka etik dan kebijakan di level internasional (UNESCO, OECD, EU) dan Indonesia (SE Menkominfo No. 9/2023); serta (6) rekomendasi kerangka tata kelola human-centered AI di Indonesia. Esai menegaskan bahwa inovasi teknologi tidak dapat dijadikan alasan untuk mengabaikan HAM, dan bahwa AI yang sah secara etis harus secara eksplisit berakar pada perlindungan dan pemajuan hak-hak fundamental.
1. Mengapa Etika AI dan HAM Penting?
1.1 Skala Dampak AI terhadap Kehidupan Manusia
Sistem AI kini hadir dalam hampir setiap aspek kehidupan:[1]
- Peradilan pidana: algoritma prediksi residivisme dan predictive policing memengaruhi penahanan dan penjatuhan pidana.
- Kesehatan: sistem diagnosis berbasis machine learning membantu (atau menggantikan) penilaian klinis dokter.
- Ketenagakerjaan: alat seleksi otomatis menyaring CV dan menilai kandidat.
- Keuangan: skor kredit berbasis AI menentukan akses terhadap pinjaman dan produk keuangan lainnya.
- Ruang digital: algoritma rekomendasi menentukan informasi apa yang dilihat pengguna dan membentuk opini publik.
- Bantuan sosial: sistem penilaian risiko dan kelayakan berbasis data menentukan siapa yang berhak menerima bantuan.[2]
Karena AI bersifat tidak kasat mata dan kompleks, banyak individu tidak menyadari bahwa keputusan penting tentang hidup mereka diambil (atau sangat dipengaruhi) oleh algoritma. Di sinilah urgensi etika dan HAM dalam AI menjadi nyata.
1.2 Ketegangan antara Inovasi dan Perlindungan Hak
AI menjanjikan efisiensi dan akurasi yang lebih tinggi dibandingkan proses manual. Namun, tanpa kerangka etis yang kuat, inovasi dapat:[3]
- Mereproduksi dan memperkuat bias historis dan diskriminasi.
- Mengakibatkan pengawasan massal (mass surveillance) yang menggerus privasi dan kebebasan berekspresi.
- Menciptakan ketergantungan berlebihan pada sistem otomatis yang sulit dipertanggungjawabkan.
Tantangannya adalah menemukan desain tata kelola yang menyeimbangkan dorongan inovasi dengan kewajiban negara dan pelaku usaha untuk menghormati, melindungi, dan memenuhi HAM.
2. Landasan Teori Etika yang Relevan untuk AI
2.1 Deontologi dan Martabat Manusia
Pendekatan deontologis, sebagaimana dikembangkan dalam etika Kantian, menempatkan manusia sebagai tujuan pada dirinya sendiri, bukan semata alat. Dalam konteks AI:[4]
- Individu tidak boleh direduksi menjadi sekadar objek kalkulasi statistik.
- Penggunaan AI yang memanipulasi kerentanan psikologis, atau mengabaikan persetujuan dan otonomi individu, bertentangan dengan martabat manusia.
2.2 Utilitarianisme dan Konsekuensi Sosial AI
Pendekatan utilitarian menilai benar-salah suatu tindakan berdasarkan manfaat total yang dihasilkan. Dalam kerangka ini, AI dinilai dari sejauh mana ia meningkatkan kesejahteraan kolektif.[5]
Namun, fokus pada agregat kemanfaatan berisiko mengabaikan:
- Hak-hak minoritas yang mungkin dikorbankan demi “kebaikan mayoritas”.
- Kerugian yang diderita kelompok rentan yang tidak tercermin dalam indikator agregat.
2.3 Etika Kebajikan dan Karakter Pelaku Teknologi
Etika kebajikan memusatkan perhatian pada karakter moral pelaku, bukan hanya aturan atau konsekuensi. Dalam pengembangan AI, ini berarti:[6]
- Pengembang dan pengambil kebijakan dituntut memiliki integritas, kejujuran, kehati-hatian, dan empati.
- Budaya organisasi teknologi perlu mendorong sikap kritis terhadap dampak sosial AI, bukan sekadar mengejar kecepatan dan profit.
3. Nilai-Nilai Inti Etika AI: Dari Martabat hingga Akuntabilitas
3.1 Martabat Manusia (Human Dignity)
Martabat manusia mensyaratkan bahwa setiap individu diperlakukan sebagai subjek bernilai intrinsik.[7] Konsekuensinya bagi AI:
- Sistem tidak boleh digunakan untuk merendahkan, mempermalukan, atau mendehumanisasi individu atau kelompok.
- Penerapan AI dalam penegakan hukum, pemeringkatan sosial, atau profil risiko harus memperhatikan batas-batas yang melindungi kehormatan dan integritas pribadi.
3.2 Otonomi dan Pengambilan Keputusan
Otonomi menuntut bahwa individu memiliki kapasitas dan ruang untuk mengambil keputusan atas hidupnya sendiri.[8] AI menantang otonomi ketika:
- Rekomendasi algoritma diikuti secara buta tanpa penilaian kritis manusia.
- Struktur desain platform secara halus mengarahkan pilihan pengguna (misalnya melalui nudging dan desain adiktif).[^^8]
3.3 Keadilan dan Non-Diskriminasi
Keadilan menuntut perlakuan yang setara dan tidak diskriminatif. Namun, banyak studi menunjukkan bahwa sistem AI dapat menghasilkan:[9]
- Tingkat kesalahan lebih tinggi terhadap kelompok etnis tertentu dalam pengenalan wajah.
- Penilaian risiko kriminal yang lebih memberatkan kelompok minoritas.
- Penapisan pelamar kerja yang merugikan perempuan atau penyandang disabilitas.
Karena itu, prinsip keadilan mengharuskan adanya pengujian dan mitigasi bias algoritmik secara sistematis.
3.4 Transparansi dan Akuntabilitas
Transparansi berarti pihak yang terdampak dapat memahami bahwa dan bagaimana AI digunakan dalam suatu keputusan, sedangkan akuntabilitas menuntut adanya pihak yang dapat dimintai pertanggungjawaban.[10]
Tanpa keduanya:
- Individu tidak dapat secara efektif menantang atau mengajukan keberatan terhadap keputusan yang merugikan.
- Pengembang dan penyedia sistem terlindungi oleh “kabut teknis” yang mengaburkan tanggung jawab.
4. Hak Asasi Manusia yang Paling Terdampak oleh AI
4.1 Hak atas Privasi dan Perlindungan Data Pribadi
AI sangat bergantung pada data dalam jumlah besar. Pengumpulan dan pemrosesan data tanpa pengawasan memadai berpotensi melanggar:[11]
- Hak atas privasi (perlindungan kehidupan pribadi, keluarga, komunikasi).
- Hak atas perlindungan data pribadi, termasuk hak untuk mengetahui, mengakses, memperbaiki, dan menghapus data.
Di Indonesia, penguatan UU PDP menjadi krusial untuk menjamin bahwa pemrosesan data untuk keperluan AI tetap menghormati persetujuan dan kendali individu.[12]
4.2 Hak atas Kesetaraan dan Bebas dari Diskriminasi
Penggunaan AI dalam rekrutmen, penilaian kredit, peradilan pidana, dan bantuan sosial secara langsung bersentuhan dengan hak atas kesetaraan di hadapan hukum dan bebas dari diskriminasi.[13]
Jika algoritma dilatih dengan data yang sarat prasangka, maka diskriminasi masa lalu berpotensi dilestarikan dan diperkuat dalam skala yang lebih besar.
4.3 Hak atas Due Process dan Peradilan yang Adil
Ketika AI memengaruhi keputusan hukum atau administratif (misalnya penahanan, penjatuhan pidana, penolakan bantuan sosial), hak atas proses yang adil mengharuskan:
- Notifikasi yang jelas bahwa keputusan diambil (atau dibantu) oleh sistem otomatis.
- Hak untuk memperoleh penjelasan tentang alasan di balik keputusan.
- Hak untuk meminta peninjauan kembali oleh manusia yang berwenang.[14]
4.4 Kebebasan Berekspresi, Beragama, dan Berkumpul
Penggunaan AI untuk moderasi konten dan pengawasan digital dapat mengancam:
- Kebebasan berekspresi jika konten dibatasi secara tidak proporsional atau bias.
- Kebebasan beragama dan berkumpul jika pengawasan ditujukan secara khusus kepada kelompok tertentu.[15]
5. Risiko Etis AI dalam Berbagai Sektor
5.1 Peradilan Pidana dan Penegakan Hukum
Penerapan AI dalam peradilan pidana (seperti risk assessment dan predictive policing) menimbulkan risiko:[16]
- Diskriminasi terstruktur terhadap kelompok yang selama ini telah terekspos secara tidak proporsional dalam sistem peradilan.
- Penguatan praktik penahanan preventif berbasis skoring risiko yang tidak transparan.
- Ketergantungan berlebihan hakim dan aparat pada rekomendasi algoritma (automation bias).
5.2 Kesehatan
Dalam sektor kesehatan, AI dapat meningkatkan akurasi diagnosis, tetapi juga berpotensi:[17]
- Berkinerja lebih buruk pada kelompok ras atau gender tertentu karena data latih yang tidak representatif.
- Mengaburkan dasar pengambilan keputusan medis, sehingga mengganggu informed consent pasien.
5.3 Ketenagakerjaan dan Bantuan Sosial
Dalam rekrutmen dan bantuan sosial, risiko utama adalah:
- Penolakan kerja atau bantuan berdasarkan profil risiko yang tidak dapat dijelaskan atau digugat.
- Stigmatisasi kelompok miskin atau minoritas sebagai “berisiko tinggi” sehingga memperkuat marginalisasi.[18]
6. Kerangka Etik dan Kebijakan di Level Internasional dan Nasional
6.1 Rekomendasi UNESCO tentang Etika AI
UNESCO Recommendation on the Ethics of Artificial Intelligence menegaskan bahwa AI harus dikembangkan dengan menjunjung:[19]
- HAM dan kebebasan fundamental sebagai dasar normatif.
- Keberagaman budaya dan pluralisme.
- Keadilan sosial dan inklusivitas.
- Keberlanjutan lingkungan dalam seluruh siklus hidup AI.
Rekomendasi ini menyerukan negara untuk membangun kerangka hukum dan kelembagaan yang memastikan bahwa prinsip etis diterjemahkan ke dalam praktik.
6.2 Prinsip AI OECD dan Pendekatan Nilai UE
Prinsip OECD menekankan bahwa AI harus:[20]
- Berkualitas tinggi dan dapat dipercaya.
- Menghormati rule of law, HAM, dan nilai-nilai demokrasi.
- Menjamin transparansi, akuntabilitas, dan inklusivitas.
Pendekatan Uni Eropa melalui EU AI Act menggabungkan prinsip ini ke dalam skema regulasi berbasis risiko, dengan larangan eksplisit terhadap penggunaan AI tertentu (misalnya social credit scoring publik) dan kewajiban ketat untuk aplikasi berisiko tinggi.[21]
6.3 Kerangka Etik di Indonesia: SE Menkominfo No. 9/2023
Surat Edaran Menkominfo No. 9/2023 memperkenalkan prinsip etika dasar bagi pengembangan dan pemanfaatan AI di Indonesia, antara lain:[22]
- Menempatkan manusia sebagai pusat (human-centric), dengan model human-in-the-loop dan human-over-the-loop untuk keputusan berisiko tinggi.
- Menekankan keselamatan, keamanan, dan ketahanan sistem.
- Menjaga perlindungan data pribadi dan tata kelola data yang baik.
- Mendorong transparansi, akuntabilitas, dan manajemen risiko.
Meskipun masih bersifat soft law, ini menjadi pijakan awal menuju kerangka regulasi yang lebih mengikat.
7. Penutup
Etika kecerdasan buatan dan hak asasi manusia bukanlah dua domain yang berdiri terpisah, melainkan saling terkait dan saling memperkuat. Tanpa kerangka etis yang berakar pada HAM, AI berisiko menjadi instrumen baru ketidakadilan dan penindasan; sebaliknya, bila diarahkan dengan benar, AI dapat menjadi alat yang kuat untuk memperluas pemenuhan hak-hak dasar dan meningkatkan kualitas hidup.
Tim Penyusun: Shinta Hadiyantina, Mohamad Rifan
Leave a Reply