Kandidat Doktor Ilmu Hukum, Universitas 17 Agustus 1945 Surabaya
SURABAYA – PERS ONE
Dunia berada di ambang revolusi kesehatan yang dipicu oleh Kecerdasan Buatan (AI). Gelombang teknologi ini kini merasuk ke praktik klinis harian di Indonesia, mulai dari diagnosis citra medis hingga sistem pendukung keputusan. Dorongan kuat Pemerintah menuju digitalisasi sektor kesehatan, diwujudkan melalui inisiatif Rekam Medis Elektronik (RME), menempatkan kita pada jalur adopsi AI yang masif.
Namun, di balik euforia inovasi, struktur hukum kesehatan kita sedang menghadapi krisis. Sebagian besar regulasi yang berlaku dirancang pada era di mana pengambilan keputusan medis sepenuhnya berada di tangan tenaga kesehatan manusia. Masuknya “aktor” non-manusia berupa algoritma telah menggoyahkan konsep hukum mapan terkait etika profesi, hak pasien, dan, yang paling mendesak, tanggung jawab hukum.
Jika tidak segera diperbaiki, kita akan terjebak dalam dilema serius: kekosongan norma (vacuum of norm) dan ketidakjelasan norma (vague of norm).
Kekosongan ini berpotensi membahayakan keselamatan pasien dan menciptakan ketidakpastian yang menghambat inovasi yang etis.
Tiga Pilar Hukum yang Terguncang oleh Algoritma
Bedah anatomi hukum kesehatan menunjukkan tiga pilar utama yang membutuhkan rekonstruksi mendesak:
1. Kompleksitas Tanggung Jawab: Dilema Produk vs. Profesi
Secara tradisional, doktrin tanggung jawab hukum dalam malpraktik medis didasarkan pada konsep kelalaian tenaga medis. Dengan intervensi AI, pemetaan tanggung jawab menjadi sangat kompleks. Garis samar muncul antara cacat produk (product liability) dari pengembang AI dan malpraktik medis dari dokter yang menggunakannya.
Pertanyaan kuncinya: Siapa yang harus memikul beban akuntabilitas ketika kerugian pasien bersumber dari rekomendasi sistem AI?
Apakah Pengembang (Vendor) bertanggung jawab mutlak jika algoritma mengandung bias atau bug?
Apakah Institusi Kesehatan bertanggung jawab atas validasi AI yang tidak memadai? Atau, Dokter yang tetap memegang kendali akhir (human in the loop), bertanggung jawab atas non-blind adherence atau kegagalan mendeteksi kesalahan yang jelas?
Kekosongan hukum ini menuntut perumusan Doktrin Tanggung Jawab Berlapis (Shared Liability) yang secara eksplisit mendistribusikan akuntabilitas di antara ketiga aktor tersebut.
2. Etika Algoritma: Mengatasi ‘Kotak Hitam’ dan Bias Data
Karakteristik inheren AI, terutama fenomena “kotak hitam” (black box) pada model deep learning canggih, membuat proses pengambilan keputusannya sulit dijelaskan. Hal ini secara langsung bertentangan dengan prinsip transparansi dan akuntabilitas dalam praktik medis.
Lebih lanjut, AI dapat mewarisi bias historis atau sosio-demografis dari big data latihannya, berpotensi menyebabkan diskriminasi algoritmik—misalnya, diagnosis yang kurang akurat untuk kelompok etnis atau gender tertentu.
Untuk mengatasi ini, kerangka hukum harus diperkaya dengan prinsip Etika Algoritma, yang mencakup Audit Bias Berkala, dan penegasan Transparansi (Explainability/XAI) serta Auditabilitas yang kuat. Sistem AI wajib didesain dengan kemampuan logging yang merekam setiap keputusan.
3. Reformasi Informed Consent dan Regulasi Perangkat Medis
Prinsip Informed Consent (persetujuan atas dasar informasi komprehensif) menjadi sulit dipenuhi ketika dokter sendiri tidak sepenuhnya memahami cara kerja AI.
Maka, regulasi harus mewajibkan kewajiban pengungkapan (disclosure) secara eksplisit kepada pasien jika AI digunakan dalam diagnosis atau terapi. Pasien harus memiliki hak untuk meminta penjelasan mengenai bagaimana AI sampai pada suatu rekomendasi.
Di sisi regulasi perangkat, AI memiliki sifat adaptif dan dinamis. Hal ini menuntut proses validasi dan sertifikasi yang berkelanjutan, tidak lagi cukup dengan pengujian satu kali.
Jalan ke Depan: Meniru Model Regulasi Adaptif Global
Ketidakpastian ini mengharuskan Indonesia untuk belajar dari pendekatan regulatif global:
Uni Eropa (EU AI Act): Mengadopsi pendekatan berbasis risiko, mengklasifikasikan AI medis sebagai High-Risk AI Systems. Klasifikasi ini memicu kewajiban ketat pada pengembang, termasuk tata kelola data dan sistem manajemen risiko yang kuat.
Amerika Serikat (FDA Guidance): Menerapkan Predetermined Change Control Plan (PCCP), sebuah mekanisme penting yang memungkinkan pengembang mendapatkan persetujuan untuk jenis perubahan algoritmik di masa depan sebelum perubahan itu terjadi. Konsep PCCP sangat penting untuk mengawasi AI yang adaptif tanpa proses sertifikasi ulang yang berulang.
Fondasi Hukum yang Mendesak Dibangun
Pembaruan hukum kesehatan nasional secara komprehensif mendesak dilakukan.
Rekomendasi konkret harus segera ditujukan:
Regulator dan Kebijakan: Kementerian Kesehatan dan BPOM harus menyusun Peraturan Khusus AI Kesehatan yang mengadopsi pendekatan berbasis risiko dan mengintegrasikan mekanisme PCCP dari FDA untuk pengawasan AI yang dinamis.
Struktur Hukum: Regulasi harus secara eksplisit merumuskan dan mendistribusikan tanggung jawab hukum melalui Doktrin Shared Liability. Selain itu, kemampuan Explainable AI (XAI) harus ditetapkan sebagai syarat wajib dalam pembuktian sengketa hukum.
Etika dan Hak Pasien: Diwajibkan adanya Audit Data dan Mitigasi Bias serta Uji Kepatuhan Algoritma berkala. Pasien wajib memiliki hak atas disclosure dan penjelasan mendalam mengenai keterlibatan AI dalam keputusannya.
Hanya melalui implementasi rekomendasi yang runut dan berani ini, Indonesia dapat membangun fondasi hukum dan etika yang kokoh. Fondasi ini akan memungkinkan pemanfaatan Kecerdasan Buatan untuk memajukan kesehatan masyarakat secara aman, berkeadilan, dan bertanggung jawab, tanpa mengorbankan hak-hak fundamental individu di altar inovasi.
.png)