Dalam beberapa tahun terakhir, nasib finansial seseorang dapat ditentukan bukan lagi oleh pertemuan tatap muka dengan analis kredit, melainkan oleh baris-baris kode yang bekerja dalam senyap.
Transformasi digital di sektor keuangan Indonesia bergerak dengan kecepatan yang belum pernah terjadi sebelumnya.
Bank, perusahaan pembiayaan, fintech lending, perusahaan asuransi, hingga manajer investasi kini mengandalkan Artificial Intelligence (AI) untuk membaca profil risiko, menghitung kelayakan kredit, mendeteksi transaksi mencurigakan, menentukan premi, bahkan merekomendasikan produk keuangan.
Dalam banyak kasus, keputusan yang dahulu diambil analis manusia kini digantikan oleh sistem Automated Decision-Making (ADM) berbasis algoritma pembelajaran mesin.
Di satu sisi, AI menjanjikan efisiensi, kecepatan, dan perluasan inklusi keuangan. Proses yang sebelumnya membutuhkan hari bahkan minggu kini selesai dalam hitungan detik.
Biaya operasional menurun, risiko fraud dapat ditekan, dan akses kredit dapat diperluas hingga ke segmen yang sebelumnya tidak terjangkau.
Namun di sisi lain, otomatisasi keputusan menghadirkan pertanyaan mendasar: ketika algoritma salah dan merugikan konsumen, siapa yang bertanggung jawab?
Bayangkan seorang pelaku UMKM di Jawa Tengah yang pengajuan kredit modal kerjanya ditolak oleh sistem scoring digital sebuah platform pinjaman daring, padahal ia tidak pernah memiliki catatan kredit macet.
Ketika ia meminta penjelasan, yang diterima hanyalah jawaban normatif bahwa “hasil analisis sistem menunjukkan risiko tinggi”.
Tidak ada uraian variabel apa yang dianggap bermasalah, tidak ada kesempatan klarifikasi yang memadai. Atau seorang nasabah yang rekeningnya dibekukan karena sistem mendeteksi pola transaksi “mencurigakan” yang ternyata keliru.
Atau calon tertanggung yang dikenakan premi lebih tinggi karena sistem memprofilkan risiko berdasarkan variabel yang tidak transparan.
Dalam situasi seperti ini, keputusan tidak lagi lahir dari pertimbangan manusia yang dapat dimintai klarifikasi langsung, melainkan dari model statistik yang bekerja dalam logika probabilitas.
Hukum Indonesia memang telah memiliki sejumlah instrumen yang relevan, seperti Undang-Undang Nomor 27 Tahun 2022 tentang Pelindungan Data Pribadi (UU PDP), berbagai Peraturan Otoritas Jasa Keuangan (POJK) mengenai manajemen risiko dan tata kelola teknologi informasi, serta prinsip kehati-hatian (prudential principle) dalam industri jasa keuangan.
Namun tidak satu pun secara eksplisit merumuskan konstruksi tanggung jawab hukum atas kerugian yang timbul dari keputusan otomatis berbasis AI.
Di sinilah letak kekosongan normatif yang perlu segera direspons.
Kekosongan Norma dan Accountability Gap dalam Era AI
Secara teoritis, AI dalam sektor keuangan bukan sekadar alat bantu administratif. Sistem machine learning dilatih menggunakan data dalam jumlah besar untuk menemukan pola dan korelasi yang kemudian diterjemahkan menjadi prediksi risiko.
Output yang dihasilkan sering kali bersifat determinatif: Disetujui atau ditolak, berisiko atau tidak, layak atau tidak.
Walaupun AI bukan subjek hukum, dampak keputusannya nyata dan langsung menyentuh hak ekonomi warga negara.
Masalahnya, AI bekerja berdasarkan korelasi statistik, bukan pertimbangan normatif. Ia tidak memahami konteks sosial, asas kepatutan, atau nilai keadilan.
Jika data pelatihan mengandung bias historis —misalnya bias wilayah, jenis pekerjaan, atau latar belakang tertentu— maka model dapat mereproduksi bahkan memperkuat bias tersebut.
Dalam literatur global, fenomena ini dikenal sebagai algorithmic bias atau automated discrimination.
Dalam kerangka hukum perdata klasik, tanggung jawab lahir karena adanya kesalahan (fault) atau wanprestasi.
Korban harus membuktikan adanya perbuatan melawan hukum, kerugian, dan hubungan kausal.
Model ini masuk akal ketika pelaku adalah manusia atau badan hukum yang secara langsung melakukan tindakan.
Namun dalam konteks AI, kerugian dapat muncul tanpa adanya kesalahan individual yang jelas.
Tidak selalu terdapat kelalaian yang kasat mata.
Kesalahan bisa tersembunyi dalam desain model, pemilihan variabel, kualitas data, atau interaksi kompleks antar-sistem.
Jika hukum tetap memaksakan paradigma fault-based liability secara murni, maka konsumen akan menghadapi beban pembuktian yang hampir mustahil.
Bagaimana seorang nasabah membuktikan bahwa algoritma yang tertutup sebagai rahasia dagang mengandung bias?
Bagaimana ia mengakses logika model prediktif yang bahkan mungkin tidak sepenuhnya dipahami oleh operatornya sendiri?
Di sinilah muncul apa yang sering disebut sebagai accountability gap —kesenjangan akuntabilitas dalam era otomatisasi.
UU PDP sebenarnya memberikan fondasi penting dalam tata kelola pemrosesan data.
Undang-undang ini menegaskan hak subjek data untuk memperoleh informasi mengenai identitas pengendali data, tujuan pemrosesan, serta hak untuk mengakses dan memperbaiki data.
Namun UU PDP belum secara eksplisit mengatur hak untuk tidak tunduk pada keputusan otomatis atau hak atas penjelasan algoritmik secara komprehensif.
Berbeda dengan rezim GDPR di Uni Eropa yang secara tegas mengakui right not to be subject to automated decision-making, kerangka Indonesia masih bersifat implisit.
Akibatnya, ketika keputusan kredit ditolak oleh sistem AI, konsumen memang dapat mengajukan keberatan atau pengaduan, tetapi tidak ada jaminan normatif bahwa ia berhak memperoleh peninjauan manusia yang substansial.
UU PDP lebih menitikberatkan pada perlindungan terhadap penyalahgunaan dan kebocoran data, bukan pada keadilan substantif dari output algoritmik itu sendiri.
Sementara itu, dalam rezim sektor keuangan, prinsip kehati-hatian menjadi pilar utama.
POJK mengenai manajemen risiko teknologi informasi mewajibkan lembaga jasa keuangan untuk memastikan keandalan sistem, keamanan data, dan pengendalian internal.
Secara teoritis, kewajiban manajemen risiko ini dapat diperluas untuk mencakup risiko algoritmik.
Namun pengaturan tersebut belum secara eksplisit merinci kewajiban uji bias, transparansi model, atau audit independen atas sistem pembelajaran mesin.
Dalam praktiknya, lembaga keuangan dapat berargumen bahwa sistem AI telah melalui uji validasi internal dan memenuhi standar manajemen risiko.
Jika terjadi kerugian, mereka dapat menyatakan tidak ada kelalaian. Dalam kerangka fault-based liability, posisi ini relatif kuat karena konsumen harus membuktikan adanya kesalahan prosedural.
Padahal asimetri informasi antara lembaga keuangan dan nasabah sangat tajam. Industri memiliki akses terhadap data, ahli, dan infrastruktur teknologi, konsumen tidak.
AI Berisiko Tinggi: Perlukah Strict Liability?
Di sinilah urgensi mempertimbangkan model pertanggungjawaban alternatif, termasuk konsep strict liability atau tanggung jawab mutlak.
Dalam doktrin hukum, strict liability diterapkan pada aktivitas yang memiliki risiko tinggi dan potensi dampak luas, sehingga pembuktian kesalahan tidak lagi menjadi syarat utama.
Pihak yang menjalankan aktivitas tersebut bertanggung jawab atas kerugian yang timbul, terlepas dari ada atau tidaknya kelalaian.
Apakah penggunaan AI dalam pengambilan keputusan finansial dapat dikategorikan sebagai aktivitas berisiko tinggi?
Pertanyaan ini tidak abstrak. Dalam beberapa tahun terakhir, publik menyaksikan berbagai keluhan terhadap platform pinjaman online legal yang menggunakan credit scoring otomatis dan melakukan pembatasan akses atau penolakan pinjaman tanpa transparansi yang cukup.
Di sektor perbankan, terdapat pula kasus pemblokiran rekening secara massal karena sistem deteksi transaksi mencurigakan yang kemudian terbukti keliru setelah dilakukan verifikasi manual.
Bahkan dalam industri asuransi digital, perdebatan muncul ketika premi ditentukan berdasarkan profiling data perilaku tanpa penjelasan komprehensif kepada calon tertanggung.
Argumen afirmatif dapat dibangun dari beberapa sudut.
Pertama, keputusan AI berdampak langsung terhadap hak ekonomi individu —akses kredit, reputasi finansial, hingga kelangsungan usaha.
Kedua, kompleksitas teknisnya membuat risiko sulit dipahami dan diverifikasi oleh publik.
Ketiga, lembaga keuangan memperoleh manfaat ekonomi signifikan dari efisiensi dan pengurangan biaya operasional melalui AI.
Keempat, kesalahan sistemik dapat berdampak luas dan simultan terhadap ribuan bahkan jutaan nasabah.
Dalam perspektif teori alokasi risiko, pihak yang memperoleh manfaat ekonomi terbesar dan memiliki kendali teknis tertinggi seharusnya menanggung risiko utama.
Logika ini konsisten dengan prinsip keadilan distributif dan perlindungan konsumen. Dengan menerapkan strict liability pada keputusan otomatis berdampak signifikan, hukum mendorong industri untuk meningkatkan standar kehati-hatian secara substantif, bukan sekadar prosedural.
Namun demikian, penerapan strict liability secara menyeluruh juga menimbulkan kekhawatiran.
Industri dapat berargumen bahwa model tersebut berpotensi menghambat inovasi, meningkatkan biaya kepatuhan, dan menimbulkan risiko litigasi berlebihan.
Tidak semua kesalahan algoritma bersifat struktural atau berdampak besar. Sebagian mungkin bersifat teknis dan segera diperbaiki tanpa kerugian signifikan.
Karena itu, pendekatan yang lebih proporsional adalah model hibrida yang menggabungkan unsur strict liability dan fault–based liability.
Dalam model ini, keputusan otomatis yang berdampak signifikan terhadap hak ekonomi—seperti penolakan kredit, pembekuan rekening, atau pembatalan polis—dapat dikenakan strict liability. Untuk kesalahan operasional minor yang tidak berdampak luas, pendekatan berbasis kesalahan tetap dapat digunakan.
Selain itu, regulasi perlu mewajibkan mandatory human review atas keputusan berdampak tinggi. Artinya, sebelum keputusan final diberlakukan atau ketika konsumen mengajukan keberatan, harus tersedia mekanisme peninjauan manusia yang substantif dan independen.
Ini bukan sekadar formalitas, melainkan jaminan bahwa keputusan algoritmik tidak menjadi vonis absolut tanpa ruang koreksi.
Model Hibrida dan Evolusi Prinsip Kehati-hatian Algoritmik
Lebih jauh, prinsip kehati-hatian di sektor keuangan harus berevolusi menjadi prinsip kehati-hatian algoritmik.
Lembaga keuangan tidak cukup hanya memastikan keamanan sistem dari serangan siber, tetapi juga harus memastikan keadilan dan non-diskriminasi dalam output algoritma.
Audit algoritmik independen, pengujian bias secara berkala, serta transparansi terbatas mengenai variabel utama yang digunakan dalam pemodelan harus menjadi bagian dari kewajiban prudensial.
Reformulasi tanggung jawab ini juga selaras dengan semangat perlindungan konsumen dalam hukum Indonesia.
Konsumen jasa keuangan berada dalam posisi tawar yang secara struktural lebih lemah dibandingkan pelaku usaha.
Dalam relasi kontraktual perbankan atau fintech, klausul baku mendominasi, teknologi dikuasai industri, dan informasi teknis nyaris sepenuhnya berada di tangan penyelenggara sistem.
Jika hukum tidak melakukan koreksi terhadap ketimpangan ini, maka otomatisasi justru berpotensi memperdalam ketidakadilan yang sudah ada.
Perlu ditegaskan, problem utama dalam keputusan berbasis AI bukan semata pada ada atau tidaknya kesalahan teknis, melainkan pada absennya mekanisme akuntabilitas yang transparan.
Ketika sebuah bank menolak kredit berdasarkan analisis manusia, masih terbuka ruang dialog, klarifikasi, dan pertimbangan kontekstual.
Namun ketika penolakan lahir dari model prediktif yang tertutup, nasabah berhadapan dengan “kotak hitam” (black box) yang sulit ditembus. Dalam situasi ini, hukum tidak boleh bersikap netral secara semu.
Netralitas teknologi sering kali dijadikan dalih bahwa algoritma hanyalah alat objektif berbasis data. Padahal data sendiri tidak pernah benar-benar netral.
Data adalah produk dari realitas sosial yang sarat bias struktural. Jika pada masa lalu kelompok tertentu lebih sulit mengakses kredit, maka data historis dapat “mengajarkan” model AI untuk melanjutkan pola tersebut.
Tanpa intervensi regulatif, diskriminasi masa lalu dapat direproduksi dalam bentuk digital yang lebih halus dan sulit dideteksi.
Di titik inilah negara memiliki peran strategis. Otoritas Jasa Keuangan (OJK) tidak cukup hanya mengawasi kesehatan finansial lembaga jasa keuangan, tetapi juga harus memastikan keadilan algoritmik (algorithmic fairness).
Regulasi yang ada perlu diperkuat dengan standar khusus mengenai penggunaan AI berisiko tinggi. Misalnya, kewajiban melakukan impact assessment sebelum sistem diterapkan secara luas, kewajiban dokumentasi model dan variabel utama yang memengaruhi keputusan, serta kewajiban menyediakan saluran keberatan yang efektif dan cepat.
Lebih dari itu, perlu dipikirkan mekanisme pembalikan beban pembuktian dalam sengketa tertentu. Jika konsumen dapat menunjukkan adanya kerugian akibat keputusan otomatis yang berdampak signifikan, maka lembaga keuanganlah yang harus membuktikan bahwa sistemnya telah dirancang dan dijalankan sesuai standar kehati-hatian algoritmik.
Pendekatan ini tidak radikal; ia justru sejalan dengan perkembangan hukum perlindungan konsumen modern yang mengakui adanya ketimpangan struktural antara pelaku usaha dan konsumen.
Tentu, pembaruan tanggung jawab hukum ini harus dirancang secara proporsional agar tidak mematikan inovasi.
Indonesia membutuhkan inovasi keuangan untuk memperluas inklusi dan mendorong pertumbuhan ekonomi.
Namun inovasi yang berkelanjutan justru membutuhkan fondasi kepercayaan publik. Tanpa jaminan akuntabilitas, kepercayaan itu akan rapuh.
Kita dapat belajar dari berbagai perdebatan global mengenai regulasi AI yang menekankan pendekatan berbasis risiko (risk-based approach).
Semakin tinggi dampak sistem terhadap hak individu, semakin ketat pula standar pengawasan dan tanggung jawab yang harus diterapkan.
Dalam konteks sektor keuangan, keputusan yang menentukan akses terhadap sumber daya ekonomi jelas berada dalam kategori berdampak tinggi.
Karena itu, wajar jika standar tanggung jawabnya lebih ketat dibandingkan penggunaan AI untuk sekadar personalisasi iklan.
Akuntabilitas Algoritma sebagai Tuntutan Konstitusional
Pada akhirnya, mendesain tanggung jawab hukum atas keputusan AI di sektor keuangan bukan sekadar soal memilih antara strict liability atau fault-based liability. Yang lebih penting adalah memastikan bahwa tidak ada ruang tanpa akuntabilitas. Hukum harus mampu menutup celah ketika teknologi bergerak lebih cepat daripada regulasi.
Dalam kerangka konstitusional, isu ini bahkan menyentuh jantung negara hukum. Pasal 28D ayat (1) UUD 1945 menjamin hak setiap orang atas kepastian hukum yang adil.
Kepastian hukum tidak hanya berarti adanya aturan tertulis, tetapi juga adanya mekanisme yang dapat diprediksi dan transparan ketika hak seseorang dibatasi.
Sementara itu, Pasal 28G ayat (1) menjamin hak atas rasa aman dan perlindungan atas harta benda. Jika akses terhadap rekening, kredit, atau perlindungan asuransi dapat dibatasi oleh sistem otomatis tanpa mekanisme koreksi yang memadai, maka hak konstitusional tersebut berpotensi tergerus.
Algoritma memang tidak memiliki niat, tetapi dampaknya dapat sangat nyata. Karena itu, tanggung jawab tidak boleh berhenti pada kalimat “itu keputusan sistem”.
Di balik setiap sistem ada pengembang, manajemen, dan institusi yang memilih untuk menggunakannya demi efisiensi dan keuntungan ekonomi. Pilihan tersebut harus disertai dengan kesediaan menanggung konsekuensi hukumnya.
Negara tidak boleh tertinggal oleh teknologi, apalagi tunduk padanya. Regulasi yang jelas mengenai tanggung jawab atas automated decision-making akan menjadi penanda bahwa Indonesia tidak sekadar menjadi pasar teknologi, tetapi juga negara hukum yang mampu mengendalikan arah inovasi sesuai prinsip keadilan.
Pada akhirnya, kecerdasan buatan harus tetap berada di bawah kendali tanggung jawab manusia. Sebab yang dipertaruhkan bukan hanya kecepatan layanan atau efisiensi biaya, melainkan martabat dan hak ekonomi warga negara.
Jika hukum gagal memastikan akuntabilitas di era algoritma, maka yang hilang bukan sekadar kepastian hukum, melainkan kepercayaan publik terhadap sistem keuangan itu sendiri. ***



