Selasa, 05/05/2026 06:45 WIB
JAKARTA, Jurnas.com — Kandidat Doktor Ilmu Hukum Universitas Borobudur, Dwi Nugroho Marsudianto, menegaskan perkembangan kecerdasan artifisial (Artificial Intelligence) telah melampaui batas-batas konseptual hukum pidana klasik, sehingga menuntut pembaruan mendasar dalam sistem hukum nasional maupun internasional.
"Saat ini, hukum pidana konvensional dibangun di atas dua pilar utama, yakni actus reus (perbuatan) dan mens rea (niat jahat). Namun dalam konteks kecerdasan artifisial, kedua unsur ini menjadi problematis. Sistem kecerdasan artifisial dapat bertindak secara otonom dan menghasilkan akibat hukum, tetapi tidak dapat dimintai pertanggungjawaban dalam kerangka hukum pidana yang ada," kata Dwi melalui keterangannya, Selasa (5/5/2026).
Menurut Dwi, beberapa contoh yang memperlihatkan dampak nyata kecerdasan artifisial terhadap kehidupan manusia, antara lain kecelakaan robot industri yang menyebabkan kematian pekerja, kegagalan robot medis dalam operasi, hingga kasus Random Darknet Shopper di Swiss yang secara otomatis membeli narkotika.
Selain itu, kata Dwi, fenomena deepfake dan penipuan berbasis voice cloning yang meningkat tajam pada 2024–2026 menjadi bukti bahwa kecerdasan artifisial telah dimanfaatkan sebagai alat kejahatan digital yang sangat canggih dan sulit dilacak. Bahkan, muncul kasus ekstrem ketika kecerdasan artifisial digunakan dalam struktur pemerintahan, seperti pengangkatan kecerdasan artisial sebagai pejabat administratif di Albania.
Hari ke-14 Operasional Haji: 81.992 Jemaah RI Diberangkatkan, 9 Orang Wafat
Ini Panduan dan Adab Berkurban Sesuai Sunah Rasulullah
Ujian Rumah Tangga Tak Terelakkan, Ini Cara Menghadapinya Menurut Islam
“Perkembangan kecerdasan artifisial yang otonom, adaptif, dan mampu mengambil keputusan sendiri telah menimbulkan kekosongan hukum. Khususnya dalam menentukan siapa yang harus bertanggung jawab ketika terjadi kerugian akibat tindakan kecerdasan artifisial,” ujarnya.
Pernyataan itu ia sampaikan usai dinyatakan lulus Sidang Seminar Hasil Penelitian Disertasi Program Doktor Ilmu Hukum Universitas Borobudur dengan judul “Konstruksi Hukum terhadap Tanggung Jawab dan Yurisdiksi Internasional dalam Tindak Pidana Berbasis Kecerdasan Artifisial (Artificial Intelligence) yang Berkeadilan”.
Sidang tersebut menghadirkan penguji Prof. Dr. Faisal Santiago dan Prof. Dr. Zainal Arifin Hoesein, dengan promotor Dr. Ahmad Redi, serta ko-promotor Dr. Muchlas Rowi.
Kriminolog Universitas Indonesia ini menjelaskan, kecerdasan artifisial modern memiliki karakteristik berbeda dari teknologi konvensional. Sistem berbasis machine learning dan deep learning memungkinkan kecerdasan artifisial belajar dari data, mengubah perilaku, dan bahkan menghasilkan keputusan yang tidak selalu dapat dijelaskan secara transparan.
Fenomena black-box decision making menjadi tantangan serius bagi penegakan hukum, karena proses sebab-akibat dalam tindakan kecerdasan artifisial tidak dapat ditelusuri secara linear seperti perilaku manusia. Hal ini berimplikasi langsung pada kesulitan pembuktian unsur kesalahan (mens rea) dalam hukum pidana.
“Dalam hukum pidana klasik, kesalahan menjadi dasar utama pertanggungjawaban. Namun kecerdasan artifisial tidak memiliki niat atau kesadaran moral, sehingga konsep mens rea menjadi tidak relevan jika diterapkan secara konvensional,” jelas Dwi.
Tenaga Ahli DPR ini juga mengungkapkan bahwa kompleksitas semakin meningkat ketika kecerdasan artifisial digunakan dalam skala global. Karakter kecerdasan artifisial yang borderless membuat tindak pidana dapat melibatkan banyak yurisdiksi sekaligus. Server bisa berada di satu negara, pengembang di negara lain, pengguna di wilayah berbeda, dan korban tersebar lintas batas. Kondisi ini menimbulkan konflik yurisdiksi, overlapping authority, hingga hambatan dalam proses ekstradisi dan pengumpulan alat bukti digital lintas negara.
“Prinsip yurisdiksi klasik seperti teritorialitas atau nasionalitas tidak lagi memadai menghadapi kejahatan berbasis kecerdasan artifisial yang lintas batas dan berjalan tanpa keterlibatan manusia secara langsung,” tegas Dwi
Peneliti Spektrum Demokrasi Indonesia ini menuturkan, hukum Indonesia saat ini masih menempatkan kecerdasan artifisial sebagai objek semata, sebagaimana tercermin dalam berbagai regulasi seperti Undang-Undang Informasi dan Transaksi Elektronik, Undang-Undang Perlindungan Data Pribadi, hingga KUHP terbaru. Ketiadaan pengaturan khusus mengenai kecerdasan artifisial menyebabkan tidak adanya mekanisme atribusi tanggung jawab yang jelas ketika kecerdasan artifisial menimbulkan kerugian. Kondisi ini berpotensi menciptakan ketidakpastian hukum dan bahkan membuka ruang impunitas.
“Indonesia membutuhkan konstruksi hukum baru yang mampu menjawab realitas kecerdasan artifisial modern, agar tidak terjadi kekosongan hukum yang merugikan masyarakat dan melemahkan penegakan hukum,” kata Dwi.
Sebagai solusi, Dwi menawarkan pendekatan progresif melalui model pertanggungjawaban hybrid liability. Model ini menggabungkan dua pendekatan utama, yakni fault-based liability dan strict liability. Dalam skema ini, developer dan pengguna tetap dimintai pertanggungjawaban berdasarkan kesalahan, baik disengaja maupun karena kelalaian. Sementara itu, korporasi sebagai pengendali dan penerima manfaat dikenakan tanggung jawab mutlak tanpa harus dibuktikan kesalahannya.
Dwi juga mengusulkan agar hukum tidak lagi memandang kecerdasan artifisial secara seragam. Dalam penelitiannya, kecerdasan artifisial diklasifikasikan berdasarkan tingkat risiko, mulai dari risiko rendah, menengah, tinggi hingga risiko ekstrem. Pendekatan berbasis risiko ini dinilai lebih proporsional dalam menentukan bentuk pertanggungjawaban hukum.
"Kecerdasan artifisial dengan risiko tinggi dan ekstrem, harus tunduk pada pengawasan ketat, termasuk audit algoritma, transparansi sistem, serta kewajiban asuransi," papar Dwi.
Sekretaris Jenderal Persatuan Robotika Seluruh Indonesia (PRSI) ini menawarkan konstruksi hukum baru yang menempatkan kecerdasan artifisial sebagai subjek hukum parsial, bukan dalam arti subjek hukum penuh seperti manusia atau korporasi. Pemberian status subjek hukum penuh kepada kecerdasan artifisial dinilai masih terlalu prematur. Model subjek hukum parsial dinilai lebih realistis karena tetap menempatkan manusia sebagai pihak yang bertanggung jawab, dengan pendekatan analogi “in loco parentis”, di mana manusia bertindak sebagai wali atas tindakan kecerdasan artifisial. Dengan begitu memungkinkan adanya atribusi tanggung jawab secara proporsional antara pengembang, pengguna, dan korporasi sebagai pengendali.
“Pengakuan kecerdasan artifisial sebagai subjek hukum terbatas bukan untuk menyamakan kecerdasan artifisial dengan manusia. Tetapi untuk menciptakan mekanisme tanggung jawab yang lebih adil, proporsional, dan adaptif terhadap perkembangan teknologi,” pungkas Dwi.
Keyword : Kekosongan hukum Kejahatan berbasis AI Dwi Nugroho