Muhammad Akmal N. SH., MH (NIM : 1332300050)
Mahasiswa Doktoral Universitas 17 Agustus 1945 Surabaya
Mempelajari mengenai Kecerdasan buatan (AI) yang semakin banyak digunakan oleh instansi pemerintah untuk mendukung berbagai aspek, termasuk penegakan hukum. Namun, penerapan AI dalam perkembangan ilmu hukum di Indonesia memiliki sejumlah kelemahan yang perlu dikritisi berdasarkan landasan filosofis yang meliputi dimensi ontologis, epistemologis, dan aksiologis. Berdasarkan Landasan ontologis berhubungan dengan sifat dasar hukum dan AI itu sendiri. Secara ontologis, hukum di Indonesia tidak hanya bersifat normatif, tetapi juga mencerminkan nilai-nilai sosial, budaya, dan moral masyarakat.
Kelemahan AI, Pertama adalah Reduksi Kompleksitas Hukum, di mana AI bekerja berdasarkan algoritma dan data, sehingga sulit memahami konteks moral, nilai budaya, dan asas keadilan yang bersifat dinamis dan situasional dalam hukum Indonesia. Tentu akan terjadi Ketergantungan pada Data, di mana AI hanya sebaik data yang dimasukkan. Jika data pelatihan hukum bias atau tidak mencerminkan keberagaman sosial-budaya Indonesia, hasilnya akan memperkuat bias tersebut. Misalnya, kasus hukum adat yang tidak terdokumentasi dengan baik sulit diolah oleh AI. Karena Kecerdasan Buatan Tidak Mampu Menangkap Aspek Non-Tertulis, Banyak aspek hukum adat dan asas-asas kebijaksanaan lokal (local wisdom) di Indonesia yang tidak terformalisasi dalam data hukum tertulis, sehingga tidak dapat diproses oleh AI.
Sedangkan di lihat dari Landasan Epistemologis dalam hukum mengacu pada bagaimana pengetahuan hukum dihasilkan, dianalisis, dan diterapkan. Proses ini sering kali melibatkan penafsiran yang kontekstual dan subjektif. Di mana Kelemahan AI ini memiliki Keterbatasan Penafsiran Kontekstual, karena AI tidak memiliki kemampuan memahami konteks sosial atau filosofi Pancasila, yang menjadi dasar hukum di Indonesia. Hasil analisis AI cenderung mekanistik dan kurang sensitif terhadap faktor sosial dan budaya. Kecerdasan Buatan memiliki Sifat Algoritma Sebagai Penentu hasil dalam Proses pengambilan keputusan AI sering kali tidak transparan. Ini menimbulkan kesulitan dalam memahami dasar keputusan yang dibuat, sehingga mengurangi akuntabilitas, terutama dalam bidang hukum. Tak jarang terjadi Kesalahan dalam Generalisasi, di mana Sistem AI sulit memahami pengecualian hukum atau kaidah hukum yang bersifat kontekstual, seperti asas diskresi dalam hukum administrasi.
Jika dilihat dari Landasan Aksiologis hukum berhubungan dengan tujuan hukum, yaitu keadilan, kemanfaatan, dan kepastian hukum. Di mana Kelemahan kecerdasan buatan ini memiliki Potensi Diskriminasi dan Ketidakadilan, Jika Kecerdasan buatan atau AI dilatih menggunakan data yang bias, teknologi ini dapat memperkuat ketidakadilan. Contohnya, diskriminasi berbasis gender, ras, atau kelompok minoritas yang mungkin tidak disadari oleh pembuat data awal. Jika Kecerdasan buatan di jadikan penentu dalam proses hukum maka akan Kehilangan Dimensi Kemanusiaan, Keputusan hukum tidak hanya memerlukan legalitas, tetapi juga empati dan kebijaksanaan. AI, sebagai alat yang bekerja secara mekanistik, tidak mampu mempertimbangkan aspek kemanusiaan dalam proses pengambilan keputusan. Akan muncul Kesenjangan Digital, karena Tidak semua wilayah dan institusi di Indonesia memiliki akses yang sama terhadap teknologi AI. Hal ini dapat memperbesar ketimpangan keadilan hukum, terutama di daerah-daerah terpencil. Terutama di Indonesia, masih memiliki Infrastruktur Teknologi yang Terbatas. Di mana Penerapan AI memerlukan infrastruktur yang memadai, sementara banyak instansi pemerintah di Indonesia masih memiliki keterbatasan teknologi. Apa lagi dalam penerapan Kecerdasan buatan atau AI memerlukan Sumber daya Manusia yang baik dan Kekurangan Sumber Daya Manusia (SDM) menjadi kendala karena masih Banyak aparat hukum yang belum memiliki pemahaman teknis terkait AI, sehingga terjadi ketergantungan terhadap pihak ketiga. Maka di perlukan aturan atau regulasi dalam penerapannya, saat ini masih Kurangnya Regulasi tentang AI dalam Hukum. Di mana Belum adanya peraturan yang komprehensif mengenai penggunaan AI dalam bidang hukum membuka celah untuk penyalahgunaan dan keputusan hukum yang tidak adil.
Berdasarkan Landasan Filosofis Hukum Indonesia Penggunaan teknologi, termasuk kecerdasan buatan atau AI, dalam hukum harus sesuai dengan falsafah Pancasila dan nilai-nilai yang terkandung dalam sistem hukum Indonesia. Di mana harus Humanisme, karena Penegakan hukum harus menjunjung tinggi nilai-nilai kemanusiaan, yang tidak dapat sepenuhnya diwakili oleh algoritma AI juga harus mengedepankan Kontekstualitas Hukum, Sistem hukum Indonesia bersifat pluralistik, mencakup hukum nasional, adat, dan agama. AI cenderung gagal mengintegrasikan pluralisme hukum ini secara adil. Haruslah memegang teguh Prinsip Keadilan Sosial, di mana Teknologi harus digunakan untuk mempersempit, bukan memperbesar, kesenjangan akses terhadap keadilan di masyarakat.
Kelemahan teknologi kecerdasan buatan (AI) dalam perkembangan ilmu hukum di Indonesia terletak pada keterbatasannya menangkap kompleksitas moral, budaya, dan nilai keadilan. Secara ontologis, AI tidak dapat memahami esensi hukum yang dinamis; secara epistemologis, AI lemah dalam interpretasi kontekstual; dan secara aksiologis, AI cenderung mengurangi dimensi kemanusiaan hukum. Oleh karena itu, penerapan AI dalam hukum harus dilakukan secara hati-hati, dengan menjadikannya alat bantu, bukan pengganti, agar tetap selaras dengan falsafah hukum Indonesia yang berakar pada Pancasila, nilai-nilai kebhinekaan, dan keadilan sosial.