SEBUAH HARMONI KONSEP KEADILAN DENGAN KECERDASAN BUATAN

Muhammad Azmi Khoirurrijal

(Mahasiswa Doktor Ilmu Hukum, Universitas 17 Agustus 1945 Surabaya)

Banyak inovasi yang telah dihasilkan oleh kemajuan teknologi di era digital saat ini telah mengubah cara hidup manusia dan mempengaruhi aspek penting masyarakat, seperti hukum. Salah satu kemajuan yang terus berkembang adalah kecerdasan buatan (AI). Meskipun demikian, muncul pertanyaan mendasar mengenai kemampuan AI yang mungkin dapat berpengaruh pada konsep keadilan. Bila dianalisis mengenai pengaruh AI dalam kehidupan dalam masyarakat tentu dapat dipastikan sangat berpengaruh, namun perlu diingat bahwa ada nilai-nilai dalam masyarakat yang secara filosofis telah hidup dan berkembang sehingga telah menjadi bagian hidup dari masyarakat itu sendiri yang sulit untuk mengubah tatanannya.

Dalam perkembangannya, berbagai negara telah memasukkan kecerdasan buatan ke dalam sistem hukum mereka. Misalnya, algoritma seperti COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) [1] digunakan oleh Kecerdasan Buatan (AI) untuk membantu proses penilaian risiko di sistem peradilan pidana di Amerika Serikat. Di tempat lain, AI juga digunakan untuk menganalisis dokumen hukum, memprediksi hasil litigasi, dan bahkan membantu advokat menyusun argumen hukum mereka. [2] Namun, beberapa pertanyaan filosofis dan etis muncul terkait penggunaan AI dalam sistem hukum ini. Apakah hasil dari Algoritma kecerdasan buatan sepenuhnya dapat dianggap objektif? Apakah kode program dapat mengimplementasikan keadilan manusia? Apakah AI hanya akan meniru bias yang ada di masyarakat?

Bila melihat sejarahnya, sejak zaman Yunani Kuno, filsuf telah berbicara tentang konsep keadilan. Sebagai contoh, Aristoteles mendefinisikan keadilan sebagai memberikan apa yang menjadi hak seseorang berdasarkan hukum dan moralitas [3]. Keadilan sering didefinisikan sebagai menjaga persamaan, kebebasan, dan hak individu. Dari pandangan Aristoteles, keadilan tidak dibentuk dengan rangkaian sistem pemrograman, namun keadilan muncul secara alamiah dari hati nurani manusia. Hati nurani adalah suatu proses kognitif yang menghasilkan perasaan dan pengaitan secara rasional berdasarkan pandangan moral atau sistem nilai seseorang. Hati nurani ini yang sebenarnya berperan sebagai norma untuk menilai suatu tindakan, apakah tindakan itu baik atau buruk. Hal ini akan mempengaruhi bagaimana seseorang akan memutuskan sesuatu dengan tetap mengedepankan konsep dari keadilan.

Sebaliknya, kecerdasan buatan (AI) bergantung pada algoritma dan data yang dibuat oleh manusia. Mesin ini tidak tahu nilai-nilai yang ada pada manusia seperti empati, belas kasih, atau moralitas, yang sering menjadi bagian penting dari pengambilan keputusan hukum. Oleh karena itu, Apakah konsep keadilan masih relevan jika hanya berdasarkan data yang diolah oleh AI? Pertanyaan ini semakin penting ketika data yang digunakan untuk melatih algoritma bias, menunjukkan ketidaksetaraan sosial. Sebagai contoh, AI akan menunjukkan diskriminasi rasial atau gender dalam data historis, bahkan jika sistem secara teknis menganggapnya “benar”. Hal ini menunjukkan bahwa tidak hanya mengandalkan akurasi algoritma, tetapi juga memastikan bahwa data dan model yang digunakan transparan dan seimbang. Kecerdasan Buatan (AI) memiliki kemampuan untuk meningkatkan ketidakadilan yang sudah ada tanpa pengawasan dan intervensi manusia. Ini dapat mengubah peran hukum dari alat untuk mencari keadilan menjadi alat untuk memantapkan ketidakadilan.

Risiko bias yang terkandung dalam data pelatihan yang digunakan oleh algoritma merupakan hambatan terbesar dalam penerapan Kecerdasan Buatan (AI) di bidang hukum. Data sering menunjukkan ketidaksetaraan sosial, budaya, dan ekonomi yang sudah ada di masyarakat. Jika algoritma dilatih dengan data yang tidak seimbang atau memiliki pola diskriminatif, keputusan yang dibuat cenderung memperkuat bias tersebut. Penggunaan algoritma COMPAS, yang digunakan di sistem peradilan pidana Amerika Serikat, adalah contoh nyata. Menurut penelitian, algoritma ini mungkin memberikan penilaian risiko yang lebih tinggi kepada terdakwa dari kelompok minoritas [4]. Namun, tidak ada bukti statistik yang mendukung penilaian risiko ini secara konsisten. Hal ini menunjukkan bahwa algoritma tidak hanya memperbaiki bias saat ini, tetapi juga dapat memperburuk ketidakadilan struktural dalam sistem hukum. Tidak hanya sistem peradilan pidana yang mengalami masalah bias. Dalam hukum perdata, misalnya, AI yang digunakan untuk analisis kontrak atau penyelesaian sengketa dapat memberikan hasil yang tidak adil jika algoritmanya tidak dirancang dengan mempertimbangkan berbagai faktor sosial dan budaya.

Namun, tidak selamanya kemajuan teknologi memberikan dampak yang negatif, dilihat dari sisi positif ada kemungkinan besar bahwa AI dapat meningkatkan kinerja sistem hukum. Algoritma Kecerdasan Buatan (AI) dapat menyelesaikan analisis dokumen hukum yang biasanya memakan waktu berjam-jam dalam hitungan menit. Selain itu, teknologi ini dapat membantu hakim dan pengacara menemukan preseden atau pola yang relevan dengan cepat. Tetapi kemudahan yang ditawarkan oleh Algoritma Kecerdasan Buatan (AI) jangan sampai membuat kita lengah dan membiarkan Algoritma Kecerdasan Buatan (AI) mempengaruhi nilai-nilai yang fundamental dalam kehidupan masyarakat. Prinsip-prinsip dasar keadilan tidak boleh dikorbankan karena efektivitas ini. Sebagai contoh, sangat penting untuk memastikan bahwa, dalam kasus di mana Kecerdasan Buatan (AI) digunakan untuk memutuskan hukuman, faktor-faktor kemanusiaan yang tidak dapat diukur oleh algoritma termasuk latar belakang terdakwa dan kondisi khusus kasus.

Sangat dimungkinkan bahwa Kecerdasan Buatan (AI) dapat mengubah sistem hukum yang sudah berlaku, tetapi tidak boleh menggantikan peran manusia dalam proses pengambilan keputusan hukum. AI hanya dapat membantu hakim, advokat, dan pembuat kebijakan dalam mencari referensi atau pertimbangan hukum. Meskipun demikian, manusia adalah satu-satunya pihak yang dapat membuat keputusan akhir, karena mereka memiliki kapasitas untuk mempertimbangkan prinsip-prinsip moral dan etika yang kompleks di dalam masyarakat.

Perkembangan teknologi memang tidak bisa kita hindari, namun dapat kita imbangi dengan pembuatan suatu regulasi yang ketat oleh Pemerintah yang juga diperlukan untuk memastikan bahwa Kecerdasan Buatan (AI) digunakan secara adil dan transparan dalam sistem hukum. Regulasi ini termasuk audit independen terhadap algoritma yang digunakan, batasan dan pengawasan terhadap penggunaan data pribadi, pelatihan yang memadai untuk pengguna AI, dan pengawasan yang ketat terhadap efek sosial yang dihasilkan oleh penggunaan AI.

Meskipun kecerdasan buatan dibuat dengan teknologi yang canggih, sebuah program yang sangat deatil dan kompleks, namun itu tidak dapat menggantikan konsep keadilan yang telah dibangun selama berabad-abad. Kecerdasan Buatan (AI) adalah alat untuk mewujudkan keadilan, bukan penggantinya. Oleh karena itu, penting untuk menggunakan teknologi ini dengan hati-hati dengan mempertimbangkan nilai-nilai kemanusiaan yang mendasari ide keadilan. Dengan pendekatan yang tepat, AI dapat menjadi mitra yang kuat untuk meningkatkan keadilan, kemudahan, dan efisiensi sistem hukum.

 Referensi

[1] J. Angwin, J. Larson, S. Mattu, and L. Kirchner, “Machine Bias,” ProPublica, May 2016. [Online]. Available: https://www.propublica.org.

[2] https://www.americanbar.org/groups/senior_lawyers/resources/voice-of-experience/2024-october/using-ai-for-predictive-analytics-in-litigation/

[3] Aristotle, Nicomachean Ethics, trans. W.D. Ross. Oxford: Oxford University Press, 2009.

[4] S. Barocas, M. Hardt, and A. Narayanan, Fairness and Machine Learning. New York: Cambridge University Press, 2019.

Leave a Reply

Your email address will not be published. Required fields are marked *

Social Media Auto Publish Powered By : XYZScripts.com