
Photo by Saúl Bucio on Unsplash
Kesalahan yang Dihasilkan AI dalam Dokumen Pengadilan Menyebabkan Masalah Hukum bagi Pengacara
Sebuah laporan yang dibagikan oleh Reuters kemarin menunjukkan bahwa halusinasi AI—kesalahan dan informasi buatan yang dibuat oleh model AI generatif—menimbulkan masalah hukum di pengadilan di Amerika Serikat.
Sedang terburu-buru? Berikut Fakta-Fakta Singkatnya!
- Morgan & Morgan mengirimkan email ke 1.000 pengacara memperingatkan tentang risiko AI.
- Kasus terbaru pengacara Walmart yang mengakui telah menggunakan AI untuk kasus mereka telah membangkitkan kekhawatiran di komunitas hukum.
- Penggunaan halusinasi chatbot dalam pernyataan di pengadilan telah menjadi isu yang kembali muncul dalam beberapa tahun terakhir.
Bulan ini, firma hukum Morgan & Morgan mengirimkan email peringatan kepada lebih dari 1.000 pengacara tentang risiko penggunaan chatbot dan kasus palsu yang dihasilkan oleh kecerdasan buatan.
Beberapa hari lalu, dua pengacara di Wyoming mengakui telah memasukkan kasus palsu yang dihasilkan oleh AI dalam berkas pengajuan kasus ke pengadilan dalam gugatan terhadap Walmart, dan seorang hakim federal mengancam akan memberi sanksi kepada mereka.
Pada Desember, profesor Stanford dan ahli desinformasi Jeff Hancock dituduh menggunakan AI untuk memalsukan kutipan deklarasi pengadilan sebagai bagian dari pernyataannya dalam membela hukum negara bagian tahun 2023 yang mengkriminalkan penggunaan deepfakes untuk mempengaruhi pemilihan umum.
Beberapa kasus seperti ini, sepanjang beberapa tahun terakhir, telah menimbulkan gesekan hukum dan menambah masalah bagi hakim dan pihak yang berperkara. Morgan & Morgan dan Walmart menolak untuk berkomentar mengenai masalah ini.
AI generatif telah membantu mengurangi waktu penelitian bagi pengacara, namun halusinasinya dapat menimbulkan biaya yang signifikan. Survei Thomson Reuters tahun lalu mengungkapkan bahwa 63% pengacara menggunakan AI untuk pekerjaan mereka dan 12% melakukannya secara rutin.
Tahun lalu, American Bar Association mengingatkan 400.000 anggotanya tentang aturan etika pengacara, yang mencakup pengacara yang mempertahankan semua informasi dalam pengajuan pengadilan mereka, dan mencatat bahwa ini termasuk informasi yang dihasilkan oleh AI, meskipun tidak disengaja—seperti dalam kasus Hancock.
“Ketika pengacara tertangkap menggunakan ChatGPT atau alat AI generatif lainnya untuk membuat sitasi tanpa memeriksanya, itu adalah ketidakberdayaan, murni dan sederhana,” kata Andrew Perlman, dekan sekolah hukum Universitas Suffolk kepada Reuters.
Beberapa hari lalu, BBC juga membagikan sebuah laporan yang memperingatkan tentang kutipan palsu yang dihasilkan oleh AI dan masalah dengan alat AI dalam jurnalisme.
Berikan komentar
Batal