กรณีทนายความใช้ AI อ้างอิงคดีความที่ไม่มีอยู่จริงจนถูกลงโทษ ได้กลายเป็นประเด็นร้อนที่แพร่หลายในช่วงไม่กี่ปีมานี้ โดยเฉพาะคดีดังในปี 2023 ที่ทนายความในคดี Robert Mata v. Avianca, Inc. ใช้ ChatGPT ช่วยจัดทำเอกสารและพบว่าเต็มไปด้วยคดีปลอม แม้แชตบอตจะยืนยันว่าข้อมูลนั้นเป็นจริงก็ตาม
จากเหตุการณ์ดังกล่าว แทนที่จะเป็นข้อยกเว้น การอ้างอิงคดีจากแชตบอต AI โดยปราศจากการตรวจสอบกำลังกลายเป็นเรื่องปกติ รายงานจากนักวิจัยของ HEC Paris ระบุว่ามีทนายความกว่า 1,200 รายทั่วโลกที่ประสบปัญหาในลักษณะเดียวกันนี้ และ 800 รายมาจากศาลในสหรัฐอเมริกาเพียงแห่งเดียว
ผลจากความผิดพลาดเหล่านี้ไม่ใช่แค่การถูกประณาม บทลงโทษที่ทนายความได้รับมีความรุนแรงมากขึ้นเรื่อยๆ ตั้งแต่ค่าปรับจำนวนหลายพันดอลลาร์ ไปจนถึงบางกรณีที่ยอดปรับสูงกว่า 100,000 ดอลลาร์ และศาลหลายแห่งเริ่มบังคับให้มีการประกาศแจ้งล่วงหน้าหากจะใช้ AI ในการดำเนินการทางกฎหมายใดๆ
ยังไม่มีข้อสรุปแน่ชัดว่าการที่ทนายความในสหรัฐฯ นิยมใช้ LLM เป็นเพราะปริมาณงานคดีที่มหาศาลซึ่งต้องใช้เวลาค้นคว้าในระบบกฎหมาย Common Law หรือไม่ แต่ปฏิเสธไม่ได้ว่ามีทนายความจำนวนมากกำลังเลือกใช้ ‘ทางลัด’ ที่ไม่พึงประสงค์
แม้จะดูเป็นเรื่องไกลตัว แต่สถานการณ์นี้ย้ำเตือนถึงความเสี่ยงที่อาจเกิดขึ้นกับคดีความสำคัญของตัวคุณเองในอนาคต หากทนายความเลือกใช้เครื่องมือที่ไม่น่าเชื่อถือเหล่านี้
🏷️ หมวดหมู่: Artificial Intelligence, News, ai, chatbot, large language model, lawyer
🔗 อ่านบทความฉบับเต็ม: hackaday
