Ένας ανώτερος δικηγόρος στην Αυστραλία ζήτησε συγγνώμη από έναν δικαστή για την υποβολή υποβολών σε μια υπόθεση δολοφονίας που περιελάμβανε ψεύτικα αποσπάσματα και ανύπαρκτες κρίσεις που δημιουργήθηκαν από την τεχνητή νοημοσύνη.
Η σφάλμα στο Ανώτατο Δικαστήριο της Βικτώριας είναι ένα άλλο σε μια λιτανεία των ατυχημάτων AI έχει προκαλέσει στα συστήματα δικαιοσύνης σε όλο τον κόσμο.
Ο δικηγόρος υπεράσπισης Rishi Nathwani, ο οποίος κατέχει τον αριστοκρατικό νομικό τίτλο του δικηγόρου του βασιλιά, ανέλαβε την “πλήρη ευθύνη” για την κατάθεση λανθασμένων πληροφοριών σε υποβολές σε περίπτωση έφηβου που κατηγορείται για δολοφονία, σύμφωνα με δικαστικά έγγραφα που είδε η Associated Press την Παρασκευή.
“Είμαστε βαθιά λυπημένοι και αμήχανοι για αυτό που συνέβη”, δήλωσε ο Nathwani στον James James Elliott την Τετάρτη, εξ ονόματος της ομάδας άμυνας.
Τα σφάλματα που δημιουργήθηκαν από την AI προκάλεσαν 24ωρη καθυστέρηση στην επίλυση μιας υπόθεσης που η Elliott ήλπιζε να ολοκληρώσει την Τετάρτη. Ο Elliott αποφάνθηκε την Πέμπτη ότι ο πελάτης του Nathwani, ο οποίος δεν μπορεί να ταυτιστεί επειδή είναι ανήλικος, δεν ήταν ένοχος δολοφονίας λόγω ψυχικής βλάβης.
“Με τον κίνδυνο υποτιμήσεων, ο τρόπος με τον οποίο τα γεγονότα αυτά έχουν ξεδιπλωθεί δεν είναι ικανοποιητικά”, δήλωσε ο Elliott στους δικηγόρους την Πέμπτη.
“Η ικανότητα του δικαστηρίου να βασιστεί στην ακρίβεια των υποβολών που έγιναν από τον σύμβουλο είναι θεμελιώδης για τη δέουσα διαχείριση της δικαιοσύνης”, πρόσθεσε ο Elliott.
Οι ψεύτικες υποβολές περιελάμβαναν κατασκευασμένα αποσπάσματα από ομιλία στο κρατικό νομοθετικό σώμα και ανύπαρκτες αναφορές υπόθεσης που υποτίθεται ότι από το Ανώτατο Δικαστήριο.
Τα σφάλματα ανακαλύφθηκαν από τους συνεργάτες της Elliott, οι οποίοι δεν μπορούσαν να βρουν τις υποθέσεις και ζήτησαν από τους δικηγόρους υπεράσπισης να παρέχουν αντίγραφα.
Οι δικηγόροι παραδέχτηκαν τις αναφορές “δεν υπάρχουν” και ότι η υποβολή περιείχε “πλασματικά αποσπάσματα”, λένε τα δικαστικά έγγραφα.
Οι δικηγόροι εξήγησαν ότι έλεγξαν ότι οι αρχικές αναφορές ήταν ακριβείς και λανθασμένα υποθέτουν ότι οι άλλοι θα ήταν επίσης σωστές.
Οι υποβολές στάλθηκαν επίσης στον εισαγγελέα Daniel Porceddu, ο οποίος δεν έλεγξε την ακρίβειά τους.
Ο δικαστής σημείωσε ότι το Ανώτατο Δικαστήριο δημοσίευσε τις κατευθυντήριες γραμμές πέρυσι για το πώς οι δικηγόροι χρησιμοποιούν το AI.
“Δεν είναι αποδεκτό η τεχνητή νοημοσύνη, εκτός εάν το προϊόν αυτής της χρήσης είναι ανεξάρτητα και διεξοδικά επαληθευμένο”, δήλωσε ο Elliott.
Τα έγγραφα του δικαστηρίου δεν προσδιορίζουν το γενετικό σύστημα τεχνητής νοημοσύνης που χρησιμοποιούν οι δικηγόροι.
Σε μια συγκρίσιμη υπόθεση στις Ηνωμένες Πολιτείες το 2023, ένας ομοσπονδιακός δικαστής επέβαλε πρόστιμα ύψους 5.000 δολαρίων σε δύο δικηγόρους και δικηγορικό γραφείο μετά την κατηγορία του Chatgpt για την υποβολή της φανταστικής νομικής έρευνας σε αξίωση για τραυματισμό αεροπορίας.
Ο δικαστής P. Kevin Castel δήλωσε ότι ενήργησαν με κακή πίστη. Αλλά πίστευε τη συγνώμη τους και τα διορθωτικά μέτρα που έλαβαν εξηγώντας γιατί οι σκληρότερες κυρώσεις δεν ήταν απαραίτητες για να εξασφαλίσουν ότι αυτοί ή άλλοι δεν θα αφήσουν και πάλι τα εργαλεία τεχνητής νοημοσύνης να τους ζητήσουν να παράγουν ψεύτικο νομικό ιστορικό στα επιχειρήματά τους.
Αργότερα εκείνο το έτος, οι πιο πλασματικές δικαστικές αποφάσεις που εφευρέθηκαν από την AI αναφέρθηκαν σε νομικά έγγραφα που κατατέθηκαν από δικηγόρους για τον Michael Cohen, πρώην προσωπικό δικηγόρο για τον Πρόεδρο των ΗΠΑ Donald Trump. Ο Cohen πήρε την ευθύνη, λέγοντας ότι δεν συνειδητοποίησε ότι το εργαλείο Google που χρησιμοποιούσε για νομική έρευνα ήταν επίσης ικανή για τις λεγόμενες ψευδαισθήσεις AI.
Η Βρετανική Δικαιοσύνη της Βικτώριας Victoria Sharp προειδοποίησε τον Ιούνιο ότι η παροχή ψευδούς υλικού σαν να ήταν γνήσιος θα μπορούσε να θεωρηθεί περιφρόνηση του δικαστηρίου ή, στις «πιο έντονες υποθέσεις», διαστρεβλώνοντας την πορεία της δικαιοσύνης, η οποία φέρει μια μέγιστη ποινή ζωής στη φυλακή.
-Rod McGuirk, Associated Press