Wed. Apr 23rd, 2025

Τα εργαλεία τεχνητής νοημοσύνης κάνουν κύματα σε όλο τον νομικό τομέα. Ειδικότερα, το ChatGPT είναι όλη η διαφημιστική εκστρατεία, με τις συζητήσεις για τον πιθανό ρόλο του στις αίθουσες δικαστηρίων: από τη βοήθεια των δικαστών στη σύνταξη γνωμοδοτήσεων, έως τους δικηγόρους που βασίζονται σε επιχειρήματα που δημιουργούνται από την τεχνητή νοημοσύνη , ακόμη και τα μέρη που υποβάλλουν αποδεικτικά στοιχεία που παράγονται από το ChatGPT . Όπως υποδηλώνει μια αναφορά στο Verfassungsblog , ο «κριτής ρομπότ» είναι ήδη εδώ, με τους Κολομβιανούς δικαστές να χρησιμοποιούν το ChatGPT για να συντάξουν πλήρεις ετυμηγορίες. Στο Ηνωμένο Βασίλειο, ο δικαστής εφέσεων Λόρδος Justice Birss περιέγραψε το ChatGPT ως « ευχαρίστως χρήσιμο » για την παροχή περιλήψεων ενός τομέα δικαίου. Εν τω μεταξύ, στην Κίνα , η τεχνητή νοημοσύνη αγκαλιάζεται στις δικαστικές αίθουσες, με το σύστημα «Little Sage» (小智) να χειρίζεται ολόκληρες διαδικασίες μικροδιαφορών.

Στην Ολλανδία, το ChatGPT έκανε τη δικαστική του είσοδο όταν ένας δικαστής κατώτερου δικαστηρίου προκάλεσε διαμάχη βασιζόμενος σε πληροφορίες που παρείχε το chatbot σε μια διαμάχη γειτόνων για ηλιακούς συλλέκτες. Το περιστατικό πυροδότησε σημαντική συζήτηση μεταξύ Ολλανδών δικηγόρων σχετικά με τον αντίκτυπο της τεχνητής νοημοσύνης στα δικαιώματα των διαδίκων, συμπεριλαμβανομένου του δικαιώματος ακρόασης και της αυτονομίας των κομμάτων. Ωστόσο, πολλές άλλες κρίσεις έχουν επίσης αναφέρει ή συζητήσει το ChatGPT.

Σε αυτήν την ανάρτηση ιστολογίου, θα εξετάσω και τις έξι δημοσιευμένες ολλανδικές ετυμηγορίες που αναφέρονται στη χρήση του ChatGPT -είτε από τον δικαστή είτε από τους διαδίκους- και να διερευνήσω εάν υπάρχει κοινό έδαφος στον τρόπο προσέγγισης της τεχνητής νοημοσύνης. Θα σκιαγραφήσω επίσης το νομοθετικό πλαίσιο της ΕΕ σχετικά με τη χρήση της τεχνητής νοημοσύνης στα δικαστήρια και θα εξετάσω τις επιπτώσεις αυτών των μισών αποφάσεων στις τρέχουσες προσπάθειες της ολλανδικής δικαιοσύνης να ρυθμίσει τη χρήση της τεχνητής νοημοσύνης.

ChatGPT στο δικαστήριο: Υποσχέσεις και παγίδες

Προτού εμβαθύνουμε στις συγκεκριμένες αποφάσεις, είναι χρήσιμο να κατανοήσουμε γιατί το ChatGPT τραβάει τόσο μεγάλη προσοχή στο δικαστήριο.

Οι νομικές εφαρμογές της τεχνητής νοημοσύνης δεν είναι καινούριες . Για δεκαετίες, ο τομέας της τεχνητής νοημοσύνης και του δικαίου έχει ερευνήσει τις δυνατότητες των λεγόμενων « ειδικών συστημάτων », με βάση λογικά μοντέλα που αντιπροσωπεύουν την ανθρώπινη νομική λογική, να αντικαταστήσουν ορισμένα στοιχεία της νομικής λήψης αποφάσεων. Επί του παρόντος, τέτοια συστήματα αναπτύσσονται σε μεγάλη κλίμακα, για παράδειγμα, στην κοινωνική ασφάλιση και τη φορολογική διοίκηση. Ωστόσο, πιο πρόσφατα, η προσέγγιση βάσει δεδομένων για τη νόμιμη τεχνητή νοημοσύνη έχει προκαλέσει επανάσταση. Συνδυάζοντας μεγάλα σύνολα δεδομένων (Big Data) με τεχνικές μηχανικής μάθησης, τα συστήματα AI μπορούν να μάθουν από στατιστικές συσχετίσεις για να κάνουν προβλέψεις. Αυτό τους δίνει τη δυνατότητα να προβλέψουν τον κίνδυνο υποτροπής ή να χρησιμοποιήσουν την προηγούμενη νομολογία για να προβλέψουν τα αποτελέσματα σε νέες υποθέσεις .

Τα μεγάλα γλωσσικά μοντέλα (LLMs) όπως το ChatGPT ακολουθούν παρόμοιες αρχές , εκπαίδευση σε μαζικά σύνολα δεδομένων κειμένου που έχουν εγγραφεί στο διαδίκτυο και αναπτύσσουν μηχανική εκμάθηση και επεξεργασία φυσικής γλώσσας για να προβλέψουν, ουσιαστικά, την πιο πιθανή επόμενη λέξη σε μια πρόταση. Το ChatGPT μπορεί να δημιουργήσει άμεσα απαντήσεις σε σύνθετες ερωτήσεις, προσχέδια εγγράφων και να συνοψίσει τεράστιες ποσότητες νομικού κειμένου. Ως αξιοσημείωτο υποπροϊόν, μπορεί να φαίνεται ότι αποδίδει αρκετά καλά σε νομικά καθήκοντα, όπως η ερευνητική βοήθεια, και έχει ακόμη αποδειχθεί ότι είναι ικανό να περάσει τις εξετάσεις για το αμερικανικό δίκαιο του πρώτου έτους .

Ωστόσο, αυτές οι πιθανότητες ενέχουν κινδύνους. Το ChatGPT μπορεί να παράγει ανακριβείς απαντήσεις (τις λεγόμενες «παραισθήσεις») και δεν έχει πρόσβαση σε πραγματικό χρόνο σε ιδιωτικές νομικές βάσεις δεδομένων. Έρευνα των Dahl et al. έδειξε ότι το ChatGPT-4 δημιούργησε εσφαλμένες νομικές πληροφορίες ή πηγές στο 43% των απαντήσεών του. Σε ένα περιβόητο πλέον περιστατικό, ένας δικηγόρος της Νέας Υόρκης αποδοκιμάστηκε αφού το ChatGPT ανέφερε ανύπαρκτη νομολογία. Επιπλέον, η τεχνολογία μοιάζει με μαύρο κουτί : λόγω της πολύπλοκης φύσης των νευρωνικών δικτύων και της τεράστιας κλίμακας δεδομένων εκπαίδευσης, είναι συχνά δύσκολο -αν όχι αδύνατο- να ανιχνευθεί πώς παράγονται συγκεκριμένες εξόδους. Τέλος, η μεροληψία μπορεί να προκύψει από ελλιπή ή επιλεκτικά δεδομένα εκπαίδευσης, οδηγώντας σε στερεότυπα ή προκατειλημμένα αποτελέσματα . Η υπερβολική ή υποεκπροσώπηση στα δεδομένα εισόδου επηρεάζει τα αποτελέσματα του συστήματος ( σκουπίδια μέσα, σκουπίδια έξω ).

Παρά αυτές τις σημαντικές επιφυλάξεις, οι ακόλουθες ολλανδικές κρίσεις δείχνουν πώς η τεχνητή νοημοσύνη εμφανίζεται όλο και περισσότερο στις αίθουσες των δικαστηρίων, διαμορφώνοντας ενδεχομένως τον δικαστικό λόγο και την πρακτική. Αρχικά, συζητείται η χρήση του ChatGPT από δικαστή και ακολουθούν οι περιπτώσεις στις οποίες οι διάδικοι χρησιμοποίησαν το chatbot.

ChatGPT σε δράση: Από τον πάγκο στο μπαρ

Α. Υποθέσεις δικαστικής χρήσης

1. Δικαστήριο Gelderland ( ECLI:NL:RBGEL:2024:3636 )

Σε αυτή τη διαμάχη γειτόνων για την κατασκευή ταράτσας και τη μειωμένη απόδοση από ηλιακούς συλλέκτες, το δικαστήριο στο Gelderland χρησιμοποίησε τις εκτιμήσεις του chatbot για να υπολογίσει κατά προσέγγιση τις ζημιές. Πραγματοποιήθηκε:

«Το περιφερειακό δικαστήριο, με τη βοήθεια της ChatGPT, εκτιμά τη μέση διάρκεια ζωής των ηλιακών συλλεκτών που εγκαταστάθηκαν το 2009 σε 25 έως 30 χρόνια· επομένως, ορίζει τη διάρκεια ζωής εδώ στα 27,5 χρόνια… Γιατί δεν υιοθετεί το ποσό των 13.963,20 € που προτείνει ο ενάγων στην κύρια αγωγή4 – επαρκώς επεξηγήθηκε στις υποσημειώσεις παραπάνω». (στο 5,7)

Ο δικαστής, βασιζόμενος και πάλι στο ChatGPT, έκρινε επίσης ότι το μονωτικό υλικό που πετάχτηκε από την οροφή δεν ήταν πλέον χρησιμοποιήσιμο, επιδικάζοντας έτσι ζημιές και έξοδα καθαρισμού. (στο 6,8)

Β. Υποθέσεις χρήσης διάδικων

2. Εφετείο της Χάγης ( ECLI:NL:GHDHA:2024:711 )

Σε αυτήν την αναιρετική φορολογική υπόθεση σχετικά με την επίσημη αποτίμηση ενός ξενοδοχείου, το Εφετείο της Χάγης εξέτασε επιχειρήματα που προέρχονται από το ChatGPT. Ο προσφεύγων είχε εισαγάγει κείμενο που δημιουργήθηκε από AI για να αμφισβητήσει την εκτιμώμενη αξία, αλλά το δικαστήριο έκρινε την αναφορά μη πειστική. Πραγματοποιήθηκε:

"Τα επιχειρήματα που προβλήθηκαν από το ενδιαφερόμενο μέρος που προέκυψαν από το ChatGPT δεν αλλάζουν [το] συμπέρασμα, ιδιαίτερα επειδή δεν είναι σαφές ποια προτροπή εισήχθη στο ChatGPT." (στο 5,5)

3. Εφετείο της Χάγης ( ECLI:NL:GHDHA:2024:1771 )

Σε μια φορολογική διαμάχη σχετικά με το τέλος ταξινόμησης (BPM) σε μια εισαγόμενη Ferrari, το Εφετείο της Χάγης απέρριψε την εξάρτηση του φορολογούμενου στο ChatGPT για τον εντοπισμό κατάλληλων συγκρίσιμων οχημάτων. Ο ενάγων είχε ζητήσει από την ChatGPT να καταγράψει οχήματα που μοιράζονταν παρόμοιο οικονομικό πλαίσιο και ανταγωνιστική θέση με την εν λόγω Ferrari, οδηγώντας σε μια επιλογή δέκα πολυτελών αυτοκινήτων. Το δικαστήριο απέρριψε ρητά αυτή την προσέγγιση, θεωρώντας ότι ενώ η τεχνητή νοημοσύνη μπορεί να ομαδοποιήσει οχήματα με βάση το γενικό οικονομικό πλαίσιο, αυτή η μέθοδος δεν αντικατοπτρίζει αυτό που ένας μέσος καταναλωτής (ένας άνθρωπος) θα θεωρούσε πραγματικά συγκρίσιμο. (στις 5.1.4)

4. Περιφερειακό Δικαστήριο της Χάγης ( ECLI:NL:RBDHA:2024:18167 )

Σε αυτή τη διαμάχη για το άσυλο, ο αιτών (υποτιθέμενος Μαροκινός ακτιβιστής Χιράκ) υποστήριξε ότι η επιστροφή του στο Μαρόκο θα τον εξέθετε σε δίωξη επειδή οι αρχές εκεί παρακολουθούν συστηματικά τους διαδηλωτές στο εξωτερικό. Ως απόδειξη αυτής της κρατικής επιτήρησης, ο δικηγόρος του ανέφερε μια απάντηση ChatGPT. Το δικαστήριο απέρριψε το επιχείρημα ως αβάσιμο:

"Το ότι ο εκπρόσωπος του ενάγοντα αναφέρεται στην ακρόαση σε μια απάντηση από το ChatGPT ως αποδεικτικό στοιχείο θεωρείται ανεπαρκές από το δικαστήριο. Πρώτον, επειδή ο ενάγων δεν έχει υποβάλει την ερώτηση που τέθηκε ούτε την απάντηση του ChatGPT. Επιπλέον, ο πληρεξούσιος παραδέχτηκε στην ακρόαση ότι το ChatGPT επίσης δεν παρείχε καμία αναφορά στην πηγή για την απάντηση στην ερώτηση που τέθηκε." (στις 10.1)

5. Περιφερειακό Δικαστήριο του Άμστερνταμ ( ECLI:NL:RBAMS:2025:326 )

Σε αυτήν την υπόθεση του ευρωπαϊκού εντάλματος σύλληψης, η υπεράσπιση υπέβαλε έκθεση στην πολωνική γλώσσα σχετικά με τις συνθήκες των φυλακών στο Tarnów, ελπίζοντας να αποδείξει συστημικές παραβιάσεις των ανθρωπίνων δικαιωμάτων. Ωστόσο, κατά την ακρόαση, ο δικηγόρος αναγνώρισε ότι χρησιμοποίησε το ChatGPT για τη μετάφραση της αναφοράς στα ολλανδικά και το δικαστήριο έκρινε ότι αυτό ήταν ανεπαρκές. Ελλείψει επίσημης μετάφρασης ή έκδοσης από τον ίδιο τον οργανισμό έκδοσης, το δικαστήριο έκρινε ότι δεν μπορούσε να επαληθεύσει τη γνησιότητα και την αξιοπιστία της μετάφρασης που δημιουργήθηκε από την τεχνητή νοημοσύνη. Ως αποτέλεσμα, τα αποδεικτικά στοιχεία που βασίζονται στο ChatGPT απορρίφθηκαν και δεν υποβλήθηκαν περαιτέρω ερωτήσεις στις πολωνικές αρχές σχετικά με τη φυλακή Tarnów. (στις 5)

6. Συμβούλιο της Επικρατείας ( ECLI:NL:RVS:2025:335 )
Σε μια διαφωνία σχετικά με αξίωση αποζημίωσης για μειωμένη αξία ιδιοκτησίας, ο ενάγων (Aleto) προσπάθησε να αποδείξει ότι η χρήση ορισμένων συγκρίσιμων ιδιοκτησιών από τον εμπειρογνώμονα ήταν εσφαλμένη και υπέβαλε καθυστερημένο υλικό που προέρχεται από το ChatGPT. Το Συμβούλιο της Επικρατείας αποφάσισε:

"Κατά τη διάρκεια της ακρόασης, ο Aleto εξήγησε ότι έλαβε αυτές τις πληροφορίες μέσω του ChatGPT. Ο Aleto δεν υπέβαλε το αίτημα. Επιπλέον, οι πληροφορίες που δημιουργήθηκαν από το ChatGPT δεν παρείχαν καμία αναφορά για την απάντηση που δόθηκε. Οι πληροφορίες αναφέρουν επίσης ότι, για ακριβή ανάλυση, θα ήταν σκόπιμο να συμβουλευτείτε έναν εκτιμητή με συγκεκριμένες γνώσεις για βιομηχανικές περιοχές στο βόρειο Limburg." (στο 9,2)

Διπλά πρότυπα: AI-Χρήση από το Δικαστήριο εναντίον των Διαδίκων

Πώς να κατανοήσετε αυτές τις αποφάσεις; Ας ξεκινήσουμε με την απόφαση στην οποία ο δικαστής χρησιμοποίησε το ChatGPT για να εκτιμήσει τις ζημιές, η οποία προκάλεσε μακράν τις περισσότερες συζητήσεις . Οι επικριτές της χρήσης ChatGPT στην υπόθεση αυτή υποστηρίζουν ότι ο δικαστής ουσιαστικά εισήγαγε στοιχεία που δεν είχαν συζητήσει οι διάδικοι, αντίθετα με τις θεμελιώδεις αρχές της κατ' αντιμωλία διαδικασίας, όπως το δικαίωμα ακρόασης ( audit et alteram partem ) και την απαίτηση σύμφωνα με το ολλανδικό αστικό δίκαιο να βασίζονται οι αποφάσεις μόνο σε γεγονότα που εισήγαγαν οι διάδικοι. Πολιτική Δικονομία).

Έγινε σύγκριση με την προηγούμενη νομολογία που αφορούσε δικαστές που έκαναν ανεξάρτητη αναζήτηση στο Διαδίκτυο (ο λεγόμενος « δικαστής του Google »). Ως κρίσιμο κριτήριο, το Ανώτατο Δικαστήριο της Ολλανδίας αποφάσισε ότι τα μέρη πρέπει, κατ' αρχήν, να έχουν την ευκαιρία να εκφράσουν τις απόψεις τους σχετικά με στοιχεία που προέρχονται από το Διαδίκτυο. Ωστόσο, άλλοι επικρίνουν λιγότερο τη χρήση ChatGPT από τον δικαστή, επισημαίνοντας ότι οι δικαστές έχουν μεγάλη διακριτική ευχέρεια στην εκτίμηση της αποζημίωσης σύμφωνα με το άρθρο 6:97 του Ολλανδικού Αστικού Κώδικα.

Εξετάζοντας πιο προσεκτικά τον τρόπο με τον οποίο ο δικαστής χρησιμοποίησε το ChatGPT σε αυτή την υπόθεση, παραμένει ασαφές εάν δόθηκε στα μέρη η ευκαιρία να αμφισβητήσουν τα αποτελέσματα που δημιουργήθηκαν από την τεχνητή νοημοσύνη. Ούτε η απόφαση προσδιορίζει ποιες προτροπές εισήχθησαν ή τις ακριβείς απαντήσεις που παρήγαγε το ChatGPT. Αυτό έρχεται σε πλήρη αντίθεση με τη χρήση του ChatGPT από τον Κολομβιανό δικαστή, που περιγράφεται στην ανάρτηση Verfassungsblog του Juan David Gutiérrez , όπου το δικαστήριο μετέγραψε πλήρως τις απαντήσεις του chatbot, που αποτελούν το 29% του κειμένου της απόφασης.

Επίσης έρχεται σε αντίθεση με τη δικαστική στάση απέναντι στις υποβολές ChatGPT των ίδιων των διαδίκων. Στην πραγματικότητα, τρεις λόγοι έχουν επικαλεστεί οι Ολλανδοί δικαστές για την απόρριψη των αποδεικτικών στοιχείων που δημιουργήθηκαν από το ChatGPT:

  1. Δεν είναι σαφές ποια προτροπή εισήχθη στο ChatGPT.

  2. Ο ενάγων δεν έχει παράσχει τις απαντήσεις του ChatGPT.

  3. Το κείμενο που δημιουργήθηκε από το ChatGPT δεν ανέφερε πηγές.

Σε άλλες περιπτώσεις, η χρήση του ChatGPT απορρίφθηκε επειδή οι απόψεις του ChatGPT θεωρήθηκαν ασύγκριτες με αυτές του μέσου καταναλωτή ή επειδή η μετάφραση κρίθηκε αναξιόπιστη.

Επιστρέφοντας στη χρήση του ChatGPT από τον Ολλανδό δικαστή, φαίνεται ότι πάσχει από τις ίδιες ελλείψεις που τα δικαστήρια εντόπισαν ως λόγους απόρριψης αποδεικτικών στοιχείων που βασίζονται στο ChatGPT όταν εισήχθησαν από τα μέρη. Τέτοια διπλά μέτρα και σταθμά, κατά την άποψή μου, υποδεικνύουν την επείγουσα ανάγκη ανάπτυξης συνεπών κατευθυντήριων γραμμών.

Αναδυόμενες κατευθυντήριες γραμμές για δικαστική χρήση AI;

Αν και νέα έγγραφα καθοδήγησης σχετικά με τη χρήση τεχνητής νοημοσύνης από δικαστές και δικηγόρους εμφανίζονται σε δικαιοδοσίες όπως η ΕΕ , το Ηνωμένο Βασίλειο , η Νέα Ζηλανδία και η Φλαμανδική Περιφέρεια , σπάνια ορίζουν ρητές απαιτήσεις για την εισαγωγή περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη σε νομικές διαδικασίες και αντ' αυτού δίνουν έμφαση σε γενικές αρχές, όπως η αναγνώριση των περιορισμών της τεχνητής νοημοσύνης. Αντίθετα, η ολλανδική νομολογία μέχρι στιγμής προτείνει τουλάχιστον τρία στοιχεία που θα μπορούσαν να διαμορφώσουν τις βέλτιστες πρακτικές: (1) διασφάλιση της αποκάλυψης της προτροπής, (2) απαίτηση κοινοποίησης των πλήρεις απαντήσεις του ChatGPT και (3) απαίτηση κατάλληλων παραπομπών.

Ενώ τέτοιες απαιτήσεις ευθυγραμμίζονται με ευρέως αναγνωρισμένες αρχές διαφάνειας και αξιοπιστίας, από μόνες τους μπορεί να μην αρκούν. Η ολλανδική αντίδραση στη χρήση της τεχνητής νοημοσύνης από τον δικαστή αντικατοπτρίζει τις βαθύτερες ανησυχίες σχετικά με τις εγγυήσεις δίκαιης δίκης και τη σημασία της ανθρώπινης επίβλεψης, που φέρνουν το θέμα στον τομέα συνταγματικής σημασίας . Κατά συνέπεια, όταν οι δικαστές χρησιμοποιούν LLM για να βοηθήσουν στη λήψη αποφάσεων, θα πρέπει να επαγρυπνούν ως προς τον αντίκτυπο στα δικαιώματα των μερών να ακουστούν, να υποβάλουν αποδεικτικά στοιχεία και να αμφισβητήσουν αποδεικτικά στοιχεία.

Επιπλέον, είναι σημαντικό να εξεταστεί ο τρόπος με τον οποίο εφαρμόζονται οι απαιτήσεις του νόμου της ΕΕ για την τεχνητή νοημοσύνη όταν χρησιμοποιούνται LLM όπως το ChatGPT από δικαστές και διαδίκους. Το παράρτημα III του νόμου περί τεχνητής νοημοσύνης χαρακτηρίζει ορισμένες δικαστικές εφαρμογές της τεχνητής νοημοσύνης ως «υψηλού κινδύνου», ενεργοποιώντας τις πιο αυστηρές υποχρεώσεις του νόμου περί τεχνητής νοημοσύνης, όπως η απαίτηση για τους προγραμματιστές να διενεργούν εκτίμηση επιπτώσεων στα θεμελιώδη δικαιώματα (άρθρο 27), καθώς και υποχρεώσεις σχετικά με τη διακυβέρνηση δεδομένων (άρθρο 10), (άρθρο 13). Αυτές οι υποχρεώσεις ισχύουν όσον αφορά:

«Συστήματα τεχνητής νοημοσύνης που προορίζονται να χρησιμοποιηθούν από δικαστική αρχή ή για λογαριασμό τους για να βοηθήσουν μια δικαστική αρχή στην έρευνα και ερμηνεία γεγονότων και του νόμου και στην εφαρμογή του νόμου σε συγκεκριμένο σύνολο γεγονότων ή για χρήση με παρόμοιο τρόπο στην εναλλακτική επίλυση διαφορών» ( Παράρτημα III(8)(α)).

Όπως σημειώνεται στην αντίστοιχη αιτιολογική σκέψη, αυτό το προσόν υψηλού κινδύνου χρησιμεύει για την «αντιμετώπιση των κινδύνων πιθανών μεροληψιών, σφαλμάτων και αδιαφάνειας» (Rec. 61).

Ωστόσο, η ταξινόμηση καθίσταται προβληματική για συστήματα AI που εξυπηρετούν περισσότερους από αυστηρά νόμιμους σκοπούς, όπως τα LLM. Τα LLM όπως το ChatGPT εμπίπτουν στην ομπρέλα συστημάτων AI γενικής χρήσης (GPAI) , που σημαίνει ότι είναι εξαιρετικά ικανά και ισχυρά μοντέλα που μπορούν να προσαρμοστούν σε μια ποικιλία εργασιών. Στην πράξη, το ίδιο LLM θα μπορούσε να χρησιμοποιηθεί για την αύξηση της αποτελεσματικότητας στις οργανωτικές διαδικασίες (κατ' αρχήν μια εφαρμογή χαμηλού κινδύνου), αλλά και για να βοηθήσει τις δικαστικές αρχές στην «έρευνα και ερμηνεία των γεγονότων και του νόμου». Επομένως, το αν μια δεδομένη περίπτωση χρήσης εμπίπτει στην κατηγορία «υψηλού κινδύνου» μπορεί να είναι μια λεπτή γραμμή, παρόλο που έχει μεγάλη σημασία για τις ισχύουσες υποχρεώσεις.

Επιπλέον, ακόμη και αν η χρήση τεχνητής νοημοσύνης στο δικαστήριο δεν πληροί τα κριτήρια ταξινόμησης υψηλού κινδύνου, εξακολουθούν να ισχύουν ορισμένες γενικές διατάξεις, όπως το άρθρο 4 για την παιδεία σε τεχνητή νοημοσύνη . Η συμπερίληψη κανόνων για συστήματα τεχνητής νοημοσύνης στον νόμο για την τεχνητή νοημοσύνη με δυνατότητα, μεταξύ άλλων, κειμένου (άρθρο 50 παράγραφος 2 νόμος περί τεχνητής νοημοσύνης) περιπλέκει περαιτέρω τα πράγματα επιβάλλοντας απαιτήσεις διαφάνειας σε μορφή αναγνώσιμη από μηχανή. Παραμένει απροσδιόριστος ο τρόπος με τον οποίο μπορεί να λειτουργήσει αυτή η υποχρέωση διαφάνειας, για παράδειγμα, σε ad hoc χρήση του ChatGPT από δικαστές και διαδίκους. Από την άποψη αυτή, η υποχρέωση διαφάνειας απευθύνεται κυρίως στους παρόχους, οι οποίοι πρέπει να εφαρμόσουν τεχνικές λύσεις, και όχι στους ίδιους τους χρήστες.

Τέλος, όσον αφορά το απόρρητο και την ασφάλεια των δεδομένων, ο νόμος για την τεχνητή νοημοσύνη της ΕΕ αναφέρεται απλώς στο γενικό πλαίσιο που ορίζεται από τον Γενικό Κανονισμό για την Προστασία Δεδομένων ((ΕΕ) 2016/679), την Οδηγία για την προστασία της ιδιωτικής ζωής ηλεκτρονικών επικοινωνιών (2002/58/ΕΚ) και την Οδηγία επιβολής του νόμου ((ΕΕ) 2016/680). Ωστόσο, η προσέγγιση βάσει δεδομένων που είναι εγγενής στους αλγόριθμους μηχανικής μάθησης όπως ο ChatGPT—που περιλαμβάνει μαζική επεξεργασία (προσωπικών) δεδομένων—ανοίγει ένα κουτί της Πανδώρας με νέους κινδύνους απορρήτου .

Όπως οι Sartor et al. τονίζουν στη μελέτη τους για το Ευρωπαϊκό Κοινοβούλιο, αυτή η προσέγγιση «μπορεί να οδηγήσει […] σε μαζική συλλογή προσωπικών δεδομένων για άτομα, εις βάρος της ιδιωτικής ζωής». Ωστόσο, από την άποψη της ιδιωτικής ζωής, ο νόμος για την τεχνητή νοημοσύνη δεν καθορίζει από μόνος του ένα πλαίσιο για τον μετριασμό αυτών των κινδύνων και παραμένει αμφίβολο εάν επαρκούν οι υπάρχοντες κανονισμοί. Ειδικότερα, ο τρόπος με τον οποίο ακριβώς εφαρμόζεται ο GDPR στις εφαρμογές που βασίζονται στην τεχνητή νοημοσύνη υπόκειται σε συνεχή καθοδήγηση από τις αρχές προστασίας δεδομένων. Είναι αυτονόητο ότι, σε ευαίσθητα πλαίσια, όπως το δικαστικό περιβάλλον, η διασφάλιση της συμμόρφωσης με τις απαιτήσεις του GDPR είναι ζωτικής σημασίας για τη διατήρηση της εμπιστοσύνης του κοινού.

Προοπτικές για μια ολλανδική δικαστική στρατηγική AI

Εν κατακλείδι, η νομολογία που συζητήθηκε παραπάνω έχει άμεσες συνέπειες για την επικείμενη στρατηγική τεχνητής νοημοσύνης της ολλανδικής δικαιοσύνης. Το Ετήσιο Σχέδιο του Δικαστικού Συμβουλίου για το 2024 αναφέρει την ανάπτυξη μιας τέτοιας στρατηγικής έως τα μέσα του 2024, ωστόσο κανένα έγγραφο δεν είχε δημοσιευθεί μέχρι τα τέλη του ίδιου έτους. Σε επιστολή προς την Ολλανδική Γερουσία , ο Υφυπουργός Ψηφιοποίησης και Σχέσεων με το Βασίλειο δήλωσε ότι το δικαστικό σώμα σκοπεύει να παρουσιάσει τη στρατηγική του για την τεχνητή νοημοσύνη στις αρχές του 2025. Ωστόσο, καμία τέτοια στρατηγική δεν έχει δημοσιοποιηθεί μέχρι σήμερα.

Αυτό που είναι σαφές από τις μέχρι τώρα αποφάσεις είναι ότι η τεχνητή νοημοσύνη και τα LLM βρίσκουν όλο και περισσότερο το δρόμο τους στις αίθουσες των δικαστηρίων. Ωστόσο, η τρέχουσα κατάσταση απέχει πολύ από το να είναι ιδανική. Αντικατοπτρίζει ένα κατακερματισμένο συνονθύλευμα διπλών σταθμών και νομικής αβεβαιότητας σχετικά με μια τεχνολογία που διασταυρώνεται άμεσα με συνταγματικές εγγυήσεις, όπως το δικαίωμα σε δίκαιη δίκη, συμπεριλαμβανομένου του δικαιώματος ακρόασης και της ισότητας των όπλων.

Υπό το πρίσμα αυτό, φαίνεται ζωτικής σημασίας οποιαδήποτε γενική πολιτική τεχνητής νοημοσύνης να συνοδεύεται από σαφείς και πρακτικές οδηγίες για δικαστική χρήση της τεχνητής νοημοσύνης. Με βάση τις εξελίξεις που εξετάζονται σε αυτήν την ανάρτηση, τρία στοιχεία φαίνονται ιδιαίτερα επείγοντα:

1. Θέσπιση κατάλληλων προϋποθέσεων για τη χρήση της τεχνητής νοημοσύνης τόσο από τους δικαστές όσο και από τους διαδίκους (αποφεύγοντας έτσι τα διπλά μέτρα και σταθμά, διασφαλίζοντας παράλληλα τα θεμελιώδη δικαιώματα των μερών και τη δέουσα διαδικασία).

2. Εισαγωγή σαφούς κατηγοριοποίησης κινδύνων σύμφωνα με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη (επωφελούμενοι από εφαρμογές χαμηλότερου κινδύνου ενώ επιδεικνύεται προσοχή με εφαρμογές υψηλού κινδύνου). και

3. Διασφάλιση ισχυρού απορρήτου και ασφάλειας δεδομένων.

Αν και μπορεί να είναι δελεαστικό να υιοθετήσουμε εργαλεία τεχνητής νοημοσύνης απλώς και μόνο επειδή είναι «χαρακτηριστικά χρήσιμα», η παράβλεψη αυτών των αρχών θέτει σε κίνδυνο την εμπιστοσύνη και τη νομιμότητα που απαιτούνται για μια υπεύθυνη ενσωμάτωση της τεχνητής νοημοσύνης στο δικαστικό σύστημα. Εάν η τεχνητή νοημοσύνη πρόκειται να γίνει μέρος του μέλλοντος των δικαστηρίων, τότε είναι τώρα η ώρα να θεσπιστούν οι κανόνες.

Ο ΓΔ (Daan) Kingma είναι κάτοχος μεταπτυχιακού τίτλου σπουδών στο Διεθνές και Ευρωπαϊκό Δίκαιο από το Πανεπιστήμιο του Groningen και μεταπτυχιακό στις Ασιατικές Σπουδές από το Πανεπιστήμιο του Leiden (και οι δύο σπουδάζουν cum laude). Σήμερα σπουδάζει νομική έρευνα (LLM) στο Πανεπιστήμιο του Groningen, με επίκεντρο τη διασταύρωση μεταξύ τεχνολογίας, ιδιωτικότητας και ψηφιακής νομοθεσίας της ΕΕ.

source

Leave a Reply

Your email address will not be published. Required fields are marked *