Mon. Dec 2nd, 2024

Ο νόμος για την τεχνητή νοημοσύνη, ο οποίος πρόκειται τώρα να εγκριθεί οριστικά από τους ευρωβουλευτές τον Απρίλιο, προβλέπει ορισμένους συγκεκριμένους κανόνες για τη χρήση των συστημάτων αναγνώρισης συναισθημάτων (ERS) για την επιβολή του νόμου. Για παράδειγμα, οι αστυνομικές αρχές που αναπτύσσουν ERS δεν απαιτείται να ενημερώνουν τους ανθρώπους όταν εκτίθενται σε αυτά τα συστήματα.

Η χρήση συστημάτων τεχνητής νοημοσύνης που ισχυρίζονται ότι συνάγουν συναισθήματα από βιομετρικά στοιχεία (όπως πρόσωπο και φωνή) απαγορεύεται μόνο «στους χώρους εργασίας και εκπαιδευτικών ιδρυμάτων» (με την επιφύλαξη ασαφούς εξαίρεσης «ασφάλειας»), όχι σε πλαίσια όπως ο νόμος επιβολή και μετανάστευση.

Η επιστημονική εγκυρότητα του ERS εγείρει σοβαρές ανησυχίες, ιδίως επειδή η έκφραση των συναισθημάτων ποικίλλει σημαντικά μεταξύ πολιτισμών και καταστάσεων, ακόμη και μέσα σε ένα άτομο, επομένως όχι μόνο είναι ανακριβής αλλά και εγγενώς μεροληπτική.

Η επιστημονική βάση των συστημάτων αναγνώρισης προσώπου-συναισθημάτων έχει τεθεί υπό αμφισβήτηση, εξισώνοντας τις υποθέσεις τους με ψευδοεπιστημονικές θεωρίες, όπως η φρενολογία ή η φυσιογνωμία.

Πρόκειται για συστήματα όπως το IBorderCtrl , όπου ένας εικονικός αστυνομικός χρησιμοποιεί μια κάμερα web για να σαρώσει το πρόσωπο και τις κινήσεις των ματιών σας για σημάδια ψέματος. Στο τέλος της συνέντευξης, το σύστημα σας παρέχει έναν κωδικό QR που πρέπει να δείξετε σε έναν φρουρό όταν φτάσετε στα σύνορα. Ο φύλακας σαρώνει τον κωδικό χρησιμοποιώντας μια φορητή συσκευή tablet, παίρνει τα δακτυλικά σας αποτυπώματα και ελέγχει την εικόνα του προσώπου που τραβήχτηκε από το avatar για να ελέγξει αν αντιστοιχεί στο διαβατήριό σας. Το tablet του φύλακα εμφανίζει μια βαθμολογία στα 100, λέγοντάς του εάν το μηχάνημα σας έχει κρίνει ότι είστε ειλικρινείς ή όχι.

Εκτός από το ζήτημα «τεχνητής νοημοσύνης φιδιού-ελαίου», υπάρχουν περισσότερα:

Πρώτον, ο παρεμβατικός χαρακτήρας αυτών των συστημάτων σίγουρα θα αυξήσει την ανισορροπία δυνάμεων μεταξύ του ενδιαφερόμενου προσώπου και της δημόσιας αρχής.

Δεύτερον, η πιθανή φύση του «μαύρου κουτιού» του συστήματος τεχνητής νοημοσύνης: από τη στιγμή που υπόκειται στο ERS, επίσης «απλώς» για να βοηθήσει τη λήψη αποφάσεων, η δράση των αρχών επιβολής του νόμου ή της μετανάστευσης γίνεται «απρόβλεπτη»: ποιος θα είναι ο αντίκτυπος σχετικά με τη βαθμολογία αξιοπιστίας μου για οποιαδήποτε από τις εθελοντικές ή ακούσιες μικρο-εκφράσεις μου;

Το Δικαστήριο της ΕΕ υποστήριξε προηγουμένως ότι η τεχνητή νοημοσύνη που παράγει δυσμενή αποτελέσματα, τα οποία δεν είναι ανιχνεύσιμα ούτε αμφισβητούμενα, είναι ασυμβίβαστα με την προστασία των θεμελιωδών δικαιωμάτων. Και τα θεμελιώδη δικαιώματα δεν μπορούν να περιορίζονται από μια τεχνητή νοημοσύνη που δεν είναι ούτε πλήρως κατανοητή ούτε πλήρως ελεγχόμενη στη μάθησή της.

Τρίτον, η χρήση μιας τέτοιας τεχνητής νοημοσύνης συνεπάγεται την αντικειμενοποίηση του ατόμου και μια συστημική περιφρόνηση της σωματικής κυριαρχίας. Η χρήση ιδιαίτερα παρεμβατικών συστημάτων τεχνητής νοημοσύνης, όπως αυτά που (ισχυρίζονται ότι) συνάγουν τα συναισθήματα των ατόμων από τα βιομετρικά τους δεδομένα, επηρεάζει το θεμελιώδες δικαίωμα στην ιδιωτική ζωή, την αυτονομία και την αξιοπρέπεια του ενδιαφερόμενου.

Αξιοπρέπεια

Η έννοια της αξιοπρέπειας εμφανίστηκε εξέχοντα στην απόρριψη από το ανώτατο δικαστήριο ορισμένων μεθόδων εξέτασης στο πλαίσιο της μετανάστευσης που εισβάλλουν στην προσωπική σφαίρα των αιτούντων άσυλο. Σε προηγούμενη υπόθεση, το δικαστήριο έκρινε ότι τα «τεστ» σεξουαλικού προσανατολισμού, που διενεργήθηκαν από τις εθνικές αρχές για την αξιολόγηση του φόβου δίωξης για λόγους σεξουαλικού προσανατολισμού, από τη φύση τους θα προσέβαλλαν την ανθρώπινη αξιοπρέπεια.

Κατά την άποψή μου, αυτό θα συνέβαινε, και ακόμη περισσότερο, της ERS AI για την αξιολόγηση ενός αιτούντος άσυλο.

Παρά τους απαράδεκτους κινδύνους για τα δικαιώματα και τις ελευθερίες του ατόμου που επηρεάζεται από τη χρήση αυτών των συστημάτων, ιδίως από τις δημόσιες αρχές, το ERS και άλλα «εργαλεία» τεχνητής νοημοσύνης, όπως ο πολύγραφος (ο ανιχνευτής ψεύδους), ταξινομούνται ως τεχνητή νοημοσύνη υψηλού κινδύνου. .

Αλλά αυτά τα συστήματα θα φέρουν «σήμανση CE» και θα απολαμβάνουν ελεύθερη κυκλοφορία εντός της εσωτερικής αγοράς.

Η αξιολόγηση των επιπτώσεων των θεμελιωδών δικαιωμάτων, που πρέπει να γίνει από τους χρήστες της τεχνητής νοημοσύνης πριν από την ανάπτυξή της, δύσκολα μπορεί να θεωρηθεί ως ικανοποιητική θεραπεία.

Πρώτον, δεν θα έλυνε το ζήτημα της «προβλεψιμότητας» (ένα άτομο μπορεί να υπόκειται ή όχι τελικά σε ERS AI, ανάλογα με το αποτέλεσμα της αξιολόγησης «κατά περίπτωση»). Δεύτερον, και το πιο σημαντικό, το θέμα που διακυβεύεται δεν αφορά τους «κινδύνους». Η βλάβη στην ψυχική ακεραιότητα που υφίσταται ο αιτών άσυλο δεν αποτελεί κίνδυνο: είναι βεβαιότητα.

Το δικαίωμα να είμαστε απαλλαγμένοι από στατιστικά συμπεράσματα για την ψυχική μας κατάσταση είναι πράγματι δικαίωμα και όχι θέμα περιστάσεων. Η μετατροπή των δικαιωμάτων σε κινδύνους είναι η άνευ προηγουμένου ρυθμιστική μετατόπιση του νόμου περί τεχνητής νοημοσύνης, που σε πολλές περιπτώσεις, κατά την άποψή μου, δεν αντέχει στη δοκιμασία της νομιμότητας.

Η προσέγγιση της ρύθμισης του κινδύνου μπορεί να είναι σε αντίθεση με το «δικαίωμα στην κατοχή δικαιωμάτων». Η βλάβη στην αξιοπρέπεια που απορρέει από τη φυσιογνωμική τεχνητή νοημοσύνη — η οποία είναι αυτή καθαυτή άδικη και παραπλανητική — δεν είναι θέμα διαδικαστικών διασφαλίσεων, όπως «άνθρωπος στο βρόχο» ή «ειδοποίηση και συναίνεση» ή τεχνικών επιδιορθώσεων.

Αν αναλογιστούμε ότι στις περισσότερες περιπτώσεις οι απαιτήσεις για τη διαχείριση των κινδύνων εμπιστεύονται σε τεχνικά πρότυπα — εισόδου σε τομείς της δημόσιας πολιτικής, όπως τα θεμελιώδη δικαιώματα — , τα σαθρά νομικά θεμέλια του νόμου για την τεχνητή νοημοσύνη γίνονται ακόμη πιο εμφανή.

Υποστηρίζοντας έναν κανονισμό για την τεχνητή νοημοσύνη που θέτει τα ανθρώπινα δικαιώματα πάνω από άλλα ζητήματα, επικεντρώθηκα στην «δεδομένη» του ανθρώπινου σώματος. Διαφορική μεταχείριση προσώπων λόγω συμπερασμάτων («βιομετρικές κατηγοριοποιήσεις», «αναγνωρισμένες» σκέψεις, κλίσεις, πεποιθήσεις, προθέσεις) από το σώμα (πρόσωπο, φωνή, τρόπος που περπατάμε) που γίνονται από μηχανή: δεν είναι μόνο θέμα «φιδιού». πετρελαίου» AI, είναι μια γραμμή που δεν πρέπει να περάσει η καλή κοινωνία.

Άλλες πτυχές του νόμου περί τεχνητής νοημοσύνης, συγκεκριμένα η ρύθμιση της χρήσης από την αστυνομία της αναγνώρισης προσώπου σε πραγματικό χρόνο και της αναδρομικής αναγνώρισης προσώπων σε χώρους προσβάσιμους από το κοινό· την «κατηγοριοποίηση των βιομετρικών δεδομένων στον τομέα της επιβολής του νόμου»· και η αστυνομία πρόβλεψης με βάση το προφίλ, μπορεί επίσης να αξιολογηθεί από το δικαστήριο της ΕΕ ως στερείται των απαιτήσεων προβλεψιμότητας, αναγκαιότητας και αναλογικότητας.

Για αυτούς τους λόγους, ελπίζω ότι οι ευρωβουλευτές δεν θα εγκρίνουν τον νόμο AI στο τρέχον κείμενό του. Η ΕΕ είναι ο οδηγός για τα θεμελιώδη δικαιώματα σε έναν κόσμο με προκλήσεις.

Η εξομάλυνση αυθαίρετων «αλγοριθμικών» εισβολών στην εσωτερική μας ζωή μέσω της φυσικής μας εμφάνισης (είτε σε συνεντεύξεις για δουλειά, όταν περπατάμε στο δρόμο, είτε μέσω chat ή video bots στα σύνορα) παρέχει μια κληρονομιά περιφρόνησης της ανθρώπινης αξιοπρέπειας.

Η λήψη αποφάσεων που βασίζεται στα υποτιθέμενα συναισθήματά μας που συνάγονται από το AI από το πρόσωπο ή τη φωνή («τι θα έλεγε το σώμα») απειλεί την κληρονομιά των θεμελιωδών δικαιωμάτων μας: το όνειρο των γονιών μας, που έγινε κατά κάποιον τρόπο πραγματικότητα μετά τον Δεύτερο Παγκόσμιο Πόλεμο, και που πρέπει να εμπιστευόμαστε προσεκτικά στα παιδιά μας.

Η τριμερής συμφωνία για τον νόμο AI θα ψηφιστεί από την επιτροπή εσωτερικής αγοράς του κοινοβουλίου την Τρίτη (13 Φεβρουαρίου) και από την ολομέλεια τον Απρίλιο ως τελευταία βήματα για την έγκριση του κειμένου.

source

Leave a Reply

Your email address will not be published. Required fields are marked *