Sun. Dec 22nd, 2024

Στον απόηχο των ταραχών του Νοέμβρη στο Δουβλίνο, στην Ιρλανδία — και σε ολόκληρη την Ευρώπη, ξέσπασε μια συζήτηση σχετικά με το εάν η αστυνομική χρήση τεχνολογιών αναγνώρισης προσώπου θα μπορούσε να αποτρέψει περαιτέρω χάος στους δρόμους.

«Η τεχνολογία αναγνώρισης προσώπου θα εξοικονομήσει δραματικά χρόνο, θα επιταχύνει τις έρευνες και θα απελευθερώσει τους πόρους της Garda [της ιρλανδικής αστυνομίας] για την αστυνόμευση υψηλής ορατότητας που όλοι θέλουμε να δούμε», δήλωσε πρόσφατα η υπουργός Δικαιοσύνης της Ιρλανδίας, Helen McEntee.

  • Η χρήση αυτής της τεχνολογίας είναι ευρέως αποδεκτή σε περιπτώσεις όπου οι πολίτες αναμένουν να εντοπιστούν (Φωτογραφία: Delta News Hub )

Ενώ αυτά τα οφέλη δοκιμάζονται επαναλαμβανόμενα σε ελεγχόμενα προγράμματα, οι αγωνιστές για την προστασία της ιδιωτικής ζωής έχουν εκφράσει ανησυχίες για την ανατριχιαστική τους επίδραση στις δημοκρατίες — καθώς και για τους εγγενείς κινδύνους που δημιουργούν διακρίσεις.

Η συζήτηση στην Ιρλανδία επανεμφανίστηκε στο πλαίσιο των έντονων διαπραγματεύσεων στις Βρυξέλλες σχετικά με τον νόμο AI – το εγχειρίδιο κανόνων που θα ρυθμίζει τις τεχνολογίες που λειτουργούν με τεχνητή νοημοσύνη, όπως η αναγνώριση προσώπου.

Οι ευρωβουλευτές αρχικά προσπάθησαν να πιέσουν για απαγόρευση της αυτοματοποιημένης αναγνώρισης ατόμων σε δημόσιους χώρους, αλλά το τελικό κείμενο περιλαμβάνει αρκετές εξαιρέσεις που θα καθιστούσαν τη χρήση αυτής της τεχνολογίας νομικά αποδεκτή.

Αυτό περιλαμβάνει, για παράδειγμα, την αναζήτηση ορισμένων θυμάτων και υπόπτων για εγκλήματα και την πρόληψη τρομοκρατικών επιθέσεων.

Και δεδομένου ότι η Ευρώπη έγινε η πρώτη που θέσπισε κανόνες που διέπουν την τεχνητή νοημοσύνη στον κόσμο, πολλοί επευφημούσαν τη συμφωνία που επιτεύχθηκε στις αρχές Δεκεμβρίου.

Αλλά η αποτυχία της ΕΕ να απαγορεύσει τη χρήση αυτής της παρεμβατικής τεχνολογίας σε δημόσιους χώρους θεωρείται από ακτιβιστές όπως η Διεθνής Αμνηστία ως «καταστροφικό προηγούμενο», καθώς η νομοθεσία της ΕΕ στοχεύει να θέσει παγκόσμια πρότυπα.

Η ευρεία υιοθέτηση αυτών των τεχνολογιών από τις αρχές επιβολής του νόμου τα τελευταία χρόνια έχει πυροδοτήσει ανησυχίες για το απόρρητο και τη μαζική επιτήρηση, με τους επικριτές να χαρακτηρίζουν μια κάμερα που υποστηρίζεται από μια βάση δεδομένων ως «Big Brother» ή «Orwellian Nightmare».

Το Ευρωπαϊκό Δικαστήριο Ανθρωπίνων Δικαιωμάτων αποφάσισε πρόσφατα για πρώτη φορά τη χρήση της αναγνώρισης προσώπου από τις αρχές επιβολής του νόμου.

Το δικαστήριο του Στρασβούργου έκρινε ότι η Ρωσία παραβιάζει την ευρωπαϊκή σύμβαση για τα ανθρώπινα δικαιώματα όταν χρησιμοποιεί βιομετρικές τεχνολογίες για να βρει και να συλλάβει έναν ειρηνικό διαδηλωτή.

Όμως οι συνέπειες παραμένουν αβέβαιες καθώς το δικαστήριο άφησε ανοιχτά πολλά άλλα ερωτήματα.

"Σίγουρα, διαπίστωσε παραβίαση του δικαιώματος στην ιδιωτική ζωή. Ωστόσο, μπορεί να επωφελήθηκε από την ανάπτυξη της αναγνώρισης προσώπου στην Ευρώπη, χωρίς να περιορίσει σαφώς τις "δίκαιες" εφαρμογές της", υποστηρίζει η Isadora Neroni Rezende, ερευνήτρια στο Πανεπιστήμιο της Μπολόνια. .

Η θυσία

Το Ηνωμένο Βασίλειο υπήρξε πρωτοπόρος στη χρήση τεχνολογιών αναγνώρισης προσώπου για την αναγνώριση ατόμων σε πραγματικό χρόνο με κάμερες δρόμου. Σε λίγα χρόνια, η χώρα έχει αναπτύξει περίπου 7,2 εκατομμύρια κάμερες — περίπου μία κάμερα για κάθε εννέα άτομα.

Από το 2017 έως το 2019, η ομοσπονδιακή βελγική αστυνομία χρησιμοποίησε τέσσερις κάμερες αναγνώρισης προσώπου στο αεροδρόμιο των Βρυξελλών -σκηνή μιας φονικής τρομοκρατικής βομβιστικής επίθεσης το 2016 που σκότωσε 16 άτομα – αλλά το έργο έπρεπε να σταματήσει καθώς δεν συμμορφωνόταν με τους νόμους περί προστασίας δεδομένων.

Και πρόσφατα, η γαλλική κυβέρνηση θέσπισε γρήγορα νομοθεσία για τη χρήση καμερών σε πραγματικό χρόνο για τον εντοπισμό ύποπτων συμπεριφορών κατά τη διάρκεια των Ολυμπιακών Αγώνων του Παρισιού το 2024.

Αυτά είναι μόνο μερικά παραδείγματα για το πώς αυτή η τεχνολογία αναδιαμορφώνει την έννοια της ασφάλειας.

Ενώ η χρήση αυτής της τεχνολογίας είναι αποδεκτή σε ορισμένες περιπτώσεις, η πραγματική πρόκληση προκύπτει όταν η χρήση της επεκτείνεται σε ευρύτερους δημόσιους χώρους όπου δεν αναμένεται να εντοπιστούν άτομα, δήλωσε ο επόπτης προστασίας δεδομένων της ΕΕ (EDPS) Wojciech Wiewiórowski σε συνέντευξή του στο EUobserver.

Αυτό de facto θα «αφαιρούσε την ανωνυμία από τους δρόμους», είπε. "Δεν νομίζω ότι ο πολιτισμός μας είναι έτοιμος για κάτι τέτοιο. Δεν νομίζω ότι η Ευρώπη είναι το μέρος όπου συμφωνούμε σε αυτού του είδους τις θυσίες".

Το 2021, ο Wiewiórowski ζήτησε μορατόριουμ για τη χρήση απομακρυσμένων βιομετρικών συστημάτων ταυτοποίησης, συμπεριλαμβανομένης της αναγνώρισης προσώπου, σε χώρους προσβάσιμους από το κοινό.

Κατηγόρησε επίσης την Επιτροπή επειδή δεν έλαβε υπόψη τις συστάσεις της όταν αποκάλυψε για πρώτη φορά την πρόταση νόμου για την τεχνητή νοημοσύνη.

«Δεν θα ήθελα να ζω σε μια κοινωνία όπου η ιδιωτικότητα θα καταργηθεί», είπε στο EUobserver.

"Κοιτάζοντας ορισμένες χώρες όπου υπάρχει πολύ μεγαλύτερο άνοιγμα για αυτό το είδος τεχνολογίας, μπορούμε να δούμε ότι τελικά χρησιμοποιείται για την αναγνώριση του ατόμου όπου κι αν βρίσκεται, και για τη στόχευση και την παρακολούθηση του", προειδοποίησε ο Wiewiórowski, δείχνοντας στην Κίνα ως το καλύτερο παράδειγμα.

«Η εξήγηση ότι η τεχνολογία χρησιμοποιείται μόνο εναντίον των κακών ανθρώπων (…) είναι η ίδια που μου είπαν οι αστυνομικοί το 1982 στην ολοκληρωτική Πολωνία, όπου η τηλεφωνική επικοινωνία ήταν επίσης υπό παρακολούθηση», είπε επίσης.

Ενισχύστε τα στερεότυπα

Ενώ αυτές οι τεχνολογίες μπορούν να θεωρηθούν ως ένα αποτελεσματικό σύγχρονο εργαλείο για την επιβολή του νόμου, ακαδημαϊκοί και ειδικοί έχουν τεκμηριώσει πώς οι βιομετρικές τεχνολογίες με τεχνητή νοημοσύνη μπορούν να αντικατοπτρίζουν στερεότυπα και διακρίσεις σε βάρος ορισμένων εθνοτικών ομάδων.

Το πόσο καλά λειτουργεί αυτή η τεχνολογία εξαρτάται κυρίως από την ποιότητα των δεδομένων που χρησιμοποιείται για την εκπαίδευση του λογισμικού και την ποιότητα των δεδομένων που χρησιμοποιούνται κατά την ανάπτυξη.

Για την Ella Jakubowska, ακτιβίστρια στο EDRi, υπάρχει μια εσφαλμένη αντίληψη σχετικά με το πόσο αποτελεσματική μπορεί να είναι αυτή η τεχνολογία. «Υπάρχει μια βασική στατιστική παρεξήγηση από τις κυβερνήσεις».

«Έχουμε ήδη δει σε όλο τον κόσμο ότι τα βιομετρικά συστήματα αναπτύσσονται δυσανάλογα εναντίον μαύρων και καφέ κοινοτήτων, ανθρώπων εν κινήσει και άλλων μειοψηφισμένων ανθρώπων», είπε, υποστηρίζοντας ότι οι κατασκευαστές πουλούν «προσοδοφόρες ψευδείς υποσχέσεις ασφάλειας».

Μια ανεξάρτητη μελέτη σχετικά με τη χρήση της ζωντανής αναγνώρισης προσώπου από την αστυνομία του Λονδίνου αποκάλυψε ότι το πραγματικό ποσοστό επιτυχίας αυτών των συστημάτων ήταν κάτω από 40 τοις εκατό.

Και μια έκθεση του 2018 αποκάλυψε ότι το αστυνομικό σύστημα της Νότιας Ουαλίας είδε το 91 τοις εκατό των αγώνων να χαρακτηρίζονται ως ψευδώς θετικοί, με 2.451 εσφαλμένες ταυτοποιήσεις.

Οι εταιρείες τεχνολογίας έχουν ασκήσει πίεση ενάντια σε οποιαδήποτε πιθανή απαγόρευση χρήσης αυτών των τεχνολογιών σε δημόσιους χώρους (Φωτογραφία: Tony Gonzalez )

Οι επιπτώσεις των αλγοριθμικών σφαλμάτων στα ανθρώπινα δικαιώματα υπογραμμίζονται συχνά ως μία από τις κύριες ανησυχίες για την ανάπτυξη και τη χρήση αυτής της τεχνολογίας.

Και ένα από τα κύρια ζητήματα για τα πιθανά θύματα διακρίσεων τεχνητής νοημοσύνης είναι τα σημαντικά νομικά εμπόδια που αντιμετωπίζουν για να αποδείξουν (εκ πρώτης όψεως) τέτοιες διακρίσεις — δεδομένου του προβλήματος του «μαύρου κουτιού» αυτών των τεχνολογιών.

Ο κίνδυνος λάθους έχει οδηγήσει αρκετές εταιρείες να απομακρυνθούν από τις αγορές. Αυτό περιλαμβάνει την Axon, μια πολύ γνωστή αμερικανική εταιρεία που παρέχει κάμερες σώματος της αστυνομίας, καθώς και τη Microsoft και την Amazon.

Ωστόσο, πολλοί εξακολουθούν να το υπερασπίζονται ως ένα κρίσιμο εργαλείο για την επιβολή του νόμου στην εποχή μας – ασκώντας πίεση ενάντια σε οποιαδήποτε πιθανή απαγόρευση και υπέρ των εξαιρέσεων για την επιβολή του νόμου βάσει του νόμου περί τεχνητής νοημοσύνης.

Προσπάθειες λόμπι

Η Google προέτρεψε να προσέχουμε ενάντια στην απαγόρευση ή τον περιορισμό αυτής της τεχνολογίας, υποστηρίζοντας ότι θα έθετε σε κίνδυνο «πλήθος ωφέλιμων, επιθυμητών και νομικά απαιτούμενων περιπτώσεων χρήσης», συμπεριλαμβανομένης της «ασφάλειας των παιδιών».

«Λόγω κάποιας έλλειψης κατανόησης, τέτοιες καινοτόμες τεχνολογίες [όπως η αναγνώριση προσώπου και τα βιομετρικά δεδομένα] παρουσιάζονται όλο και περισσότερο λάθος ως κίνδυνος για τα θεμελιώδη δικαιώματα», δήλωσε η κινεζική εταιρεία κάμερας Hikvision, η οποία βρίσκεται στη μαύρη λίστα των ΗΠΑ.

Ομοίως, το λόμπι της βιομηχανίας τεχνολογίας DigitalEurope επαίνεσε επίσης τα οφέλη. «Είναι σημαντικό να αναγνωρίσουμε τα σημαντικά οφέλη για τη δημόσια ασφάλεια και την εθνική ασφάλεια».

Επιπλέον, οι εταιρείες ασφάλειας και άμυνας έχουν επίσης ασκήσει πίεση υπέρ εξαιρέσεων.

Ωστόσο, φαίνεται ότι η μεγαλύτερη πίεση υπέρ προήλθε από τα υπουργεία Εσωτερικών και τις υπηρεσίες επιβολής του νόμου, σύμφωνα με το Corporate Europe Observatory.

Εν τω μεταξύ, η αγορά αναγνώρισης προσώπου στην Ευρώπη εκτιμάται ότι θα αυξηθεί από 1,2 δισ. $ [1,09 δισ. ευρώ] το 2021 σε 2,4 δισ. $ έως το 2028.

source

Leave a Reply

Your email address will not be published. Required fields are marked *

en_USEnglish