logo-print

Παρίσι 2024: Οι Ολυμπιακοί Αγώνες φέρνουν τη βιντεοεπιτήρηση του μέλλοντος

Το σχεδιαζόμενο σύστημα επιτήρησης του δημόσιου χώρου έχει τη δυνατότητα ανάλυσης υλικού μέσω τεχνητής νοημοσύνης για τον εντοπισμό «ύποπτων» συμπεριφορών

20/02/2023

24/02/2023

Την 31η Ιανουαρίου 2023 η γαλλική Γερουσία με ψήφους 245 υπέρ και 28 κατά ενέκρινε το «ολυμπιακό» νομοσχέδιο της Υπουργού Αθλητισμού και Ολυμπιακών Αγώνων Amélie Oudéa-Castéra με τον τίτλο «Jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions».

Το σχέδιο νόμου περιλαμβάνει σειρά ρυθμίσεων για τη διοργάνωση των Ολυμπιακών και Παραολυμπιακών Αγώνων που θα διεξαχθούν στο Παρίσι τον Αύγουστο του 2024, σημαντικότερη εκ των οποίων αποτελούν τα μέτρα ασφάλειας. Πρόκειται για μια κατάσταση γνώριμη σε εμάς, καθώς φέρνει στη μνήμη τα αντίστοιχα ζητήματα που είχαν τεθεί τις παραμονές, στη διάρκεια, αλλά κυρίως μετά την ολοκλήρωση των Ολυμπιακών Αγώνων του 2004. Πρωτίστως τη συζήτηση για τις 293 κάμερες του συστήματος επιτήρησης C4I.

Ειδικότερα, μεταξύ των προτεινόμενων από τη γαλλική κυβέρνηση μέτρων, μεγάλη συζήτηση και έντονες αντιδράσεις έχουν προκαλέσει οι ρυθμίσεις του άρθρου 7 για τα μέτρα ασφάλειας και τη λειτουργία συστημάτων βιντεοεπιτήρησης με τη χρήση τεχνητής νοημοσύνης. Η γαλλική κυβέρνηση επιχειρηματολογεί υπέρ της ανάγκης λήψης των όλων εκείνων των μέτρων που είναι αναγκαία για την επιτυχή και χωρίς δυσάρεστα συμβάντα διοργάνωση των αγώνων που πρόκειται να φέρουν στη χώρα 13 εκατομμύρια επισκέπτες και να συγκεντρώσουν 600.000 ανθρώπους στις όχθες του Σηκουάνα την 26η Ιουλίου, ημέρα έναρξης των Αγώνων. Παράλληλα, μέσα από σειρά δημοσιευμάτων υπενθυμίζεται πως για κανέναν λόγο δεν επιτρέπεται να επαναληφθεί το πρωτοφανές φιάσκο του τελικού Champions League της 28ης Μαΐου 2022 στο Stade de France, με δεκάδες καταγγελίες για επιθέσεις και ληστείες σε βάρος φιλάθλων, υλικό CCTV που είχε διαγραφεί πριν καν ξεκινήσουν οι έρευνες και εικόνες της γαλλικής αστυνομίας να ρίχνει χημικά σε οικογένειες με παιδιά που έκαναν τον γύρο του κόσμου.

Υπό τα δεδομένα αυτά, η γαλλική πολιτεία επιθυμεί να αναπτύξει ένα πρωτοφανούς (για τα ευρωπαϊκά δεδομένα) έκτασης και τεχνολογικών δυνατοτήτων σύστημα βιντεοεπιτήρησης του δημόσιου χώρου. Ένα σύστημα το οποίο σχεδιάζεται να τεθεί σε λειτουργία άμεσα και να δοκιμαστεί τον Σεπτέμβριο στο Παγκόσμιο Πρωτάθλημα Ράγκμπι, που επίσης διεξάγεται στο Παρίσι,  ώστε να είναι πλήρως λειτουργικό μέχρι την έναρξη των Ολυμπιακών Αγώνων. Ένα σύστημα, που μολονότι θα δημιουργηθεί για τους Ολυμπιακούς Αγώνες, χαρακτηρίζεται «πειραματικό» και προβλέπεται να παραμείνει σε λειτουργία σχεδόν για ένα χρόνο μετά τη λήξη της διοργάνωσης.

Η επίμαχη διάταξη

Η λειτουργία του συστήματος επιτήρησης περιγράφεται στο άρθρο 7 του σχεδίου νόμου, σύμφωνα με το οποίο:

«I. - Σε πειραματική βάση και έως τις 30 Ιουνίου 2025, με αποκλειστικό σκοπό τη διασφάλιση της ασφάλειας αθλητικών, ψυχαγωγικών ή πολιτιστικών εκδηλώσεων οι οποίες, λόγω της κλίμακας ή των συνθηκών τους, είναι ιδιαίτερα εκτεθειμένες στον κίνδυνο τρομοκρατικών ενεργειών ή σοβαρών επιθέσεων κατά της ασφάλειας των ατόμων, οι εικόνες που συλλέγονται μέσω συστημάτων βιντεοπροστασίας (σ.σ.. ο Γάλλος νομοθέτης προτιμά σταθερά τον φιλικότερο όρο «βιντεοπροστασία», αντί της «βιντεοεπιτήρησης») που επιτρέπονται βάσει του άρθρου L. 252-1 του Κώδικα Εσωτερικής Ασφάλειας και οι κάμερες που είναι εγκατεστημένες σε εναέρια μέσα που έχουν εγκριθεί βάσει του Βιβλίου ΙΙ τίτλος IV κεφάλαιο ΙΙ του ίδιου κώδικα σε χώρους που φιλοξενούν αυτές τις εκδηλώσεις και στον περιβάλλοντα χώρο τους, καθώς και σε οχήματα και χώρους δημόσιας συγκοινωνίας και στους δρόμους που τα εξυπηρετούν, μπορούν να υπόκεινται σε αλγοριθμική επεξεργασία με αποκλειστικό σκοπό τον εντοπισμό, σε πραγματικό χρόνο προκαθορισμένων γεγονότων που ενδέχεται να αποτελούν ή να αποκαλύπτουν αυτούς τους κινδύνους και η αναφορά τους με σκοπό τη λήψη των αναγκαίων μέτρων από τις εθνικές αστυνομικές υπηρεσίες και τις υπηρεσίες χωροφυλακής, τις υπηρεσίες πυρόσβεσης και διάσωσης, τις υπηρεσίες δημοτικής αστυνομίας και τις υπηρεσίες εσωτερικής ασφάλειας της SNCF και της Régie Autonome des Transports Parisiens στο πλαίσιο των αντίστοιχων αρμοδιοτήτων τους.

II. - Οι πράξεις επεξεργασίας που αναφέρονται στο Ι του παρόντος άρθρου καθώς και οι εικόνες που είναι απαραίτητες για την εκπαίδευσή τους διέπονται από τις ισχύουσες διατάξεις του κανονισμού (ΕΕ) 2016/679 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, της 27ης Απριλίου 2016, για την προστασία των φυσικών προσώπων έναντι της επεξεργασίας δεδομένων προσωπικού χαρακτήρα και για την ελεύθερη κυκλοφορία των δεδομένων αυτών και για την κατάργηση της οδηγίας 95/46/ΕΚ (Γενικός Κανονισμός για την Προστασία Δεδομένων) και του νόμου αριθ. 78-17 της 6ης Ιανουαρίου 1978 για την τεχνολογία της πληροφορίας, τα αρχεία και τις ελευθερίες.

IIΑ. - Το κοινό ενημερώνεται με κάθε πρόσφορο τρόπο για τη χρήση αλγοριθμικής επεξεργασίας σε εικόνες που συλλέγονται με συστήματα βιντεοπροστασίας που επιτρέπονται βάσει του άρθρου L. 252-1 του κώδικα εσωτερικής ασφάλειας και με κάμερες εγκατεστημένες σε εναέρια μέσα που επιτρέπονται βάσει του τίτλου IV κεφάλαιο ΙΙ του βιβλίου ΙΙ του ίδιου κώδικα, εκτός εάν οι περιστάσεις το απαγορεύουν ή εάν η ενημέρωση αυτή θα ήταν αντίθετη προς τους επιδιωκόμενους στόχους.

Η γενική ενημέρωση του κοινού σχετικά με τη χρήση της αλγοριθμικής επεξεργασίας των εικόνων που συλλέγονται μέσω των συστημάτων βιντεοπροστασίας και των καμερών που είναι εγκατεστημένες σε εναέρια μέσα οργανώνεται από τον Υπουργό Εσωτερικών.

III. - Οι εν λόγω πράξεις επεξεργασίας δεν χρησιμοποιούν κανένα σύστημα βιομετρικής ταυτοποίησης, δεν επεξεργάζονται βιομετρικά δεδομένα και δεν εφαρμόζουν καμία τεχνική αναγνώρισης προσώπου. Δεν προβαίνουν σε αυτοματοποιημένη αντιστοίχιση, διασύνδεση ή συνδυασμό με άλλες πράξεις επεξεργασίας δεδομένων προσωπικού χαρακτήρα.

Παρέχουν μόνο προειδοποιητικό σήμα, αυστηρά περιορισμένο στην ένδειξη προκαθορισμένου γεγονότος, το οποίο έχουν προγραμματιστεί να ανιχνεύουν. Δεν παράγουν κανένα άλλο αποτέλεσμα και δεν μπορούν από μόνα τους να αποτελέσουν τη βάση για οποιαδήποτε εξατομικευμένη απόφαση ή δίωξη.

Παραμένουν πάντοτε υπό τον έλεγχο των προσώπων που είναι υπεύθυνα για την εφαρμογή τους.

[…]»

Πώς λειτουργεί ένα αλγοριθμικό σύστημα αυτοματοποιημένης βιντεοεπιτήρησης

Παρά τη σχετικά λιτή και μάλλον ασαφή διατύπωση της διάταξης μπορεί κανείς να αντιληφθεί τα χαρακτηριστικά του προτεινόμενου συστήματος. Για αρχή, θα πρέπει να υπάρχει ένας αλγόριθμος, ο οποίος εκπαιδεύεται στο να αναγνωρίζει συγκεκριμένα μοτίβα, συμπεριφορές, αντικείμενα.

Μια ευμεγέθης αποσκευή που εντοπίζεται σε χώρο που δεν θα έπρεπε να βρίσκεται, ένας επιβάτης που μετακινείται για «αναιτιολόγητα» μεγάλο χρόνο σε μέσο μεταφοράς· μια ομάδα ανθρώπων που κινείται προς την ίδια κατεύθυνση, υπό συνθήκες που κάτι τέτοιο δείχνει μη αναμενόμενο ή μια συμπλοκή μεταξύ περαστικών· ένας άνθρωπος που παραμένει για πολλή ώρα στο ίδιο σημείο ή που ξαφνικά αρχίζει να τρέχει· ένα αυτοκίνητο που κάνει άσκοπους κύκλους ή σταθμεύει σε απομακρυσμένη περιοχή.

Τα μοτίβα αυτά, που το σχέδιο νόμου ονομάζει «προκαθορισμένα γεγονότα» (événements prédéterminés) χωρίς να τα εξειδικεύει περισσότερο, πολλώ δε μάλλον να τα προσδιορίζει, αξιοποιούνται από ένα σύστημα τεχνητής νοημοσύνης, το οποίο λαμβάνει σε ζωντανό χρόνο εικόνα από χιλιάδες κάμερες, επίγειες και εναέριες (drones). Το υλικό αυτό των καμερών δεν παρακολουθείται από προσωπικό, όπως γινόταν μέχρι σήμερα, αλλά εισάγεται απευθείας στο σύστημα. Το σύστημα, αναζητώντας τα δημιουργηθέντα μοτίβα, ειδοποιεί τον χειριστή του κάθε φορά που εντοπίζει κάποιο από αυτά. Ο χειριστής αξιολογεί την ειδοποίηση και ενεργοποιεί τη διαδικασία επιτόπιας μετάβασης και επέμβασης των αρμοδίων οργάνων.

Πρόκειται για μια μορφή πρόληψης εγκληματικών και τρομοκρατικών ενεργειών που υπό μια έννοια θυμίζει την ταινία Minority Report. Είναι ένα σύστημα, το οποίο (οι υπέρμαχοί του θα ισχυρίζονταν πως) όσο μεγαλύτερη κάλυψη επιτήρησης έχει και όσο πιο σύνθετα μοτίβα ακολουθεί μπορεί να φτάσει μέχρι του σημείου να «προβλέπει» ένα έγκλημα, αφού θα μπορεί να το αποτρέπει εν τη γενέσει του.

Τα πράγματα, βέβαια, δεν έχουν ακριβώς έτσι. Στην πραγματικότητα, οι υπέρμαχοι της λειτουργίας των συστημάτων αυτών θα έπρεπε να παραβλέψουν δύο κρίσιμες παραμέτρους: τη μη αποδεδειγμένη αποτελεσματικότητα από τη λειτουργία αυτή και την απολύτως βέβαιη και βίαιη επέμβαση και στα δικά τους δικαιώματα. Διότι ακόμη και αν υπέθετε κανείς πως ένα τέτοιο σύστημα βιντεοεπιτήρησης με τεχνητή νοημοσύνη μπορεί πράγματι να προλαμβάνει, ως εκ τούτου να περιορίζει, την εγκληματικότητα, κάτι για το οποίο δεν υπάρχουν ακόμη στοιχεία, δεν μπορεί να παραβλέψει πως το σύστημα αυτό δεν έχει όρια. Δεν έχει όρια ως προς τον δημόσιο χώρο που καταγράφει, ως προς την ταχύτητα ανάλυσης της εικόνας που λαμβάνει, ως προς τα πρόσωπα που επιτηρεί και – κυρίως – ως προς τις συμπεριφορές που αναγνωρίζει ως «ύποπτες» ή «μη φυσιολογικές». Διότι το μοναδικό όριο που γνωρίζει είναι μια συμπεριφορά, κίνηση, δραστηριότητα – ακόμη και ηχητική καταγραφή, εφόσον εξοπλίζεται με μικρόφωνο - που αναγνωρίζεται ως «ύποπτη» ή απλά «ασυνήθιστη».

Το ποιος καθορίζει το «φυσιολογικό» και το «μη ύποπτο» είναι βέβαια ασαφές, όπως και τα κριτήρια για τον καθορισμό αυτό.

Η αρχική παρέμβαση της CNIL

Το νομοσχέδιο της γαλλικής κυβέρνησης έχει προκαλέσει εύλογες επιφυλάξεις, αλλά και έντονες αντιδράσεις, ενώ η γενικότερη πολιτική συγκυρία έχει φέρει σε δύσκολη θέση τη γαλλική αρχή προστασίας δεδομένων CNIL. Η περίσταση θυμίζει λίγο το δόγμα «η ασφάλεια αποτελεί προτεραιότητα» της ΑΠΔΠΧ 28/2004, αλλά υπερβαίνει τις ειδικές συνθήκες της εποχής εκείνης, αφού πρόκειται για ένα ζήτημα που στη Γαλλία έχει παρελθόν, αλλά και μέλλον.

Η CNIL ήδη από τον Ιούλιο του 2022 δημοσίευσε τη γνώμη της για τις «έξυπνες ή επαυξημένες» κάμερες (Caméras dites «intelligentes» ou «augmentées»), ήτοι τα συστήματα βιντεοεπιτήρησης δημόσιου χώρου που λειτουργούν με πρόγραμμα τεχνητής νοημοσύνης. Διευκρινίζοντας πως η γνώμη της αυτή δεν καταλαμβάνει τα συστήματα αναγνώρισης προσώπου και την επεξεργασία βιομετρικών δεδομένων, λειτουργία που όπως είδαμε δεν προβλέπεται στο σχέδιο νόμου, η CNIL έθεσε τις βασικές απαιτήσεις νομιμότητας για τη λειτουργία των συστημάτων αυτών.

Εικονογράφημα της CNIL για τη διαφορά μεταξύ επαυξημένης και βιομετρικής κάμερας

Ορίζοντας τα συστήματα αυτά, η γαλλική αρχή ανέφερε ότι:

«Ο όρος "επαυξημένη" βιντεοεπιτήρηση χρησιμοποιείται εδώ για να αναφερθεί σε συσκευές βιντεοεπιτήρησης με σχετική αλγοριθμική επεξεργασία που υλοποιείται από λογισμικό, επιτρέποντας την αυτόματη ανάλυση. Το παρόν έγγραφο επικεντρώνεται μόνο στις "επαυξημένες" κάμερες που αναλύουν τις εικόνες σε πραγματικό χρόνο και διαρκώς. Πρόκειται για μια τεχνολογία γνωστή ως "computer vision", η οποία είναι ένας από τους κλάδους της "τεχνητής νοημοσύνης" και συνίσταται στον εξοπλισμό συστημάτων με δυνατότητες ψηφιακής ανάλυσης εικόνας, με την εξαγωγή πληροφοριών όπως η αναγνώριση προτύπων, η ανάλυση κινήσεων, η ανίχνευση αντικειμένων κ.λπ.

Η χρήση του λογισμικού καθιστά δυνατή την "αναγνώριση", με πιθανολογικό τρόπο, αντικειμένων ή σωματότυπων, χαρακτηριστικών, ιδιοτήτων (τύπος οχήματος, φύλο ή ηλικιακή ομάδα ατόμου κ.λπ.), ή ακόμη και συμπεριφορών, συγκεκριμένων γεγονότων (η συγκέντρωση ατόμων σε δημόσιο χώρο, η μετακίνηση πλήθους, η κίνηση και παραμονή οχήματος ή ατόμου σε συγκεκριμένο χώρο κ.λπ.) που καθορίζονται εκ των προτέρων από τους σχεδιαστές και τους χρήστες.

Στην πράξη, η αλγοριθμική επεξεργασία της αυτοματοποιημένης ανάλυσης εικόνας είτε συνδυάζεται με ήδη υπάρχουσες κάμερες "βιντεοπροστασίας" (αυτές που είναι εγκατεστημένες σε δημόσιους χώρους και έχουν εγκριθεί με διάταγμα για τους σκοπούς που ορίζονται στον κώδικα εσωτερικής ασφάλειας), είτε αναπτύσσεται ειδικά με ad hoc συσκευές.

Ακόμη και όταν η αλγοριθμική επεξεργασία ενσωματώνεται στις παραδοσιακές βιντεοκάμερες, η επεξεργασία δεδομένων που εκτελούν αλλάζει τη φύση και το πεδίο εφαρμογής της βιντεοεπιτήρησης, όπως τη γνωρίζουμε εδώ και αρκετές δεκαετίες.

Πράγματι, επιτρέποντας στους χρήστες τους να λαμβάνουν άμεσα και αυτόματα πολλές πληροφορίες που, σε ορισμένες περιπτώσεις, δεν θα μπορούσαν να εντοπιστούν μόνο με την ανάλυση της εικόνας από τον άνθρωπο, οι αλγόριθμοι αυτοί πολλαπλασιάζουν τις δυνατότητες των παραδοσιακών συσκευών βιντεοεπιτήρησης.

Οι "επαυξημένες" συσκευές βιντεοεπιτήρησης που εξετάζονται εδώ διαφέρουν από την επεξεργασία βιομετρικών δεδομένων (και πιο συγκεκριμένα από τις συσκευές αναγνώρισης προσώπου), διότι οι "επαυξημένες" συσκευές βιντεοεπιτήρησης:

- δεν επεξεργάζονται διαρκώς τα φυσικά, φυσιολογικά ή συμπεριφορικά χαρακτηριστικά των ανθρώπων (για παράδειγμα, μια "επαυξημένη" συσκευή κάμερας μπορεί να καταγράφει το δρόμο για να εντοπίζει κατηγορίες όπως διερχόμενα αυτοκίνητα, ποδήλατα, μοτοσικλέτες)

-  δεν έχουν πάντοτε ως σκοπό τη μοναδική ταυτοποίηση των ενδιαφερόμενων προσώπων, δηλαδή την αναγνώρισή τους από τη μία κάμερα στην άλλη (για παράδειγμα, μια "επαυξημένη" συσκευή κάμερας μπορεί να διαχωρίζει τους ανθρώπους σε ένα χώρο ανάλογα με την ηλικία τους ή θα εντοπίζει έναν καυγά ή μια επικίνδυνη συμπεριφορά μέσα στο πλήθος)

Παρά τα προφανή ζητήματα από την ανάπτυξη τέτοιων συστημάτων, η CNIL φάνηκε τουλάχιστον διαλλακτική ως προς την προοπτική νόμιμης λειτουργίας τους. Σύμφωνα με τη γνώμη της, οι κίνδυνοι αυτοί και η επακόλουθη επέμβαση σε θεμελιώδη δικαιώματα των πολιτών – εκτός από την ιδιωτικότητα και τα προσωπικά δεδομένα, η γαλλική αρχή αναφέρεται και στα δικαιώματα του συνέρχεσθαι, της ελευθερίας γνώμης, της θρησκευτικής ελευθερίας – μπορούν να περιορίζονται σε επίπεδο ανεκτό, εφόσον υπάρχει πρόβλεψη από το νόμο, τηρείται η αναλογικότητα και κυρίως παρακάμπτονται τα δικαιώματα των υποκειμένων.

Οι αντιδράσεις για τη λειτουργία του σχεδιαζόμενου συστήματος

Η μάλλον αναιμική προσέγγιση της γαλλικής αρχής ενδεχομένως συνδέεται με τη σχεδιαζόμενη νομοθετική πρωτοβουλία, σίγουρα όμως σχετίζεται με την ήδη διαπιστωθείσα λειτουργία των συστημάτων αυτών σε αρκετές γαλλικές πόλεις. Σύμφωνα με σχετικά  δημοσιεύματα, συστήματα αλγοριθμικής/αυτοματοποιημένης βιντεοεπιτήρησης λειτουργούν ήδη σε περισσότερους από 50 Δήμους της χώρας, ενώ η γνωστή γαλλική οργάνωση La Quadrature du Net ανεβάζει τον αριθμό αυτό σε 200. Σε κάθε περίπτωση, βέβαιον είναι πως ο αριθμός αυτός θα αυξηθεί1 εφόσον διευκρινιστούν οι προϋποθέσεις νόμιμης εγκατάστασης και ξεπεραστούν τα όποια ζητήματα επέμβασης σε θεμελιώδη δικαιώματα.

Οι συνεχείς αναφορές του τύπου σε ήδη υφιστάμενη λειτουργία καμερών με τεχνητή νοημοσύνη  δημιουργούν τον προβληματισμό πως σκοπός της πολιτείας δεν είναι (μόνο) η προσωρινή ρύθμιση μιας ειδικής περίστασης, αλλά η γενικότερη νομιμοποίηση ενός μηχανισμού που μέχρι σήμερα έχει στηθεί αποσπασματικά και χωρίς νομική κάλυψη. Οι κύριες αντιδράσεις που έχουν εκδηλωθεί εστιάζουν στον μάλλον αδιαιολόγητο, εν όψει των σκοπών, χρόνο «πειραματικής» λειτουργίας του συστήματος (μέχρι τον Ιούλιο του 2025), στη γενίκευση της λειτουργίας αυτής σε πάσης φύσεως πολιτιστικές εκδηλώσεις, στην απουσία σαφούς πλαισίου για το τι συνιστά «προκαθορισμένο γεγονός», εν τέλει στην πλήρη παράδοση της καθημερινότητας των πολιτών σε έναν αλγόριθμο.

Έντονες αντιδράσεις ως προς τις προτεινόμενες ρυθμίσεις, μεταξύ άλλων, προβάλλουν η Διεθνής Αμνησία, οι οργανώσεις Ligue des droits de l'homme και La Quadrature du Net και το Conseil National des Barreaux, εθνικό συμβούλιο των Γάλλων δικηγόρων. Οι αντιδράσεις δεν έχουν καμφθεί παρά τις όποιες νομοτεχνικές βελτιώσεις έγιναν πριν από την έγκριση του νομοσχεδίου από τη Γερουσία ή τον αποκλεισμό της χρήσης βιομετρικών τεχνολογιών αναγνώρισης προσώπου.

Πράγματι, η χρήση τεχνολογίας αναγνώρισης προσώπου θεωρήθηκε ως η κόκκινη γραμμή για τη νομιμότητα του συστήματος, η δε ρητή απαγόρευση της λειτουργίας αυτής προβλήθηκε ως το μεγάλο βήμα αναλογικότητας που έπρεπε να γίνει. Η επιχειρηματολογία αυτή δεν φαίνεται να πείθει.

«Το πρόβλημα είναι η χρήση βιομετρικών δεδομένων. Ακόμα και αν δεν υπάρχει αναγνώριση προσώπου, η ανάλυση της συμπεριφοράς και της κίνησης των ατόμων εξακολουθεί να είναι βιομετρική, αφού πρόκειται για ευαίσθητα δεδομένα που πρέπει να προστατεύονται», παρατηρεί εκπρόσωπος της Ligue des droits de l'homme στο Euronews.

Παρόμοιο προβληματισμό εκφράζει και η Διεθνής Αμνηστία: «Βέβαια, η κυβέρνηση ισχυρίζεται ότι δεν θα χρησιμοποιηθούν βιομετρικά δεδομένα για την ταυτοποίηση ατόμων. Ωστόσο, οι αλγόριθμοι θα αξιολογούν τις συμπεριφορές αναλύοντας σωματικά και συμπεριφορικά δεδομένα, τα οποία αποτελούν προσωπικά δεδομένα που υπόκεινται στο δικαίωμα στην ιδιωτική ζωή και τα οποία πρέπει να προστατεύονται.» Τους κινδύνους αυτούς αναγνωρίζει και η γαλλική αρχή προστασίας δεδομένων CNIL, η οποία παρατηρεί ότι: «Αυτές οι κάμερες είναι, από τη φύση τους, πολύ διαφορετικές από εκείνες που χρησιμοποιούνται παραδοσιακά: οι άνθρωποι δεν βιντεοσκοπούνται πλέον απλώς, αλλά αναλύονται με αυτοματοποιημένο τρόπο, σε πραγματικό χρόνο, προκειμένου να συλλεχθούν πληροφορίες για αυτούς. Αυτά τα νέα εργαλεία βιντεοεπιτήρησης μπορούν να οδηγήσουν σε μαζική επεξεργασία προσωπικών δεδομένων, ενδεχομένως χωρίς οι άνθρωποι να το γνωρίζουν, λόγω της "αόρατης" φύσης του λογισμικού ανάλυσης εικόνας που συνδέεται με τις κάμερες

Έτερος προβληματισμός είναι αυτός που αφορά στην αποτελεσματικότητα των συστημάτων αυτών, με τη Διεθνή Αμνηστία να επισημαίνει πως «η αποτελεσματικότητα αυτών των τεχνολογιών αξιολόγησης στην καταπολέμηση του εγκλήματος αποτελεί αντικείμενο έντονης κριτικής από την επιστημονική κοινότητα». Την ίδια άποψη εκφράζει και το Conseil National des Barreaux: «Όσον αφορά τη χρησιμότητα ενός τέτοιου μέτρου, καμία μελέτη δεν αποδεικνύει την αποδεικνύει. Έτσι, ενώ ορισμένοι Δήμοι έχουν χρησιμοποιήσει αυτοματοποιημένη βιντεοεπιτήρηση - εκτός οποιουδήποτε νομικού πλαισίου - δεν ήταν δυνατόν να αποδειχθεί η χρησιμότητά τους ως προς την ασφάλεια

Περαιτέρω, έντονοι προβληματισμοί εγείρονται ως προς τις συνέπειες μιας γενικευμένης επιτήρησης του πληθυσμού. «Η σκέψη ή η γνώση ότι παρακολουθούνται μπορεί επίσης να οδηγήσει τους ανθρώπους να αλλάξουν τη συμπεριφορά τους ή να αυτολογοκριθούν. Η αποτρεπτική επίδραση μιας τέτοιας επιτήρησης του δημόσιου χώρου ενέχει επομένως και τον κίνδυνο παραβίασης των δικαιωμάτων της ελευθερίας της έκφρασης και της ειρηνικής συνάθροισης», επισημαίνει η Διεθνής Αμνηστία, ενώ η ακόμη μαχητικότερη La Quadrature du Net παρατηρεί πως:

«Όπως συμβαίνει με κάθε σύστημα επιτήρησης δημόσιου χώρου, το AVS θα παρακολουθεί κυρίως όσους περνούν τον περισσότερο χρόνο τους σε εξωτερικούς χώρους - ανθρώπους που, λόγω έλλειψης πόρων, έχουν ελάχιστη ή καθόλου πρόσβαση σε ιδιωτικούς χώρους για να κοινωνικοποιηθούν ή να ζήσουν. Επιπλέον, το AVS ανιχνεύει συμπεριφορές πιο αποτελεσματικά όταν έχει εκπαιδευτεί σε μεγάλο αριθμό ακολουθιών εικόνων που απεικονίζουν την ίδια ενέργεια. Έτσι, οι πιο αποτελεσματικά ανιχνευόμενες συμπεριφορές θα είναι αυτές που συναντώνται συχνότερα στο δρόμο και στα μέσα μεταφοράς - οι συμπεριφορές που είναι τυπικές για τους πληθυσμούς που περνούν τον περισσότερο χρόνο εκεί, ανεξάρτητα από το αν οι δραστηριότητες αυτές είναι νόμιμες ή παράνομες.

Είναι ακριβώς αυτές οι συμπεριφορές που αναζητούν οι ιδιοκτήτες των συστημάτων2: ζητιανιά, επαιτεία, στατικές συναντήσεις. Είναι ο τρόπος ζωής των πληθυσμών της της εργατικής τάξης που θα στοχοποιηθεί πρώτος, παρόλο που δεν συνιστά σχεδόν ποτέ έγκλημα. […] Η εστίαση των AVS στους φτωχότερους πληθυσμούς δεν είναι απλώς η "παρενέργεια" μιας νέας τεχνολογίας που εξακολουθεί να έχει κάποιες "προκαταλήψεις". Μάλλον το αντίθετο, το AVS πωλείται ακριβώς ως ένας τρόπος καταπολέμησης συμπεριφορών που ορίζονται ως "μη φυσιολογικές". Παρόλο που είναι απολύτως συνηθισμένες και "φυσιολογικές" για ένα μεγάλο μέρος του πληθυσμού, ο χαρακτηρισμός αυτών των συμπεριφορών ως κάτι αντίθετο επιτρέπει την υποτίμηση των πληθυσμών που τις υιοθετούν. Έτσι, η AVS είναι τόσο ένα εργαλείο κοινωνικού αποκλεισμού όσο και ένα εργαλείο πολιτικής προπαγάνδας, το αποτέλεσμα του οποίου θα είναι να εμπεδωθεί η αίσθηση ότι ορισμένοι πληθυσμοί (που επιλέγονται αυθαίρετα από τους παρόχους VSA και τους πελάτες τους) δεν είναι "φυσιολογικοί" και πρέπει να αποκλείονται από τον δημόσιο χώρο

Τέλος, όπως έχει ήδη αναφερθεί, αντιδράσεις προκαλεί η διάρκεια και έκταση εφαρμογής των μέτρων, με σαφείς ανησυχίες ως προς το ενδεχόμενο διατήρησής τους επ’ αόριστον. «Η κυβέρνηση επιμένει στον πειραματικό και έκτακτο χαρακτήρα του νομοσχεδίου, ωστόσο το πεδίο εφαρμογής του υπερβαίνει κατά πολύ τους Ολυμπιακούς Αγώνες του 2024. Διότι ο μηχανισμός παρακολούθησης περιλαμβάνει όλες τις αθλητικές, εορταστικές και πολιτιστικές εκδηλώσεις από την ψήφιση του νόμου μέχρι τον Ιούνιο του 2025», επισημαίνει η Διεθνής Αμνηστία, με την εκπρόσωπό της Katia Roux να προσθέτει πως «συνεπώς, η εξαίρεση κινδυνεύει να γίνει ο κανόνας στο πλαίσιο της σαφούς πρόθεσης των γαλλικών αρχών να επεκτείνουν τη δυνατότητά τους να επιτηρούν. Οι Ολυμπιακοί Αγώνες δεν πρέπει να χρησιμοποιηθούν ως πρόσχημα για να διευκολυνθεί η εγκαθίδρυση μιας μόνιμης κατάστασης εξαίρεσης.».

Η γνώμη της CNIL επί του νομοσχεδίου

Η γαλλική αρχή δημοσιοποίησε στις 4 Ιανουαρίου τη γνώμη της για το σχέδιο νόμου, τις διατάξεις του οποίου βρίσκει ικανοποιητικές και σύμφωνες με τις προηγηθείσες συστάσεις της. Όπως ειδικότερα παρατηρείται:

«Το νομοσχέδιο θεσπίζει ένα πειραματικό πλαίσιο που επιτρέπει τη χρήση, υπό ορισμένες προϋποθέσεις, αλγοριθμικής επεξεργασίας εικόνων που καταγράφονται από συσκευές βιντεοπροστασίας ή drones. […]

Οι επεξεργασίες αυτές περιλαμβάνουν συστήματα τεχνητής νοημοσύνης (AI), που ονομάζονται "επαυξημένες κάμερες". Σκοπός τους θα είναι η αυτόματη ανάλυση εικόνων σε πραγματικό χρόνο, μέσω αλγορίθμων, για την ανίχνευση προκαθορισμένων γεγονότων, για παράδειγμα η ανίχνευση κινήσεων πλήθους, αποσκευών, χειρονομιών ή ύποπτης συμπεριφοράς κ.λπ.

Η χρήση αυτών των συσκευών εγείρει νέα και ουσιώδη ζητήματα όσον αφορά την προστασία της ιδιωτικής ζωής: αυτά τα εργαλεία ανάλυσης εικόνων μπορούν να οδηγήσουν σε μαζική συλλογή προσωπικών δεδομένων και να επιτρέψουν την αυτοματοποιημένη παρακολούθηση σε πραγματικό χρόνο. Η ανάπτυξη, έστω και πειραματική, αυτών των συσκευών αποτελεί σημείο καμπής που θα συμβάλει στον καθορισμό του γενικού ρόλου που θα αποδοθεί στις τεχνολογίες αυτές και γενικότερα στην τεχνητή νοημοσύνη. Στη θέση της, η οποία δημοσιεύθηκε τον Ιούλιο του 2022, η CNIL ζήτησε να τεθούν κόκκινες γραμμές για αυτού του είδους τις συσκευές και πρότεινε τρόπους για τη θέσπιση κατάλληλου πλαισίου, εάν πρόκειται να χρησιμοποιηθούν για ορισμένες σκοπούς.

Οι εγγυήσεις που προβλέπονται από το νομοσχέδιο καθιστούν δυνατό τον περιορισμό των κινδύνων παραβίασης των δεδομένων και της ιδιωτικής ζωής των ατόμων και συνάδουν με τις συστάσεις που διατύπωσε η CNIL στη θέση της για τις επαυξημένες κάμερες του Ιουλίου 2022 :

- πειραματική ανάπτυξη,

- περιορισμένη χρονικά και χωρικά,

- για ορισμένους συγκεκριμένους σκοπούς και που αντιστοιχούν σε σοβαρούς κινδύνους για τα άτομα,

- απουσία επεξεργασίας βιομετρικών δεδομένων,

- έλλειψη διασύνδεσης με άλλα αρχεία,

- απουσία αυτοματοποιημένων αποφάσεων: οι αλγόριθμοι χρησιμεύουν μόνο για να σηματοδοτούν δυνητικά προβληματικές καταστάσεις στους ανθρώπους που στη συνέχεια διενεργούν ανθρώπινη ανάλυση.»

H κατευναστική αυτή προσέγγιση και η αναφορά σε «εγγυήσεις που περιορίζουν κινδύνους» δεν φαίνεται πολύ πειστική· στην πραγματικότητα και σε συνέχεια των από Ιουλίου 2022 κατευθύνσεων της ίδιας Αρχής διαφαίνεται μια τακτική υποχώρηση της CNIL και αναδίπλωσή της πίσω από την έσχατη γραμμή άμυνας που της έχει απομείνει, το facial recognition3. Οτιδήποτε δεν περιλαμβάνει «επεξεργασία βιομετρικών» είναι υπό συζήτηση στο πλαίσιο της αναλογικότητας εν όψει απροσδιόριστων και διαρκώς μεταβαλλόμενων σκοπών. Θα μπορούσαμε να παρατηρήσουμε πως η όλη συζήτηση περί νομιμότητας και αναλογικότητας έχει φύγει από το «απαγορεύεται, εκτός εάν» και έχει πλέον μεταφερθεί στο «επιτρέπεται, εφόσον».

Είναι άλλωστε μάλλον προφανές πως ο «πειραματικός» χαρακτήρας του εγχειρήματος έγκειται στη μεταολυμπιακή αξιοποίηση των δυνατοτήτων της τεχνητής νοημοσύνης και τη νομιμοποίηση μιας τεχνολογικής λύσης, που οι εταιρείες προωθούν και οι τοπικές αρχές υποστηρίζουν ένθερμα. Ουσιαστικά, οι ολυμπιακοί αγώνες αποτελούν μάλλον τη δικαιολογία για την πλήρη και χωρίς προσκόμματα ανάπτυξη ενός συστήματος που πολύ δύσκολα θα μπορούσε να εγκριθεί, αλλά και μια πρώτης τάξεως ευκαιρία για την αξιολόγηση (ουσιαστικά μάλλον τεκμηρίωση) των οφελών του συστήματος αυτού, που όπως προαναφέρθηκε, απουσιάζει.

Η προοπτική αυτή επιβεβαιώνεται από τα ίδια τα μέλη της Γερουσίας που ενέκριναν το νομοσχέδιο, αλλά και από το Συμβούλιο της Επικρατείας που ζητά την «αξιολόγηση των προκλήσεων του πειράματος» έναν ολόκληρο χρόνο μετά τη λήξη των ολυμπιακών αγώνων: «Η λειτουργία αυτή θα συμβάλει στην ασφάλεια των Αγώνων και θα χρησιμοποιηθεί για την αξιολόγηση σε πραγματικό χρόνο των πλεονεκτημάτων αυτής της τεχνολογίας» δηλώνει Γαλλίδα γερουσιαστής των Républicains, αφήνοντας σαφώς ανοικτό το ενδεχόμενο για συνέχιση της χρήσης του συστήματος και μετά τους αγώνες. Κάπως πιο συγκρατημένα, το Conseil d'État προτείνει η διάρκεια του πειράματος να παραταθεί μέχρι τον Ιούνιο του 2025, «ώστε να εξαχθούν όλα τα χρήσιμα διδάγματα από αυτό μετά τους Ολυμπιακούς και Παραολυμπιακούς Αγώνες, οι οποίοι θα ολοκληρωθούν στις 8 Σεπτεμβρίου 2024, σε μια έκθεση αξιολόγησης που θα αποσταλεί στο Κοινοβούλιο και την CNIL. Το περιεχόμενο αυτής της αξιολόγησης θα πρέπει, δεδομένων των νέων και ουσιαστικών προκλήσεων όσον αφορά τις ελευθερίες και την ιδιωτική ζωή που συνεπάγεται αυτός ο πειραματισμός, να καθοριστεί με διάταγμα του Συμβουλίου της Επικρατείας, το οποίο θα εκδοθεί μετά από διαβούλευση με την CNIL. Το εν λόγω διάταγμα πρέπει ιδίως να καθορίζει τους όρους για μια αντικειμενική και διεπιστημονική αξιολόγηση του πειράματος, των κινδύνων και των οφελών του και να καθορίζει τις διαδικασίες για τη συμμετοχή του κοινού και των ενδιαφερόμενων φορέων στην αξιολόγηση αυτή.» Το ενδιαφέρον που επιδεικνύει το Ανώτατο Δικαστήριο δεν παραπέμπει σε εγχείρημα της μιας (έκτακτου χαρακτήρα) χρήσης.

Πρόκειται τελικά για ένα σύστημα πειραματικό ή για ειδικό μέτρο έκτακτης ανάγκης εν όψει των αγώνων; Μπορούν οι ειδικές απαιτήσεις ασφάλειας των Ολυμπιακών Αγώνων να θεμελιώσουν μια αναλογικότητα που θα επιτρέψει τη συνέχιση της λειτουργίας του χωρίς την ύπαρξη «ειδικής, συγκεκριμένης και σημαντικής απειλής για τη δημόσια ασφάλεια και την έννομη τάξη»;4 Έχει τις ίδιες σταθμίσεις αναλογικότητας η πρόληψη ενός τρομοκρατικού χτυπήματος σε μια πόλη με 13 εκατομμύρια επισκέπτες με την αντιμετώπιση της κοσμοσυρροής σε μια πύλη εισόδου; Είναι κρίσιμο επιχείρημα το ότι η τεχνητή νοημοσύνη και η διαρκής επιτήρηση του δημόσιου χώρου αποσκοπούν στο να καλύψουν τις ελλείψεις σε προσωπικό; Ποιος είναι εν τέλει ο ακριβής σκοπός, στο όνομα του οποίου θα κριθεί η αναλογικότητα της επέμβασης στα δικαιώματα των πολιτών; Αποτελεί η αναγνώριση προσώπων τη μοναδική τελικά κόκκινη γραμμή για τη χρήση τεχνητής νοημοσύνης στην επιτήρηση του δημοσίου χώρου και μέχρι πότε θα εξαιρείται αυτή από ένα σύστημα ήδη εγκατεστημένο και πλήρως λειτουργικό;

«Οι δικηγόροι δεν θα αφήσουν τους Ολυμπιακούς Αγώνες να μετατραπούν σε διαγωνισμό εφευρετικότητας για την παραβίαση των ατομικών ελευθεριών», απαντά κατηγορηματικά ο Πρόεδρος του Conseil National des Barreaux.

Μετά την έγκρισή του από τη Γερουσία, το σχέδιο νόμου θα πρέπει να περάσει και από την Εθνοσυνέλευση.

  • 1. βλ. ενδεικτικά δημοσιεύματα για τη Μασσαλία (Marseille’s fight against AI surveillance), τη Νίκαια (Safe City project in Nice: Testing facial recognition) και τη Ρενς (Residents of this major French city were being watched by an AI without being informed)
  • 2. Για παράδειγμα, η Régie autonome des transports parisiens πειραματίστηκε πρόσφατα σε έναν από τους κύριους σταθμούς του μετρό της πόλης με ένα σύστημα εντοπισμού ατόμων που παραμένουν ακίνητα για περισσότερα από 300 δευτερόλεπτα.
  • 3. To facial recognition έχει την ατυχία να έχει συνδεθεί με την εκτεταμένη χρήση του από χώρες και καθεστώτα που δεν συγκινούνται ιδιαίτερα με τα ατομικά δικαιώματα. Υπό την έννοια αυτή παραμένει εδώ και χρόνια στιγματισμένο, ως εκ τούτου έχει περιθωριοποιηθεί μέχρι οι συνθήκες να ωριμάσουν και να θεωρηθεί και αυτό αποδεκτό.
  • 4. ΑΠΔΠΧ 58/2005

Δημήτρης Βέρρας

Η αστική ευθύνη του οδικού μεταφορέα κατά τη CMR
Πολιτική Δικονομία ΙΙΙ - Β έκδοση

ΝΙΚΟΛΑΟΣ ΝΙΚΑΣ

ΑΣΤΙΚΟ ΔΙΚΟΝΟΜΙΚΟ ΔΙΚΑΙΟ / ΕΝΔΙΚΑ ΜΕΣΑ ΚΑΙ ΑΝΑΚΟΠΕΣ