logo-print

Τεχνητή Νοημοσύνη και Προσωπικά Δεδομένα - Φοιτητές γράφουν για την Τεχνητή Νοημοσύνη

Μια σχέση αλληλεπίδρασης η οποία μπορεί να οδηγήσει την ανθρωπότητα σε άλματα προόδου ή να λάβει τρομακτικά επικίνδυνες διαστάσεις

Δίκαιο πληροφορικής - E έκδοση
Γενικός Κανονισμός για την Προστασία των Προσωπικών Δεδομένων και Ευθύνη για Αποζημίωση

Κάθε Νοέμβριο η ELSA γιορτάζει, με μία ημέρα αφιερωμένη στην προάσπιση των ανθρωπίνων δικαιωμάτων, την γνωστή ως “ELSA Day”, σε όλα τα Σωματεία της ανά τον κόσμο.

Το 2021, βασική θεματική της γιορτής αυτής αποτέλεσε η “Τεχνητή Νοημοσύνη και Ανθρώπινα Δικαιώματα” στο πλαίσιο της οποίας διοργανώθηκε η Ομάδα Νομικής Έρευνας.

Στην εκδήλωση που έλαβε χώρα τον Νοέμβριο του 2020, φοιτητές, νομικοί και ακαδημαϊκοί παρευρέθηκαν διαδικτυακά, προβληματίστηκαν και γνώρισαν πτυχές του παγκόσμιου αυτού φαινομένου, θέτοντας τα θεμέλια για μία σειρά από εργασίας.

Το Lawspot δημοσιεύει τις εργασίες υπό το γενικό τίτλο "Φοιτητές γράφουν για την Τεχνητή Νοημοσύνη", αρχής γενομένης από σήμερα.

Τεχνητή Νοημοσύνη και Προσωπικά Δεδομένα

Μια σχέση αλληλεπίδρασης η οποία μπορεί να οδηγήσει την ανθρωπότητα σε άλματα προόδου ή να λάβει τρομακτικά επικίνδυνες διαστάσεις.

Γκουτζιαμάνη Αγνή, Ασκούμενη Δικηγόρος ΔΣΘ

Μεταπτυχιακή Φοιτήτρια “Διεθνείς & Ευρωπαϊκές Νομικές Σπουδές ΑΠΘ”

Μέλος της ομάδας LRG (Legal Research Group) ELSA Komotini “Τεχνητή Νοημοσύνη και Ανθρώπινα Δικαιώμaτα”

Εισαγωγή

Με την εμφάνιση της πανδημίας η χρήση της τεχνολογίας αυξήθηκε ραγδαία σε όλους τους τομείς της ζωής μας, επιταχύνοντας τη διαδικασία της ψηφιακής μετάβασης - διευκολύνοντας την ομαλή ροή αρκετών επαγγελμάτων και δραστηριοτήτων. Τα τελευταία χρόνια γίνεται όλο και πιο συχνή αναφορά στην αξία των προσωπικών δεδομένων. Τι γίνεται όμως όταν αυτά αποτελούν ουσιώδη συστατικά στοιχεία για τη βέλτιστη χρήση της τεχνητής νοημοσύνης;

1. Ορισμός τεχνητής νοημοσύνης και παραδείγματα

Όταν αναφερόμαστε στην τεχνητή νοημοσύνη, θα πρέπει να κατανοήσουμε την έννοια της, που τη βρίσκουμε καθημερινά και πως εξελίσσεται η σχέση της με τα δεδομένα από τα οποία τροφοδοτείται.Κατ’ αρχήν ως τεχνητή νοημοσύνη ορίζεται η ικανότητα μιας μηχανής να αναπαράγει γνωστικές λειτουργίες ενός ανθρώπου, όπως η μάθηση, ο σχεδιασμός και η δημιουργικότητα. Μέσω της τεχνητής νοημοσύνης οι μηχανές καθίστανται ικανές να κατανοούν το περιβάλλον τους, να επιλύουν προβλήματα και να κατευθύνονται προς ένα συγκεκριμένο στόχο. Το σύστημα τεχνητής νοημοσύνης τροφοδοτείται από δεδομένα (ήδη έτοιμα ή συλλεγμένα μέσω αισθητήρων, π.χ. κάμερας), τα επεξεργάζεται και έπειτα ανταποκρίνεται βάσει των συγκεκριμένων δεδομένων και της λειτουργίας για την οποία έχει ορισθεί. Τα συστήματα τεχνητής νοημοσύνης έχουν την ικανότητα να προσαρμόζουν τη συμπεριφορά τους και τις απαιτήσεις του ως ένα βαθμό, μέσω της ανάλυσης συνεπειών προηγούμενων ενεργειών και των νέων δεδομένων και μέσω της αυτονομίας - δίχως την ανθρώπινη παρέμβαση - που διαθέτουν.

Που συναντάμε όμως την τεχνητή νοημοσύνη; Αρχικά, η ΤΝ χρησιμοποιείται ευρέως στις μηχανές αναζήτησης (Google), για την παροχή εξατομικευμένων συστάσεων, στη συγκεκριμένη περίπτωση βάσει προηγούμενων αναζητήσεων και αγορών ή άλλων συμπεριφορών. Επίσης, τα smartphones με τη βοήθεια της τεχνητής νοημοσύνης προσφέρουν βελτιστοποιημένες και εξατομικευμένες ρυθμίσεις στους χρήστες τους. Μια άλλη πολύ συχνή χρήση της τεχνητής νοημοσύνης είναι οι αυτόματες μεταφράσεις, οι οποίες βασίζονται στην παροχή και βελτίωση μεταφράσεων. Τα έξυπνα σπίτια και οι έξυπνες πόλεις είναι ιδέες που κυρίως στην Ελλάδα προσιδιάζουν ακόμα σε σενάρια επιστημονικής φαντασίας. Με την ΕΕ όμως τώρα να στοχεύει στην ψηφιακή και ενεργειακή μετάβαση, πρόκειται να ενταχθούν στην καθημερινότητα μας, με προσωπικό μας βοηθό την τεχνητή νοημοσύνη.Για παράδειγμα, οι έξυπνοι θερμοστάτες αναλύουν τη συμπεριφορά μας προκειμένου να αποθηκεύσουν ενέργεια, ενώ οι έξυπνες πόλεις βασίζονται σε ευφυή συστήματα ρύθμισης της κυκλοφορίας για να βελτιώσουν τη συνδεσιμότητα και να μειώσουν την κυκλοφοριακή συμφόρηση. Επίσης σε ζητήματα ασφάλειας, και κυρίως όσον αφορά την κυβερνοασφάλεια, τα συστήματα τεχνητής νοημοσύνης μπορούν να συμβάλουν στην αναγνώριση και αντιμετώπιση επιθέσεων και απειλών στον κυβερνοχώρο βάσει της διαρκούς εισροής δεδομένων.

Τέλος, η τεχνητή νοημοσύνη έχει χρησιμοποιηθεί και κατά του Covid-19, σε αεροδρόμια σε συσκευές θερμικής απεικόνισης καθώς και για την καταπολέμηση της παραπληροφόρησης στα κοινωνικά δίκτυα.1

2. Η απαίτηση της ελαχιστοποίησης και η Τεχνητή Νοημοσύνη

Η αρχή της ελαχιστοποίησης του ΓΚΠΔ2 αποτελεί και το συνδετικό κρίκο της σχέσης των προσωπικών δεδομένων με την τεχνητή νοημοσύνη. Όπως αναφέρθηκα στο προοίμιο, τα δεδομένα αποτελούν το καύσιμο, το οξυγόνο, της τεχνητής νοημοσύνης. Πρόκειται για μια σχέση αλληλεξάρτησης. Όσα περισσότερα δεδομένα εισρέουν σε ένα σύστημα τεχνητής νοημοσύνης, τόσα παραπάνω και πιο ακριβή αποτελέσματα μπορεί να παράγει.Πως όμως μπορεί να συνυπάρχει η αρχή της ελαχιστοποίησης με την σωστή λειτουργία ενός συστήματος τεχνητής νοημοσύνης; Η συγκεκριμένη αρχή πρεσβεύει την ευρύτερη αρχή της αναλογικότητας, η οποία απαιτεί τον περιορισμό του εύρους της παρέμβασης στην ιδιωτικότητα του ατόμου μέσω της χρήσης των δεδομένων του. Πρακτικά, ο περιορισμός αυτός μπορεί να επιτευχθεί με το να μην καθίσταται εύκολη η ταυτοποίηση του ατόμου, μέσω του περιορισμού του όγκου και της φύσης των πληροφοριών του υποκειμένου - που πρόκειται να τροφοδοτήσουν το σύστημα τεχνητής νοημοσύνης. Ιδίως μέσω της χρήσης τεχνικών ανωνυμοποίησης ή ψευδωνυμοποίησης, καθίσταται δύσκολη η ταυτοποίηση του υποκειμένου και έτσι περιορίζεται ο βαθμός επέμβασης και - παράλληλα - επιτρέπεται διατήρηση των (μη ευχερώς ταυτοποιήσιμων) δεδομένων για μεγάλα χρονικά διαστήματα, ικανοποιώντας με αυτό τον τρόπο, τόσο τυχόν επιχειρησιακές ανάγκες, αλλά και σε συμμόρφωση ταυτόχρονα με μία άλλη αρχή του ΓΚΠΔ, αυτήν του περιορισμού της περιόδου αποθήκευσης.3

Τι γίνεται όμως αν περιορίσουμε τα δεδομένα που εισάγουμε σε ένα σύστημα τεχνητής νοημοσύνης; Πως θα λειτουργήσει με λιγότερο “οξυγόνο” - έχοντας συμμορφωθεί με την αρχή της ελαχιστοποίησης όπως προβλέπεται στον ΓΚΠΔ; Περιορίζοντας τα δεδομένα που θα χρησιμοποιηθούν από την τεχνητή νοημοσύνη την αποδυναμώνουμε και ίσως εισάγουμε ακούσια κάποια μεροληπτικά στοιχεία. Αυτό συμβαίνει διότι η τεχνητή νοημοσύνη μαθαίνει από όλα τα δεδομένα που λαμβάνει. Αν εκπαιδευτεί σε μικρή βάση δεδομένων - η οποία θα αντικατοπτρίζει μόνο ένα μέρος του πληθυσμού, τότε αυτά τα συστήματα τεχνητής νοημοσύνης θα παράγουν μια μεροληπτική και ρηχή οπτική της πραγματικής κατάστασης. Με αυτό τον τρόπο όμως παρατηρούμε ότι υπάρχει σύγκρουση και με την αρχή της θεμιτής επεξεργασίας (fairness). Τα συστήματα τεχνητής νοημοσύνης χρειάζονται δεδομένα έτσι ώστε να αντιμετωπίσουν τυχόν μεροληπτικά στοιχεία. Δεδομένα σχετικά με το χρώμα, την εθνικότητα, το φύλο και άλλα ευαίσθητα δεδομένα μπορούν να συνδράμουν στον εντοπισμό και στη διόρθωση της μεροληπτικής τεχνητής νοημοσύνης.4

3. Μεροληπτική Τεχνητή Νοημοσύνη

Πως μας επηρεάζει όμως στην πράξη η τεχνητή νοημοσύνη; Οι απόψεις διίστανται και κάποιες προβλέψεις είναι αρκετά ανησυχητικές καθώς ενδέχεται η τεχνητή νοημοσύνη να οξύνει την κοινωνικές ανισότητες, επηρεάζοντας περισσότερο τις αδύναμες κοινωνικές ομάδες, τους ασθενέστερους οικονομικά και γενικά να φέρει μαζί της τις προκαταλήψεις που διακατέχουν τους ανθρώπους χωρίς κανένα έλεγχο και όριο. Ορισμένοι προβλέπουν μάλιστα ένα νέο καθεστώς εποπτείας, προφίλ, τιμωρίας, περιορισμού και αποκλεισμού, το οποίο αποκαλείται το «ψηφιακό φτωχό σπίτι». Παρόλο που ο σκοπός της τεχνητής νοημοσύνης στοχεύει να συμβάλλει στη διευκόλυνση της ζωής του ανθρώπου και στην βελτίωση του βιοτικού επιπέδου εν γένει, οι αρνητικές επιπτώσεις που μπορεί να επιφέρει η λανθασμένη χρήση ή όχι αρκετά προστατευτική για το υποκείμενο νομοθεσία είναι αρκετά δυσοίωνες και θα αμβλύνουν το οικονομικό και κοινωνικό χάσμα, επιβαρύνοντας τους ασθενέστερους.

Για παράδειγμα ένα εργαλείο ΑΙ για την αξιολόγηση της πιστοληπτικής ικανότητας μπορεί να καταστεί ιδιαίτερα επικίνδυνο όταν κάνει φυλετικές διακρίσεις. Για να καταλάβουμε πώς λειτουργεί ένα τέτοιο σύστημα, ο αλγόριθμος που χρησιμοποιείται από ένα πιστωτικό ίδρυμα μπορεί να αναπτυχθεί χρησιμοποιώντας δεδομένα από προϋπάρχουσες αξιολογήσεις πιστοληπτικής ικανότητας ή με βάση τα αρχεία εξόφλησης δανείου συγκεκριμένου πιστωτικού ιδρύματος. Εναλλακτικά, μπορεί να χρησιμοποιήσει δεδομένα που είναι ευρέως διαθέσιμα στο διαδίκτυο - για παράδειγμα, η συμπεριφορά στα ηλεκτρονικά μέσα κοινωνικής δικτύωση ή τα γενικευμένα χαρακτηριστικά σχετικά με τη περιοχή στην οποία ζει ο αιτών. Εάν ακόμη και λίγες από τις πηγές των δεδομένων αυτών περιέχουν μεροληπτικές πληροφορίες, αν περιέχουν δηλαδή πληροφορίες σχετικά με το φύλο, τη φυλή, το χρώμα ή την εθνικότητα, ή συλλέξαμε δεδομένα που δεν είναι αντιπροσωπευτικά, τότε θα μπορούσαμε να δημιουργήσουμε άθελα μας έναν μεροληπτικό αλγόριθμο ΑΙ.

Ένα ακόμη παράδειγμα μεροληπτικής τεχνητής νοημοσύνης μπορεί να εντοπιστεί στα αυτοματοποιημένα δικαστικά συστήματα. Δηλαδή, ένα σύστημα AI το οποίο δημιουργείται από προγραμματιστές προκειμένου να αξιολογήσει την συμπεριφορά ενός κατηγορούμενου, βασιζόμενο σε προσωπικά χαρακτηριστικά όπως είναι η ηλικία,το φύλο, η γεωγραφία,το οικογενειακό υπόβαθρο και το καθεστώς απασχόλησης. Ως αποτέλεσμα, δύο άτομα που κατηγορούνται για το ίδιο έγκλημα ενδέχεται να λαμβάνουν διαφορετικά αποτελέσματα σε ότι αφορά την πρόβλεψη τέλεσης ενός αδικήματος, της εγγύησης που θα πρέπει να καταβάλλουν για να μην φυλακιστούν ή ακόμα και της επιβαλλόμενης ποινής με βάση δεδομένα που αφενός είναι πέρα από τον έλεγχό τους και αφετέρου οι ίδιοι και οι συνήγοροι τους δεν έχουν τρόπο να εκτιμήσουν ή να αμφισβητήσουν αφού δεν αποκαλύπτεται ο μηχανισμός πίσω από τον αλγόριθμο που οδηγεί στις συγκεκριμένες επιλογές.

Σε αυτές τις περιπτώσεις αντιλαμβανόμαστε πόσο σημαντική είναι η ανθρώπινη επέμβαση, ο έλεγχος των αυτοματοποιημένων αποφάσεων καθώς και τα κριτήρια που χρησιμοποιήθηκαν για να οδηγηθούν σε αυτά τα αποτελέσματα. Πως είναι δυνατόν να εντοπίσουμε όλες αυτές τις διακρίσεις τότε που μπορεί να γίνουν εις βάρος κάποιου υποκειμένου; Το ζήτημα με τα συστήματα ΤΝ είναι ότι από τη στιγμή που ο αλγόριθμος περιέχει λάθη στην αρχική βάση δεδομένων, είναι αρκετά δύσκολο έως και ακατόρθωτο (στην περίπτωση της ισχυρής τεχνητής νοημοσύνης) να εντοπιστεί το λάθος και άρα εν προκειμένω η διάκριση, αν δεν παύσεις ολοκληρωτικά τη λειτουργία του συστήματος και το επανασχεδιάσεις από την αρχή.5

4. Black Box

Τι είναι όμως αυτό που δυσχεραίνει τόσο τον εντοπισμό διακρίσεων που μπορεί να κάνει ένας αλγόριθμος; Γιατί ο τρόπος λειτουργίας ενός συστήματος τεχνητής νοημοσύνης παραμένει μυστήριο για τον άνθρωπο; Ο τρόπος λειτουργίας ενός συστήματος AI χαρακτηρίζεται και ως BLACK BOX, μαύρο κουτί, καθώς είναι αδύνατο για ανθρώπινους χρήστες να αποκτήσουν πρόσβασή στον εσωτερικό τρόπο λειτουργίας και τη διαδικασία λήψης αποφάσεων που βασίζεται σε αλγόριθμους και στατιστικούς συσχετισμούς δεδομένων. Μια ακόμα θεμελιώδης αρχή του GDPR που δοκιμάζεται με την έννοια του Black Box είναι η αρχή της διαφάνειας. Με ποιο τρόπο μπορεί να εξασφαλισθεί τελικά η διαφανής επεξεργασία δεδομένων εφόσον τα υποκείμενα δεν μπορούν να έχουν πρόσβαση στη λογική της επεξεργασίας ; Η παροχή διόδου διαφάνειας στο μαύρο κουτί είναι από τα ζητήματα που έχουν προβληματίσει περισσότερο την επιστημονική κοινότητα.

5. Πως εξηγείται η λογική επεξεργασίας;

Προκειμένου να εξηγηθεί η λογική επεξεργασίας, το υπολογιστικό μοντέλο θα πρέπει να εκπαιδεύεται να χρησιμοποιεί σωστά και συναφή δεδομένα, καθώς και να αξιολογεί ποια δεδομένα είναι πιο σημαντικά για τον εκάστοτε σκοπό επεξεργασίας. Θα πρέπει να μπορεί να δίνει τις εξής απαντήσεις:

1. Ποιοί ήταν οι συγκεκριμένοι παράγοντες που οδήγησαν στη συγκεκριμένη απόφαση;

2. Αν αλλάζαμε κάποιο παράγοντα, θα υπήρχε και τροποποίηση της απόφασης;

3. Ποιός είναι ο λόγος που οδήγησε σε 2 διαφορετικές αντιμετωπίσεις παρόμοιων υποθέσεων;

Γι’ αυτούς τους λόγους, για την εξασφάλιση της διαφάνειας και του explainability των συστημάτων τεχνητής νοημοσύνης, είναι απαραίτητο κατά τη διαδικασία του σχεδιασμού τους να εισάγονται μηχανισμοί ελέγχου και ασφάλειας. Με αυτό τον τρόπο θα αποφεύγονται σε ένα μεγάλο βαθμό οι αστοχίες του συστήματος, οι λανθασμένες αποφάσεις καθώς και το υποκείμενο θα νιώθει ασφάλεια πως δεν είναι έρμαιο των αυτοματοποιημένων συστημάτων. Στην εξέταση της συμπόρευσης της τεχνητής νοημοσύνης με τα προσωπικά δεδομένα κρίνεται απαραίτητος ο ανθρώπινος έλεγχος, τόσο κατά τον καθορισμό κριτηρίων λειτουργίας έτσι ώστε να αποφευχθεί να μεταδοθούν ανθρώπινα “πάθη” στα συστήματα AI καθώς και μετέπειτα, μέσω ποιοτικού ελέγχου για τη λειτουργία και το αποτέλεσμα που έφερε ο αλγόριθμος. Έτσι μειώνονται κατακόρυφα οι πιθανότητες να έρθουμε αντιμέτωποι με αυθαίρετες διακριτικές μεταχειρίσεις υποκειμένων, διατηρώντας τον έλεγχο στο πεδίο των αυτοματοποιημένων συστημάτων.6

6. Λήψη απόφασης χωρίς ανθρώπινη ανάμειξη - δικαίωμα παρέμβασης φυσικού προσώπου (άρθρο 22 GDPR)

Το συγκεκριμένο δικαίωμα μεταφράζεται ως το δικαίωμα του υποκειμένου να μην υπόκειται σε απόφαση που λαμβάνεται αποκλειστικά βάσει αυτοματοποιημένης επεξεργασίας, συμπεριλαμβανομένης της κατάρτισης προφίλ, η οποία παράγει έννομα αποτελέσματα που το αφορούν ή το επηρεάζει σημαντικά με παρόμοιο τρόπο, εκτός αν κρίνεται αναγκαίο/επιτρέπεται από το Κοινοτικό Δίκαιο υπό την πρόβλεψη μέτρων προστασίας/ ρητή συγκατάθεση του υποκειμένου.

Ο υπεύθυνος επεξεργασίας των δεδομένων εφαρμόζει κατάλληλα μέτρα προστατεύοντας τουλάχιστον το δικαίωμα εξασφάλισης ανθρώπινης παρέμβασης, έκφρασης άποψης και αμφισβήτησης της απόφασης.7

7. Συμβίωση ανθρώπων και τεχνητής νοημοσύνης

Η αυξημένη αυτοματοποίηση δεν πρέπει να μεταφράζεται σε λιγότερη προστασία της ιδιωτικής ζωής. Πολλές φορές τίθεται ζήτημα μεταξύ ασφάλειας και ιδιωτικής ζωής. Ένα τέτοιο δίλημμα δεν θα έπρεπε όμως να τίθεται, ειδικά εντός των συνόρων της Ευρωπαϊκής Ένωσης καθώς οι πολίτες της ΕΕ οφείλουν να απολαμβάνουν και τα προνόμια της ιδιωτικής ζωής αλλά και της ασφάλειας, της διαφάνειας και της δικαιοσύνης, αρχές που πρεσβεύει ο θεσμός της Ευρωπαϊκής Ένωσης.

Ως προτεινόμενα μέτρα προστασίας έχουν κυριαρχήσει τα εξής:

1. Μηχανισμοί ελέγχου και ασφάλειας προκειμένου να περιοριστεί το ενδεχόμενο εσφαλμένων αποφάσεων, κυρίως λόγω αστοχιών του συστήματος.

2. Λογοδοσία που σημαίνει ότι τα πρόσωπα που αναπτύσσουν αυτοματοποιημένα συστήματα, πρέπει να αποδεικνύουν ότι έχουν οργανώσει τις κατάλληλες διαδικασίες για να εξηγήσουν πως οι αλγόριθμοι παρουσιάζουν συγκεκριμένα αποτελέσματα.

3. Ο ανθρώπινος έλεγχος, τόσο κατά τον καθορισμό των κριτηρίων λειτουργίας, όσο και μετέπειτα ως ποιοτικός έλεγχος των αποφάσεων και των κριτηρίων που χρησιμοποιήθηκαν, για να εξασφαλισθεί η πραγματική ομαλή λειτουργία του αλγορίθμου.

Κοιτάζοντας το παρόν και όχι τόσο μακριά στο μέλλον, αντιλαμβανόμαστε πως η 4η Βιομηχανική Επανάσταση έχει ήδη φτάσει, καθώς η ανάπτυξη του τομέα των νέων τεχνολογιών εκτυλίσσεται μπροστά μας με ιλιγγιώδεις ρυθμούς. Η θέσπιση ενός ευέλικτου, δυναμικού νομοθετικού πλαισίου αποτελεί πλέον αδήριτη ανάγκη, για την προστασία από το κουτί της Πανδώρας που μπορεί να ανοίξει η ανεξέλεγκτη χρήση και προς πάσα κατεύθυνση εξέλιξη της τεχνητής νοημοσύνης. Υπάρχει ανάγκη δημιουργίας μιας έμπιστης τεχνητής νοημοσύνης, η οποία θα συμπορεύεται με τον άνθρωπο, λειτουργώντας συμπληρωματικά, για τη βελτίωση του βιοτικού του επιπέδου. Ίσως αυτό το momentum, είναι η ευκαιρία μας να θέσουμε εμείς τους κανόνες του παιχνιδιού και να αποφύγουμε φαινόμενα Black Mirror.

8. Νέα πρόταση της EU Commission για την τεχνητή νοημοσύνη

Μια ευχάριστη εξέλιξη έλαβε χώρα πολύ πρόσφατα, τον Απρίλιο του 2021, με τη δημοσίευση των προτάσεων της Ευρωπαϊκής Επιτροπής σχετικά με την τεχνητή νοημοσύνη, με στόχο να γίνει η Ευρώπη πρωτοπόρος στην αξιόπιστη τεχνητή νοημοσύνη, διασφαλίζοντας ταυτόχρονα και τα κεκτημένα δικαιώματα στους πολίτες της ενώ παράλληλα θα καλλιεργείται ένα έδαφος πρόσφορο για επενδύσεις και καινοτομία στην ΕΕ. Ο σχεδιασμός αυτό θα συμπληρωθεί με τους νέους κανόνες για τα μηχανήματα, οι οποίοι θα προσαρμοστούν στους κανόνες ασφαλείας έτσι ώστε να ενισχυθεί η εμπιστοσύνη των χρηστών σε μια πολυδύναμη γενιά νέων προϊόντων. Μέσω των προταθέντων κανόνων η ΕΕ καταφέρνει να καινοτομήσει στην ανάπτυξη νέων παγκόσμιων προτύπων και να εξασφαλιστεί η ύπαρξη μιας έμπιστης τεχνητής νοημοσύνης. Όπως είδαμε και στην εξέταση της σχέσης τεχνητής νοημοσύνης και προσωπικών δεδομένων, η δημιουργία ενός πρότυπου έμπιστης τεχνητής νοημοσύνης είναι ο βασικός πυλώνας έτσι ώστε να μπορέσουν να συνυπάρχουν δύο φαινομενικά ασύμβατα πεδία, τα συστήματα AI και η προστασία προσωπικών δεδομένων. Έτσι στόχος είναι η ΕΕ ταυτόχρονα να μείνει πιστή στις δεοντολογικές αρχές της παραμένοντας ανταγωνιστική στους τομείς της καινοτομίας και τεχνολογίας. Σκοπός ω του νέου κανονισμού για την ΤΝ είναι να τεθούν τα εχέγγυα ότι οι Ευρωπαίοι μπορούν να εμπιστεύονται όλα όσα έχει να προσφέρει η ΤΝ. Το συντονισμένο σχέδιο περιγράφει τις απαραίτητες αλλαγές πολιτικής και τις απαραίτητες επενδύσεις σε επίπεδο κρατών μελών για την ενίσχυση της ηγετικής θέσης της Ευρώπης στην ανάπτυξη ανθρωποκεντρικής, βιώσιμης, ασφαλούς και αξιόπιστης ΤΝ χωρίς αποκλεισμούς. Οι νέοι κανόνες θα έχουν άμεση και όμοια εφαρμογή σε όλα τα κράτη μέλη βάσει ενός διαχρονικού ορισμού της τεχνητής νοημοσύνης. Οι εν λόγω κανόνες ακολουθούν μια προσέγγιση με βάση τον κίνδυνο (risk assessment).

1) Μη αποδεκτός κίνδυνος: τα συστήματα ΤΝ που θεωρείται ότι συνιστούν σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων θα απαγορεύονται. Εδώ περιλαμβάνονται συστήματα ή εφαρμογές ΤΝ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών/χρηστριών (παραδείγματος χάριν, παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από τις κυβερνήσεις.

2) Υψηλός κίνδυνος: στα συστήματα ΤΝ που χαρακτηρίζονται ως υψηλού κινδύνου περιλαμβάνεται η τεχνολογία ΤΝ που χρησιμοποιείται:στις υποδομές ζωτικής σημασίας (π.χ. μεταφορές), τεχνολογία ΤΝ που θα μπορούσε να θέσει σε κίνδυνο τη ζωή και την υγεία των πολιτών· στην εκπαίδευση ή την επαγγελματική κατάρτιση, τεχνολογία ΤΝ που μπορεί να καθορίζει την πρόσβαση στην εκπαίδευση και την πορεία της επαγγελματικής ζωής ενός ατόμου (π.χ. βαθμολόγηση εξετάσεων)· στα κατασκευαστικά στοιχεία ασφαλείας των προϊόντων (π.χ. εφαρμογή ΤΝ σε υποβοηθούμενη από ρομπότ χειρουργική)· στην απασχόληση, στη διαχείριση εργαζομένων και στην πρόσβαση στην αυτοαπασχόληση (π.χ. λογισμικό διαλογής βιογραφικών σημειωμάτων για διαδικασίες πρόσληψης)·στις βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. αξιολόγηση πιστοληπτικής ικανότητας που στερεί από τους πολίτες τη δυνατότητα να λαμβάνουν δάνεια)·στην επιβολή του νόμου, τεχνολογία ΤΝ που μπορεί να παρεμβαίνει στα θεμελιώδη δικαιώματα των πολιτών (π.χ. αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων)·στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (π.χ. εξακρίβωση της γνησιότητας ταξιδιωτικών εγγράφων)·στην απονομή δικαιοσύνης και στις δημοκρατικές διαδικασίες (π.χ. εφαρμογή του νόμου σε συγκεκριμένα πραγματικά περιστατικά).Τα συστήματα ΤΝ υψηλού κινδύνου θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά:Κατάλληλα συστήματα εκτίμησης και μετριασμού των κινδύνων· Υψηλή ποιότητα των συνόλων δεδομένων που τροφοδοτούν το σύστημα ώστε να ελαχιστοποιούνται οι κίνδυνοι και οι διακρίσεις· Καταγραφή των δραστηριοτήτων με σκοπό τη διασφάλιση της ιχνηλασιμότητας των αποτελεσμάτων· Λεπτομερής τεκμηρίωση που παρέχει όλες τις απαραίτητες πληροφορίες σχετικά με το σύστημα και τον σκοπό του ώστε οι αρχές να αξιολογούν τη συμμόρφωσή του· Σαφείς και επαρκείς πληροφορίες για τον χρήστη/χρήστρια· Κατάλληλα μέτρα ανθρώπινης εποπτείας για την ελαχιστοποίηση του κινδύνου· Υψηλό επίπεδο ανθεκτικότητας, ασφάλειας και ακρίβειας.Ειδικότερα, όλα τα συστήματα εξ αποστάσεως βιομετρικής ταυτοποίησης θεωρούνται υψηλού κινδύνου και υπόκεινται σε αυστηρές απαιτήσεις. Η χρήση τους σε πραγματικό χρόνο σε δημοσίως προσβάσιμους χώρους για σκοπούς επιβολής του νόμου καταρχήν απαγορεύεται. Οι ελάχιστες εξαιρέσεις σ' αυτόν τον κανόνα καθορίζονται και ρυθμίζονται αυστηρά (για παράδειγμα, όταν είναι απολύτως αναγκαίο για την αναζήτηση αγνοούμενου παιδιού, για την πρόληψη συγκεκριμένης και επικείμενης τρομοκρατικής απειλής ή για τον εντοπισμό, την επισήμανση, την ταυτοποίηση ή τη δίωξη δράστη ή υπόπτου σοβαρής αξιόποινης πράξης). Η χρήση αυτή υπόκειται στην έγκριση δικαστικής ή άλλης ανεξάρτητης αρχής και σε κατάλληλους περιορισμούς όσον αφορά το χρονικό διάστημα, τη γεωγραφική εμβέλεια και τις βάσεις δεδομένων όπου πραγματοποιείται αναζήτηση.

3) Περιορισμένος κίνδυνος, δηλαδή συστήματα ΤΝ που υπόκεινται σε συγκεκριμένες υποχρεώσεις διαφάνειας: όταν χρησιμοποιούν συστήματα ΤΝ όπως τα διαλογικά ρομπότ (chatbot), οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχάνημα, ώστε να μπορούν να λάβουν τεκμηριωμένη απόφαση να συνεχίσουν ή να διακόψουν την αλληλεπίδραση.Ελάχιστος κίνδυνος: η νομική πρόταση επιτρέπει την ελεύθερη χρήση εφαρμογών όπως βιντεοπαιχνιδιών βασισμένων στην τεχνητή νοημοσύνη ή φίλτρων ανεπιθύμητης αλληλογραφίας. Η συντριπτική πλειονότητα των συστημάτων ΤΝ εμπίπτουν σε αυτή την κατηγορία. Το σχέδιο κανονισμού δεν παρεμβαίνει σε αυτή την κατηγορία, καθώς αυτά τα συστήματα ΤΝ συνεπάγονται μόνο ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα και την ασφάλεια των πολιτών.Όσον αφορά τη διακυβέρνηση, η Επιτροπή προτείνει οι εθνικές αρμόδιες αρχές εποπτείας της αγοράς να εποπτεύουν τους νέους κανόνες, ενώ η δημιουργία ενός Ευρωπαϊκού Συμβουλίου Τεχνητής Νοημοσύνης θα διευκολύνει την εφαρμογή τους και θα προωθήσει την ανάπτυξη προτύπων για την ΤΝ.

Επιπλέον, προτείνονται εθελοντικοί κώδικες δεοντολογίας για την ΤΝ μη υψηλού κινδύνου, καθώς και ρυθμιστικά πλαίσια για τη διευκόλυνση της υπεύθυνης καινοτομίας.

Οι νέες προτάσεις του κανονισμού και συντονισμός των κρατών μελών ωθείται προς την επίρρωση της ηγετικής θέση της Ευρώπης στον τομέα της ανθρωποκεντρικής, βιώσιμης, ασφαλούς και αξιόπιστης ΤΝ χωρίς αποκλεισμούς. Για να παραμείνει ανταγωνιστική σε παγκόσμιο επίπεδο, η Επιτροπή έχει δεσμευθεί να προωθήσει την καινοτομία στην ανάπτυξη και χρήση της τεχνολογίας ΤΝ σε όλες τις βιομηχανίες και σε όλα τα κράτη μέλη. Μέσω του νέου σχεδίου προτείνονται συγκεκριμένες κοινές δράσεις συνεργασίας προκειμένου να διασφαλιστεί ότι όλες οι προσπάθειες εναρμονίζονται με την ευρωπαϊκή στρατηγική για την τεχνητή νοημοσύνη και την Ευρωπαϊκή Πράσινη Συμφωνία. Σκοπός της είναι, επίσης, να δώσει ώθηση στην εφαρμογή εθνικών στρατηγικών ΤΝ, να εξαλείψει τον κατακερματισμό και να δώσει απάντηση σε παγκόσμιες προκλήσεις. Μετά τις προτάσεις της Ευρ. Επιτροπής, το Ευρωπαϊκό Κοινοβούλιο και τα κράτη μέλη θα πρέπει να τις εγκρίνουν με αντικείμενο την ευρωπαϊκή προσέγγιση της τεχνητής νοημοσύνης. Μόλις εγκριθούν, οι κανονισμοί θα είναι άμεσα εφαρμόσιμοι σε ολόκληρη την ΕΕ. Παράλληλα, η Επιτροπή θα συνεχίσει να συνεργάζεται με τα κράτη μέλη για την υλοποίηση των δράσεων που εξαγγέλλονται στο συντονισμένο σχέδιο.8

Συμπέρασμα

Μέσω αυτής της συνοπτικής παρουσίασης αντιλαμβανόμαστε ότι η σχέση της τεχνητής νοημοσύνης και των προσωπικών δεδομένων είναι μια σχέση αλληλεξάρτησης, μια σχέση ανατροφοδότησης, η οποία όμως ως ωρολογιακή βόμβα απαιτεί λεπτούς χειρισμούς, ευέλικτα και δυναμικά νομοθετικά πλαίσια τα οποία θα μπορούν να παρακολουθούν τις εξελίξεις. Με αυτό τον τρόπο θα εξασφαλίζεται στα υποκείμενα η ασφάλεια και η ιδιωτικότητα ενώ ταυτόχρονα θα προωθείται η καινοτομία και η ανάπτυξη των νέων τεχνολογιών. Η πολύ πρόσφατη πρόταση της EU Commission στέλνει ένα ευοίωνο μήνυμα, καθώς φαίνεται η γρήγορη ανταπόκριση της Ευρώπης στα νέα δεδομένα, θέτοντας κριτήρια βάσει της επικινδυνότητας της τεχνητής νοημοσύνης. Πρόκειται για μια αρχή σε ένα ιδιαίτερα πολύπλοκο και διαρκώς εξελισσόμενο ζήτημα, αλλά το κριτήριο του risk assessment σίγουρα είναι ένα χρήσιμο εργαλείο που αφήνει πολλά περιθώρια διαχείρισης και εξέλιξης των συστημάτων ΤΝ, προστατεύοντας τον άνθρωπο και το “πετρέλαιο” του 21ου αιώνα, τα προσωπικά δεδομένα.

ΒΙΒΛΙΟΓΡΑΦΙΑ - ΠΗΓΕΣ

Τι είναι και πως χρησιμοποιείται η Τεχνητή νοημοσύνη, Επικαιρότητα Ευρωπαϊκό Κοινοβούλιο

https://www.europarl.europa.eu/news/el/headlines/society/20200827STO85804/ti-einai-i-techniti-noimosuni-kai-pos-chrisimopoieitai

Τι είναι τα δεδομένα προσωπικού χαρακτήρα; Ευρωπαϊκή Επιτροπή

https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_el

GDPR, Εισαγωγή στο νέο κανονισμό προστασίας δεδομένων

https://www.gdprgreece.com/article/5/gdpr

Τεχνητή νοημοσύνη και προσωπικά δεδομένα “Μια θεώρηση υπό το πρίσμα του Ευρωπαϊκού Γενικού Κανονισμού Προστασίας Δεδομένων (ΕΕ) 2016/679, Απόστολος Κ. Βόρρας, Λίλιαν Μήτρου, ΔΙΤΕ (π. ΔΙΜΕΕ) Τεύχος 4/2018, Οκτώβριος - Νοέμβριος - Δεκέμβριος 2018

Artificial Intelligence and Data Protection: Delivering Sustainable AI Accountability in Practice, First Report: Artificial Intelligence and Data Protection in Tension, October 10, 2018, CENTER FOR INFORMATION POLICY LEADERSHIP, Hunton Andrews Kurth LLP

Η εποχή της τεχνητής νοημοσύνης,Σπύρος Τάσσης, ΔΙΤΕ (π. ΔΙΜΕΕ)Τεύχος 4/2018, Οκτώβριος - Νοέμβριος - Δεκέμβριος 2018

Artificial Intelligence and Privacy, Datatilsynet The Norwegian Data Protection Authority, Report January 2018

https://www.datatilsynet.no/globalassets/global/english/ai-and-privacy.pdf

Τεχνητή Νοημοσύνη: Δημοσιεύθηκε η πρόταση Κανονισμού της Ευρωπαϊκής Επιτροπής. Ο συνδυασμός του πρώτου νομικού πλαισίου για την ΤΝ στην ιστορία και ενός νέου συντονισμένου σχεδίου με τα κράτη μέλη θα εγγυάται την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, Lawspot

  • 1. Τι είναι και πως χρησιμοποιείται η Τεχνητή νοημοσύνη, Επικαιρότητα Ευρωπαϊκό Κοινοβούλιο, https://www.europarl.europa.eu/news/el/headlines/society/20200827STO8580...
  • 2. Σύμφωνα με την αρχή της ελαχιστοποίησης τα δεδομένα είναι κατάλληλα, συναφή και περιορίζονται στο αναγκαίο για τους σκοπούς για τους οποίους υποβάλλονται σε επεξεργασία. Η αρχή αυτή εφαρμόζεται τόσο στον όγκο όσο και στη διάρκεια τήρησης των δεδομένων (άρθρο 5 ΓΚΠΔ)
  • 3. Τεχνητή νοημοσύνη και προσωπικά δεδομένα “Μια θεώρηση υπό το πρίσμα του Ευρωπαϊκού Γενικού Κανονισμού Προστασίας Δεδομένων (ΕΕ) 2016/679, Απόστολος Κ. Βόρρας, Λίλιαν Μήτρου, ΔΙΤΕ (π. ΔΙΜΕΕ) Τεύχος 4/2018, Οκτώβριος - Νοέμβριος - Δεκέμβριος 2018
  • 4. Artificial Intelligence and Data Protection: Delivering Sustainable AI Accountability in Practice, First Report: Artificial Intelligence and Data Protection in Tension, October 10, 2018, CENTER FOR INFORMATION POLICY LEADERSHIP, Hunton Andrews Kurth LLP
  • 5. Η εποχή της τεχνητής νοημοσύνης,Σπύρος Τάσσης, ΔΙΤΕ (π. ΔΙΜΕΕ) Τεύχος 4/2018, Οκτώβριος - Νοέμβριος - Δεκέμβριος 2018
  • 6. Τεχνητή νοημοσύνη και προσωπικά δεδομένα, Μια θεώρηση υπό το πρίσμα του Ευρωπαϊκού Γενικού Κανονισμού Προστασίας Δεδομένων (ΕΕ) 2016/679. Απόστολος Κ. Βόρρας, Λίλιαν Μήτρου, ΙΤΕ (π. ΔΙΜΕΕ) Τεύχος 4/2018, Οκτώβριος - Νοέμβριος - Δεκέμβριος 2018
  • 7. Artificial Intelligence and Privacy, Datatilsynet The Norwegian Data Protection Authority, Report January 2018, https://www.datatilsynet.no/globalassets/global/english/ai-and-privacy.pdf
  • 8. Lawspot, Τεχνητή Νοημοσύνη: Δημοσιεύθηκε η πρόταση Κανονισμού της Ευρωπαϊκής Επιτροπής, Ο συνδυασμός του πρώτου νομικού πλαισίου για την ΤΝ στην ιστορία και ενός νέου συντονισμένου σχεδίου με τα κράτη μέλη θα εγγυάται την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων
O ηλεκτρονικός αναγκαστικός πλειστηριασμός κατά τον ΚΠολΔ - Πραγματείες Πολιτικής Δικονομίας Νο 6

ΑΣΤΙΚΟ ΔΙΚΟΝΟΜΙΚΟ ΔΙΚΑΙΟ / ΑΝΑΓΚΑΣΤΙΚΗ ΕΚΤΕΛΕΣΗ

Η διακριτική εξουσία του δικαστηρίου στη δίκη των ασφαλιστικών μέτρων ΕΠολΔ 31
send