logo-print

Τεχνητή Νοημοσύνη και Προσωπικά Δεδομένα - Φοιτητές γράφουν για την Τεχνητή Νοημοσύνη

Το δίκαιο της ψηφιακής οικονομίας

ΕΜΠΟΡΙΚΟ ΔΙΚΑΙΟ / ΔΙΚΑΙΟ ΒΙΟΜΗΧΑΝΙΚΉΣ ΚΑΙ ΠΝΕΥΜΑΤΙΚΉΣ ΙΔΙΟΚΤΗΣΙΑΣ ΝΕΕΣ ΤΕΧΝΟΛΟΓΙΕΣ & ΔΙΚΑΙΟ ΔΙΟΙΚΗΤΙΚΟ ΔΙΚΑΙΟ / ΕΙΔΙΚΟ ΔΙΟΙΚΗΤΙΚΟ ΔΙΚΑΙΟ / ΠΡΟΣΩΠΙΚΑ ΔΕΔΟΜΕΝΑ

ΙΩΑΝΝΗΣ ΙΓΓΛΕΖΑΚΗΣ

Δίκαιο πληροφορικής - E έκδοση

Κάθε Νοέμβριο η ELSA γιορτάζει, με μία ημέρα αφιερωμένη στην προάσπιση των ανθρωπίνων δικαιωμάτων, την γνωστή ως “ELSA Day”, σε όλα τα Σωματεία της ανά τον κόσμο.

Το 2021, βασική θεματική της γιορτής αυτής αποτέλεσε η “Τεχνητή Νοημοσύνη και Ανθρώπινα Δικαιώματα” στο πλαίσιο της οποίας διοργανώθηκε η Ομάδα Νομικής Έρευνας.

Στην εκδήλωση που έλαβε χώρα τον Νοέμβριο του 2020, φοιτητές, νομικοί και ακαδημαϊκοί παρευρέθηκαν διαδικτυακά, προβληματίστηκαν και γνώρισαν πτυχές του παγκόσμιου αυτού φαινομένου, θέτοντας τα θεμέλια για μία σειρά από εργασίας.

Το Lawspot δημοσιεύει τις εργασίες υπό το γενικό τίτλο "Φοιτητές γράφουν για την Τεχνητή Νοημοσύνη".

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ KAI ΠΡΟΣΩΠΙΚΑ ΔΕΔΟΜΕΝΑ

Ιωσήφ Κωνσταντίντου - Φοιτητής Νομικής ΔΠΘ

ΓΕΝΙΚΑ

Η τεχνητή νοημοσύνη αναφέρεται στην ικανότητα μιας μηχανής να αναπαράγει τις γνωστικές λειτουργίες ενός ανθρώπου, όπως είναι η μάθηση, ο σχεδιασμός και η δημιουργικότητα. Παράλληλα καθιστά τις μηχανές ικανές να 'κατανοούν' το περιβάλλον τους, να επιλύουν προβλήματα και να δρουν προς την επίτευξη ενός συγκεκριμένου στόχου. Ο υπολογιστής λαμβάνει δεδομένα (ήδη έτοιμα ή συλλεγμένα μέσω αισθητήρων, π.χ. κάμερα), τα επεξεργάζεται και ανταποκρίνεται βάσει αυτών. Τα συστήματα τεχνητής νοημοσύνης είναι ικανά να προσαρμόζουν τη συμπεριφορά τους, σε ένα ορισμένα βαθμό, αναλύοντας τις συνέπειες προηγούμενων δράσεων και επιλύοντας προβλήματα με αυτονομία.

ΠΟΙΑ ΕΙΝΑΙ ΤΑ ΕΙΔΗ ΤΗΣ ΑΙ; ΤΕΡΑΤΟΥΡΓΗΜΑΤΑ ή ΕΥΛΟΓΙΑ;

Τεχνητή στενή νοημοσύνη. Αναφέρεται στην ικανότητα των μηχανών να προσιδιάζουν στις ανθρώπινες δυνατότητες σε στενούς τομείς, οι οποίοι φέρουν διαφορετικό βαθμό τεχνικής πολυπλοκότητας και αυτονομίας. Χαρακτηριστικά αναφέρονται οι περιπτώσεις των ‘chatbots’, τα οποία παρέχουν βοήθεια απαντώντας σε συγκεκριμένες ερωτήσεις, το ‘deep blue’, ένας υπολογιστής σκακιού που αναπτύχθηκε από την εταιρία IBM και κατάφερε να κερδίσει τον παγκόσμιο πρωταθλητή σκακιού Gary Kasparov και το σύστημα ηλεκτρονικών υπολογιστών, το οποίο νίκησε τον πρωταθλητή του κινέζικου επιτραπέζιου παιχνιδιού ‘Go’. Επιπρόσθετα, η Τεχνητή γενική νοημοσύνη, αναφέρεται στον πρωταρχικό, και ανικανοποίητο έως τώρα, στόχο ενός συστήματος, το οποίο επιδεικνύει ευφυία σε πολλούς τομείς, μέσω της ικανότητας ανάπτυξης νέων δεξιοτήτων και το οποίο μιμείται ή ακόμη και ξεπερνά την ανθρώπινη νοημοσύνη. Επιπλέον, οι αλγόριθμοι αναφέρονται σε οποιαδήποτε εντολή, όπως κώδικα ηλεκτρονικού υπολογιστή, η οποία εκτελεί ένα σύνολο άλλων εντολών. Πρόκειται για μία ενέργεια η οποία είναι απαραίτητη κατά την επεξεργασία δεδομένων από ηλεκτρονικό υπολογιστή. Τέλος , η μηχανική εκμάθηση πρόκειται για μία δημοφιλή τεχνική του τομέα της τεχνητής νοημοσύνης, η οποία χρησιμοποιεί αλγορίθμους, εκπαιδευμένους με τεράστιες ποσότητες δεδομένων, με σκοπό τη βελτίωση της απόδοσης ενός συστήματος επί της εκτέλεσης συγκεκριμένης εργασίας, με την πάροδο του χρόνου.

Τεχνητή νοημοσύνη και ιδιωτικότητα

Οι επιπτώσεις της τεχνητής νοημοσύνης επί της προστασίας απορρήτου πηγάζουν από την ικανότητά της να αναγνωρίζει μοτίβα και «να εξάγει το οικείο από το διαθέσιμο». Οι διαφορετικές εφαρμογές και χρήσεις της τεχνητής νοημοσύνης μπορούν να επηρεάσουν το δικαίωμα στην ιδιωτικότητα και στην προστασία του απορρήτου με διαφορετικούς τρόπους .

Τα καταναλωτικά προϊόντα που στηρίζονται στην τεχνητή νοημοσύνη και στα αυτόνομα συστήματα είναι συχνά εξοπλισμένα με αισθητήρες, οι οποίοι παράγουν και συλλέγουν τεράστιους όγκους δεδομένων, χωρίς τη γνώση ή τη συναίνεση εκείνων που βρίσκονται κοντά τους. Κάθε μία από τις προαναφερόμενες παρεμβολές στην προστασία της ιδιωτικής ζωής είναι ιδιαίτερα σημαντική, καθώς η ιδιωτικότητα είναι απαραίτητη προϋπόθεση για την άσκηση μίας σειράς ανθρωπίνων δικαιωμάτων, όπως η ελευθερία της έκφρασης, για την άσκηση της προσωπικής αυτονομίας και ελευθερίας της επιλογής καθώς και για ευρύτερες κοινωνικές νόρμες.

Τεχνητή Νοημοσύνη: Ο Ηθικός και Νομικός Διάλογος

Δεν είναι απλά επιστημονική φαντασία: ισχυρά μηχανήματα και αλγόριθμοι είναι ήδη ικανά να διαγιγνώσκουν ασθένειες, να χειρουργούν και να οδηγούν αυτόνομα οχήματα. Αυτές οι τεχνολογίες μας προσφέρουν νέα εργαλεία και αλλάζουν τον τρόπο που εργαζόμαστε. Εντούτοις, κανείς δεν μπορεί να προβλέψει τον αντίκτυπο που θα έχει η τεχνητή νοημοσύνη στην κοινωνία. 

Πιστεύω ότι χρειαζόμαστε μια αξιολόγηση των συνεπειών πάνω στα ηθικά και θεμελιώδη δικαιώματα. Πώς η τεχνητή νοημοσύνη θα επηρεάσει πολλά σημαντικά ζητήματα της καθημερινότητάς μας; Έχουμε επενδύσει πολλές ελπίδες σ' αυτές τις νέες τεχνολογίες, ειδικά για την ιατροφαρμακευτική περίθαλψη και για τις διαδικασίες λήψης αποφάσεων. Αλλά η τεχνητή νοημοσύνη εγείρει, επίσης, ηθικά και νομικά ερωτήματα. Για παράδειγμα, μπορεί η ανάπτυξη νέων εφαρμογών ΤΝ να αποτελέσει απειλή για τα ανθρώπινα δικαιώματα; Θα πρέπει τα άτομα να περνούν από διαδικασίες αναγνώρισης προσώπου ή συναισθήματος, όταν η ΤΝ μπορεί να αναγνωρίσει ή να προβλέψει τη συναισθηματική μας κατάσταση σε μια συνέντευξη πρόσληψης; 

Συμφωνώ ότι χρειάζεται να κάνουμε περισσότερα, για να κατανοήσουμε τι συμβαίνει, πριν δημιουργήσουμε κανονισμούς και πολιτικές. Μπορούμε να θεσπίσουμε παγκόσμια πρότυπα και για την ΤΝ, για να διασφαλίσουμε ότι θα υπάρχουν ορισμένοι ηθικοί κανόνες που θα ακολουθούν όλοι, να αποδεχθούμε ότι δεν θα οπλοποιήσουμε την ΤΝ κατά της ανθρωπότητας, ότι η ΤΝ θα συμπληρώνει και δεν θα αντικαθιστά τους ανθρώπους, ότι εμείς δεν θα αναπτύξουμε συνειδητότητα ΤΝ.

Αυτές οι ερωτήσεις βρέθηκαν στο επίκεντρο μιας πρόσφατης συνεδρίασης ειδικών στις Βρυξέλλες, που οργανώθηκε από την Επιτροπή του Ευρωπαϊκού Κοινοβουλίου για το Μέλλον της Επιστήμης και της Τεχνολογίας (STOA). Η συνάντηση έριξε φως σε αποδεδειγμένες περιπτώσεις παραβίασης των ανθρωπίνων δικαιωμάτων από την ΤΝ και υπογράμμισε τις πιθανές αποκρίσεις στους κινδύνους. Για παράδειγμα, τα ηθικά πλαίσια, η ρυθμιστική επίβλεψη και οι νομικές δικλείδες ασφαλείας μπορούν να μας βοηθήσουν να αποφύγουμε την ακατάλληλη χρήση της τεχνητής νοημοσύνης.

Το κανονιστικό πλαίσιο για την προστασία δεδομένων

H Ευρωπαϊκή Ένωση ψήφισε τον Απρίλιο του 2016 και έθεσε σε ισχύ το Μάιο του 2018 το νέο Γενικό Κανονισμό Προστασίας Προσωπικών Δεδομένων (ΓΚΠΔ), ο οποίος αποσκοπεί, μεταξύ άλλων, στα εξής: (i) στην αντιμετώπιση της τάσης της μυστικής παρακολούθησης και της λήψης αποφάσεων, βάσει προφίλ, τα οποία δε γνωστοποιούνται στα υποκείμενα των δεδομένων, (ii) στην αντιμετώπιση της έλλειψης χρήσιμης πληροφόρησης σχετικά με την αλγοριθμική λογική, στην οποία στηρίζεται η ανάπτυξη ανάλογων προφίλ και η οποία επηρεάζει τα υποκείμενα των δεδομένων, (iii) στην επίτευξη πλήρους διαφάνειας από την πλευρά των υπευθύνων επεξεργασίας των δεδομένων, όπως τα τραπεζικά ιδρύματα και (iv) στην εισαγωγή θεμελιωδών αρχών για την προστασία των δεδομένων ήδη από το σχεδιασμό και εξ’ ορισμού, ως μέσο ανάπτυξης λύσεων της αγοράς στα πλαίσια της ψηφιακής οικονομίας (Buttarelli, 2015).

Οι βασικές αρχές επεξεργασίας ισχύουν και σε περιβάλλον Τεχνητής Νοημοσύνης

Οι βασικές αρχές που θα πρέπει να τηρούνται σε κάθε περίπτωση επεξεργασίας προσωπικών δεδομένων, και όταν δηλ. χρησιμοποιούνται εφαρμογές Τεχνητής Νοημοσύνης, σύμφωνα με τον ΓΚΠΔ, περιλαμβάνουν τις εξής:

§ Νομιμότητα, δικαιοσύνη και διαφάνεια. Τα προσωπικά δεδομένα θα πρέπει να υφίστανται νόμιμη, δίκαιη και διαφανή επεξεργασία ως προς το υποκείμενο των δεδομένων.

§ Περιορισμός του σκοπού της επεξεργασίας. Τα προσωπικά δεδομένα θα πρέπει να συλλέγονται για συγκεκριμένους και νόμιμους σκοπούς και δε θα πρέπει να υφίστανται περαιτέρω επεξεργασία με τρόπο που δε συμβαδίζει με τους σκοπούς αυτούς. Από την άλλη πλευρά, η επεξεργασία επιτρέπεται για σκοπούς αρχειοθέτησης, όταν εξυπηρετούν το δημόσιο συμφέρον, την επιστημονική ή ιστορική έρευνα ή στατιστικούς σκοπούς, δεδομένου ότι, σύμφωνα με τις διατάξεις του ΓΚΠΔ, λαμβάνονται οι απαραίτητες διασφαλίσεις για τα δικαιώματα και τις ελευθερίες των υποκειμένων των δεδομένων.

§ Ελαχιστοποίηση των δεδομένων. Τα προσωπικά δεδομένα που υφίστανται επεξεργασία θα πρέπει να είναι επαρκή και σχετικά και να περιορίζονται στα απαραίτητα για το σκοπό της επεξεργασίας.

§ Ακρίβεια. Τα προσωπικά δεδομένα θα πρέπει να είναι ακριβή και όπου είναι δυνατό, να τηρούνται ενημερωμένα. Περαιτέρω, θα πρέπει να πραγματοποιείται κάθε λογική ενέργεια ώστε να διασφαλίζεται ότι τα μη ακριβή προσωπικά δεδομένα είτε διορθώνονται είτε διαγράφονται.

§ Περιορισμός της περιόδου αποθήκευσης. Τα προσωπικά δεδομένα θα πρέπει να τηρούνται σε μορφή που επιτρέπει τον εντοπισμό των υποκειμένων των δεδομένων για χρονικό διάστημα που δε ξεπερνά το απαραίτητο για τους σκοπούς της επεξεργασίας.
 

 

 

 

 

 

Ηλεκτρονικό Κτηματολόγιο - Βιβλιοθήκη Δικάιου Κτηματολογίου Νο 24
Η παραγραφή των εγκλημάτων στο ουσιαστικό ποινικό δίκαιο

ΠΟΙΝΙΚΟ ΔΙΚΑΙΟ

ΛΑΜΠΑΚΗΣ ΧΡΗΣΤΟΣ