Το Δίκαιο στην εποχή της Τεχνητής Νοημοσύνης

Μια νέα οπτική στο Δίκαιο και την Ηθική

31/05/2019

06/06/2019

*Το άρθρο έχει δημοσιευθεί στο Δίκαιο Μέσων Μαζικής Ενημέρωσης και Επικοινωνίας (ΔιΜΕΕ)

ΠΕΡΙΛΗΨΗ

Η εποχή της Τεχνητής Νοημοσύνης

Ο άνθρωπος βρίσκεται στο κατώφλι μίας νέας βιομηχανικής επανάστασης όπου εκτός από τα έμβια όντα ρόλο θα παίξουν και οι μηχανές, όχι ως απλά εργαλεία παραγωγής και εκβιομηχάνισης, αλλά ως εξελιγμένες μηχανές και ανθρωποειδή. Μίας επανάστασης που είναι πιθανόν να μην αφήσει ανεπηρέαστο κάθε κοινωνικό στρώμα, και συνεπώς είναι εξαιρετικά σημαντικό ο νομοθέτης να εξετάσει τις νομικές και ηθικές συνέπειες και επιπτώσεις της εξέλιξης αυτής, χωρίς να καταστέλλει την καινοτομία και να εμποδίσει την ανάπτυξη νέων τεχνικών λύσεων. Σημαντικό ρόλο θα διαδραματίσουν και όσοι λειτουργούν στον τομέα της δικαιοσύνης. Τόσο οι δικαστές και η χρήση από αυτούς των εφαρμογών ΑΙ που αναπτύσσονται για να παρέχουν συστήματα αυτόματης δικαιοδοτικής λειτουργίας (automated judicial decision-making) όσο και οι δικηγόροι που θα κληθούν να ανταποκριθούν στην νομική ανάλυση σύνθετων και πρωτόγνωρων θεμάτων, όπως η αναζήτηση της πραγματικής ευθύνης για τις «ενέργειες» των μηχανών και ο βαθμός υπαιτιότητας των προγραμματιστών του αλγόριθμου της ΑΙ, αποτελούν σημαντικούς παράγοντες για το πώς θα εξελιχθεί η αλληλεπίδραση των μελλοντικών κοινωνιών με τις ρομποτικές μηχανές. Αυτό που σίγουρα διαφαίνεται, σε κάθε περίπτωση, είναι ότι τα ζητήματα του τί είναι ηθική σε κάθε δεδομένη κοινωνία και ιστορική στιγμή θα πρέπει να φιλτραριστεί υπό το νέο πρίσμα ενός κόσμους με σκεπτόμενες μηχανές.

ΕΙΣΑΓΩΓΗ

Ο όρος «Τεχνητή Νοημοσύνη» (στο εξής θα την αναφέρουμε ως AI από τον διεθνή όρο Artificial Intelligence) προέρχεται από (και καταδεικνύει) τον βασικό στόχο να μπορέσει κάποτε η τεχνολογία να δημιουργήσει αυτοματοποιημένα συστήματα αποφάσεων που να επιτελούν σύνθετες ενέργειες χωρίς την διαρκή παρέμβαση του ανθρώπου, με την ακολουθία λογικών ενεργειών που αποτελούν αποτέλεσμα μίας μηχανικής εκμάθησης ή βαθιάς μάθησης (machine learning / deep learning1) όροι που συχνά συμπίπτουν με την έννοια της ΑΙ. Αν επιθυμούσαμε, δε, να προσδώσουμε ένα και μόνο κοινό χαρακτηριστικό σε όλες τις παραπάνω έννοιες αυτό θα ήταν η αναγνώριση της αοριστίας που εμπεριέχουν τόσο στο εύρος των εφαρμογών τους όσο και στη μηχανική της λειτουργίας τους! Αυτό όμως που είναι σαφές και ξεκάθαρο είναι ότι το πεδίο της AI εισάγει την ανθρωπότητα σε μία σύγχρονη περίοδο Αναγέννησης, όπως χαρακτηριστικά αναφέρεται, με τα ερευνητικά ιδρύματα και τις ιδιωτικές εταιρείες να επενδύουν μεγάλα ποσά για την ανάπτυξη του περιβάλλοντος και των εφαρμογών ΑΙ και να πιέζουν τα όρια της.

Η ΑΙ είναι ένας όρος ομπρέλα που αγκαλιάζει πολλούς διαφορετικούς τύπους μηχανικής μάθησης. Η μηχανική μάθηση μπορεί να περιγραφεί ως ένα σύνολο τεχνικών και εργαλείων που επιτρέπουν στους υπολογιστές να σκέφτονται δημιουργώντας μαθηματικούς αλγόριθμους που βασίζονται σε δεδομένα. Η βαθιά μάθηση είναι μια μορφή μηχανικής μάθησης. Ορισμένοι τύποι βαθιάς μάθησης βασίζονται στις ίδιες αρχές με το νευρικό δίκτυο του εγκεφάλου γι αυτό και τα δίκτυα αυτού του είδους ονομάζονται artificial neural networks (ΑΝΝ) και βασίζονται κυρίως σε γνωστά σύνολα δεδομένων εκπαίδευσης που βοηθούν τους αλγορίθμους αυτο-μάθησης να εκτελούν μια εργασία.

Περιορισμένη και Γενική ΑΙ

Η ΑΙ χωρίζεται σε δύο μεγάλες γενικές κατηγορίες2 που αναφέρονται κυρίως στην εξάρτηση της εφαρμογής της από την συμμετοχή του ανθρώπινου παράγοντα. Την περιορισμένη ή αδύναμη ΑΙ και την γενική ή ισχυρή ΑΙ. Η πρώτη είναι αυτή που βιώνουμε και χρησιμοποιούμε σήμερα σε αρκετές εφαρμογές κυρίως ψηφιακές και αναφέρεται σε AI που είναι σε θέση να χειριστεί μόνο ένα συγκεκριμένο έργο. Ένα εργαλείο φιλτραρίσματος ανεπιθύμητης ηλεκτρονικής αλληλογραφίας (spam), μία εφαρμογή αναγνώρισης προσώπων ή μια συνιστώμενη λίστα αναπαραγωγής από την υπηρεσία διαδικτυακής μουσικής Spotify ή ακόμα και ένα αυτοκίνητο χωρίς οδηγό αποτελούν εφαρμογές αυτού που αποκαλείται περιορισμένη AI3. Ακόμα και οι υπερυπολογιστές που κερδίζουν δύσκολες παρτίδες σκάκι ή μπορούν να απαντήσουν σε κάθε ερώτηση που βρίσκεται σε βάσεις δεδομένων αποτελούν απλώς μορφές της «στενής AI». Επειδή, μάλιστα, όλα αυτά τα συστήματα ΑΙ στηρίζονται στη γνώση και τον αλγόριθμο επιλογής της αντίδρασης που ορίζει ο άνθρωπος μιλάμε επίσης για «αδύναμη» ΑΙ, υπό την έννοια ότι δεν μπορεί να αναπτύξει αυτόνομη γνώση αλλά στηρίζεται σε προγραμματισμό που εισάγει ο άνθρωπος. Ακόμα κι έτσι όμως οφείλουμε να παραδεχτούμε ότι ένα σύστημα AI παρόλο που εμφανίζει ένα ορισμένο βαθμό νοημοσύνης σε ένα συγκεκριμένο πεδίο, παραμένει σταθερά και με τεράστιο τρόπο ένα σύστημα πληροφορικής που εκτελεί εξαιρετικά εξειδικευμένες εργασίες για τον άνθρωπο, εντός αυτού του στενού πεδίου4.

Η ισχυρή ΑΙ είναι ικανή να εμφανίζει στοιχεία ανθρώπινης νοημοσύνης και κοινής λογικής και μπορεί να θέσει τους δικούς της στόχους5. Η ισχυρή ΑΙ δεν είναι ακόμα εφικτή, επιτεύγματα, όμως, όπως η νίκη στο παραδοσιακό κινέζικο παιχνίδι σκέψης και στρατηγικής Go επί του παγκόσμιου πρωταθλητή Lee Sedol από τον υπερυπολογιστή της Google τον Μάρτιο του 2016 στο πλαίσιο του προγράμματος DeepMind και τα προγράμματα μηχανής AlphaZero και AlphaGo, αποτέλεσαν μία ιστορική στιγμή, καθώς ένα μηχάνημα έδειξε σημάδια για αυτό που αναφέρουν οι ερευνητές ως δημιουργικότητα6. Αυτό που είναι χαρακτηριστικό για την μηχανική εκμάθηση, ωστόσο, είναι ότι οι αλγόριθμοι δεν μπορούν να εκφράσουν αυτό που σκέφτονται. Δεν ξέρουμε γιατί λειτουργούν, έτσι δεν ξέρουμε αν μπορούν καν να εμπιστευτούν. Το AlphaZero φαίνεται να έχει ανακαλύψει κάποιες σημαντικές αρχές για το σκάκι και τις κινήσεις τους αλλά δεν μοιράζεται αυτή την κατανόηση μαζί μας. Όχι ακόμα, τουλάχιστον. Αυτό θα αποτελέσει την κύρια πηγή αλληλεπίδρασης μας με τους υπολογιστές από δω και πέρα και θα οδηγήσει σε αυτό που ονομάζεται γενική ή ισχυρή ΑΙ.

Η γενική ή ισχυρή AI είναι πολύ πιο εξελιγμένη γιατί αναφέρεται σε ένα σύστημα το οποίο είναι σε θέση να αντιμετωπίσει κάθε γενικευμένο έργο που του ζητείται, σχεδόν σαν να ήταν άνθρωπος. Η ισχυρή AI, στην ιδανική της μορφή, είναι ένα οιονεί ανθρώπινο σύστημα που διαθέτει τις γνωστικές ικανότητες και τη γενική βιωματική κατανόηση του περιβάλλοντος που έχουμε εμείς οι άνθρωποι φτιάξει, σε συνδυασμό με την ικανότητα επεξεργασίας αυτών των δεδομένων με πολύ μεγαλύτερες ταχύτητες από το ανθρώπινο νου, δηλαδή περιέχει όχι μόνο συνείδηση της ύπαρξης και των επιλογών του αλλά και ταχύτατη διαδικασία απόφασης. Συνεπώς, το σύστημα θα γίνει εκθετικά μεγαλύτερο από τον άνθρωπο στους τομείς της γνώσης, της γνωστικής ικανότητας και της ταχύτητας επεξεργασίας δημιουργώντας μία πολύ ενδιαφέρουσα στιγμή για το ανθρώπινο είδος και τη θέση του στο σύστημα αποφάσεων όπως το γνωρίζουμε σήμερα (ερευνητικό, διαγνωστικό, δικαιοδοτικό κλπ). Η προοπτική να φτάσουμε σε ένα ικανοποιητικό επίπεδο ισχυρής ΑΙ αποτελεί παράλληλα και ένα λόγο έντονης ανησυχίας για την παγκόσμια κοινότητα. Για χρόνια, οι ειδικοί προειδοποιούν για την πιθανότητα να έρθουμε αντιμέτωποι με απροσδόκητες επιπτώσεις της γενικής τεχνητής νοημοσύνης. Ο Ray Kurzweil7 έχει προβλέψει ότι μέχρι το 2029 τα ευφυή μηχανήματα θα είναι σε θέση να ξεπεράσουν τα ανθρώπινα όντα, πρόβλεψη μάλλον υπερβολική αλλά όχι πολύ μακριά από την στόχευση των εταιρειών που αναπτύσσουν σχετικά προϊόντα. Ο Stephen Hawking έχει υπάρξει από τους πιο σκληρούς επικριτές της προσπάθειας για ανάπτυξη συστημάτων ΑΙ ενώ ο Elon Musk προειδοποιεί ότι η ΑΙ μπορεί να αποτελέσει «βασικό κίνδυνο για την ύπαρξη του ανθρώπινου πολιτισμού» και θεωρεί ότι η τεχνητή νοημοσύνη θα είναι πιθανότατα η αιτία του Τρίτου Παγκοσμίου Πολέμου.

Οι ανησυχητικές απόψεις σχετικά με τις τρομακτικές δυνατότητες της γενικής AI αφθονούν, βεβαίως και στα μέσα μαζικής ενημέρωσης με κυρίαρχη την (ζοφερή) εικόνα των τρόπων με τους οποίους οι τεχνολογικές εξελίξεις απειλούν γενικώς την κουλτούρα μας, την ατομικότητά, την ιδιωτικότητα μας και, τελικά, το ίδιο το μυαλό μας8. Για τους πιο αδύναμους στην κοινωνική δομή και ιδίως τους ασθενέστερους οικονομικά υποστηρίζεται ότι η ΑΙ θα συμβάλλει πολύ στην καταστρατήγηση βασικών δικαιωμάτων, η οποία έχει ήδη ξεκινήσει με την αλόγιστη χρήση των προσωπικών τους δεδομένων μέσα από συστήματα παρακολούθησης (όπως τα συστήματα ασφάλισης και πιστοληπτικής ικανότητας). Ορισμένοι προβλέπουν μάλιστα ένα νέο καθεστώς εποπτείας, προφίλ, τιμωρίας, περιορισμού και αποκλεισμού, το οποίο αποκαλείται το "ψηφιακό φτωχό σπίτι". Αν και η τεχνολογία συχνά προσεγγίζεται από ερευνητές και διαμορφωτές πολιτικής ως μοχλός για την αποτελεσματικότερη παροχή υπηρεσιών στους φτωχούς, ίσως τελικά να επιδεινώνει την ανισότητα9. Από τον γενικό περίγυρο μίας κοινωνίας έως και το μικροκλίμα μίας ιδιωτικής εταιρείας με την βοήθεια των συστημάτων ΑΙ είναι δυνατό να υφίσταται κάποιος παράνομες διακρίσεις χωρίς να το γνωρίζει κανείς, ή να το γνωρίζουν ελάχιστοι, αφού η λειτουργία της ισχυρής ΑΙ δεν στηρίζεται στο να δημιουργεί αρχεία δεδομένων ή να αποθηκεύει την μηχανική των αποφάσεων της αλλά στο να εξελίσσει τις επιλογές της ανεξάρτητα και μέσα από την εκμάθηση των κανόνων λειτουργίας και μάλιστα σε ταχύτατους ρυθμούς αφού οι αλγόριθμοι αναπτύσσουν τις ικανότητές τους να ρυθμίζουν τις ανθρώπινες καταστάσεις ταχύτερα από ό,τι ο άνθρωπος καταφέρνει να ρυθμίσει τους αλγορίθμους10. Για τους λόγους αυτούς η πρόοδος φαίνεται να αποτελεί σοβαρή απειλή καταρχήν για την ανθρώπινη ηθική, τουλάχιστον όπως την αντιλαμβανόμαστε σήμερα.

Δίκαιο και ΑΙ

Και αν μπορούσε κανείς να συνοψίσει τους λόγους ανησυχίας στον κυριότερο, αυτός θα ήταν, κατά την άποψη του γράφοντος, το γεγονός ότι αυτή η αποσύνδεση της μηχανικής συμπεριφοράς από τον προγραμματισμό που έχει εισαγάγει ένας άνθρωπος στην μηχανή κάνει δυσδιάκριτη την σύνδεση αιτίου και αιτιατού και δημιουργεί ένα νέο, ίσως δυστοπικό, περιβάλλον στο θέμα της απόδοσης ευθύνης από τις συνέπειες που δύναται να έχει μία τέτοια μορφή αλληλεπίδρασης μεταξύ μηχανών και ανθρώπων. Με άλλα λόγια ένα από τα δυσχερέστερα προβλήματα που ανακύπτουν και ένα συνεχές σημείο ανησυχίας είναι η δυνατότητα των μηχανών να αναπτύξουν τόσο αυτόνομη διαδικασία επιλογών και αποφάσεων ώστε να μην μπορούν να ελεγχθούν αποτελεσματικά από τον άνθρωπο και να αποδοθούν ευθέως στην δική του κρίση και επιλογή. Την εικόνα αυτής της πρόβλεψης μάλιστα επιτείνει η τεχνολογική ανάγκη για την ανάπτυξη νέων ηλεκτρονικών (αν πλέον αρκεί αυτός ο όρος) δικτύων τα οποία θα είναι ικανά να ανταπεξέλθουν στην διαχείριση και επεξεργασία των δεδομένων που παράγονται και απαιτούνται για τα συστήματα και τις εφαρμογές ΑΙ.

Τα δίκτυα αυτά, όπως αναφέραμε και ανωτέρω, καλούνται «νευρωνικά δίκτυα» (ΑΝΝ) γιατί προσομοιάζουν τα νευρικά συστήματα του εγκεφάλου των έμβιων όντων (ή τουλάχιστον των πιο εξελιγμένων…). Η τυποποίηση της ιδανικής αρχιτεκτονικής ενός τέτοιου νευρωνικού δικτύου είναι κάπως δύσκολη, καθώς ουσιαστικά όποια αρχική αρχιτεκτονική σχεδιαστεί θα πρέπει να αναθεωρείται συχνά σε μία διαδικασία συνεχούς εξέλιξης βασισμένης στις νέες απαιτήσεις της εφαρμογής ΑΙ, οι οποίες, όταν μιλάμε για ισχυρή ΑΙ, δεν είναι επαρκώς προβλέψιμες. Από θεωρητική άποψη, οι νευροεπιστήμονες έχουν αρχίσει να βάζουν τα θεμέλια της μάθησης και των συμπερασμάτων στα νευρωνικά δίκτυα επόμενης γενιάς, προσδιορίζοντας τα επιθυμητά μοντέλα επεξεργασίας των πληροφοριών11. Για το λόγο αυτό φαίνεται καλύτερη λύση η ανάπτυξη τέτοιων δικτύων βάσει μίας αρχικής λογικής (πρότυπο) παρά βάσει μίας καθορισμένης αρχιτεκτονικής. Ένα από τα μεγαλύτερα οφέλη που θα προέκυπτε από ένα τέτοιο πρότυπο θα ήταν η δυνατότητα υποκατάστασης των μοντέλων AI ανάλογα με την εφαρμογή τους. Επί του παρόντος, η μετάβαση από μία ΑΙ εφαρμογή που σχεδιάστηκε για να αναγνωρίζει πρόσωπα (face recognition) σε μία που σχεδιάστηκε για να κατανοήσει την ανθρώπινη ομιλία (speech recognition) θα απαιτούσε μια πλήρη αναθεώρηση του νευρωνικού δικτύου που συνδέεται με αυτή12. Στο επίκεντρο των προσπαθειών εταιρειών που κατέχουν πολλά δεδομένα και πληροφορίες, όπως π.χ. η Google και το Facebook, φαίνεται να είναι η δημιουργία συστημάτων ΑΙ που αναπαράγουν τον ανθρώπινο εγκέφαλο βασιζόμενα σε μία πλήρη παγκόσμια βάση δεδομένων και πληροφοριών και στη συνέχεια να καταστούν αυτόνομα μέσα από την συνδυασμένη εκπαίδευση των αλγόριθμων (ήτοι των μηχανών) να κατανοούν μοτίβα, να διακρίνουν πρόσωπα και εικόνες και να κατανοούν την γλώσσα13.

Ο στόχος αυτών των εταιρειών φαίνεται να είναι να επιτρέψουν στην AI να βοηθήσει τους ανθρώπους να βρίσκουν πιο γρήγορα τις πληροφορίες που χρειάζονται ταξινομημένες και διαχωρισμένες σύμφωνα με το σκεπτικό της αναζήτησης τους, να τους βοηθήσει δηλαδή να σκέφτονται και δρουν πιο αποτελεσματικά σε λιγότερο χρόνο. Για πρώτη φορά βλέπουμε ότι μία μηχανή μπορεί να αναγνώσει και κατανοήσει (!) ένα κείμενο πιο αξιόπιστα από τον άνθρωπο14. Υπό αυτή την οπτική οι δικαστές-μηχανές σαν μέσο επίλυσης διαφορών δεν φαίνονται τόσο μακριά, παρά το ότι επικρατεί η πεποίθηση ότι ο πραγματικός μακροπρόθεσμος στόχος της πληροφορικής υποστήριξης των δικαστικών αποφάσεων δεν μπορεί να είναι στην πράξη η ιδέα της αντικατάστασης των φυσικών δικαστών με λογισμικό, αλλά μια αναδιάταξη του τρόπου διαχείρισης του χρόνου και της πιθανότητας λάθους, δηλαδή η υποστήριξη των καθηκόντων των δικαστών, παίρνοντας και από τις δύο πηγές (μηχανές και άνθρωποι) το καλύτερο για την βέλτιστη απονομή της δικαιοσύνης15.

Για τους λόγους αυτούς τα συστήματα αυτόματης δικαιοδοτικής λειτουργίας (automated judicial decision-making) θα έπρεπε κανονικά να φαίνονται αρκετά μακρινά σε αποδοχή και υιοθέτηση, χωρίς, βεβαίως, να αποκλείεται η υποστηρικτική τους χρήση. Από την άλλη όμως, η υιοθέτηση τους γίνεται με γοργά βήματα, ειδικά στις ΗΠΑ, κι αυτό εγείρει πολλά ζητήματα, αφού οι πρώτες μεγάλες αναφορές για τη χρήση τέτοιων συστημάτων δείχνουν αυξημένη μεροληπτικότητα απέναντι σε συγκεκριμένες κατηγορίες κατηγορούμενων, όπως οι έγχρωμοι έφηβοι16. Φυσικά είναι εύλογο να οδηγούμαστε σε τέτοιες στερεοτυπικές και γενικευμένες αποφάσεις (που για να είμαστε ειλικρινείς δεν παύουν να επηρεάζουν τις αποφάσεις κάποιων ανθρώπων-δικαστών ακόμα και χωρίς την παρέμβαση ειδικού αλγόριθμου) αφού ο αλγόριθμος αξιολόγησης του επικίνδυνου της συμπεριφοράς ενός κατηγορούμενου (risk assessment) φτιάχνεται από προγραμματιστές και στηρίζεται σε κριτήρια που λαμβάνουν υπόψη προσωπικά χαρακτηριστικά όπως ηλικία, φύλο, γεωγραφία, οικογενειακό υπόβαθρο και καθεστώς απασχόλησης. Ως αποτέλεσμα, δύο άτομα που κατηγορούνται για το ίδιο έγκλημα ενδέχεται να λαμβάνουν διαφορετικά αποτελέσματα σε ότι αφορά την πρόβλεψη τέλεσης ενός αδικήματος, της εγγύησης που θα πρέπει να καταβάλλουν για να μην φυλακιστούν ή ακόμα και της επιβαλλόμενης ποινής με βάση δεδομένα που αφενός είναι πέρα από τον έλεγχό τους και αφετέρου οι ίδιοι και οι συνήγοροι τους δεν έχουν τρόπο να εκτιμήσουν ή να αμφισβητήσουν αφού δεν αποκαλύπτεται ο μηχανισμός πίσω από τον αλγόριθμο που οδηγεί στις συγκεκριμένες επιλογές17.

Οι δικαστικές αποφάσεις όμως δεν είναι απλή αξιολόγηση των γεγονότων, όπως όλοι γνωρίζουμε. Παράλληλα εμπεριέχουν το φιλτράρισμα από ένα αποκλειστικά ανθρώπινο χαρακτηριστικό την συνείδηση και την ηθική αξιολόγηση της κατάστασης που κάθε φορά κρίνεται. Η προοπτική να δημιουργηθούν υπολογιστικά συστήματα στα οποία θα ανατεθεί αυτή η ηθική αξιολόγηση δεν είναι και πολύ ευοίωνη κυρίως γιατί δεν υπάρχει μία κοινή αντίληψη για το τί περιλαμβάνει και τί συνιστά ηθική όχι μόνο μεταξύ διαφορετικών φυλών και κοινωνιών αλλά ανάμεσα και στα μέλη της ίδιας γεωγραφικής κοινωνίας. Το τί είναι ηθικό και τι όχι είναι πάντα μία συνάρτηση πολλών εξατομικευμένων ιδεών για την αξία ή την απαξία μίας δεδομένης στιγμής. Συνεπώς δύσκολα θα μπορούσαμε να αναθέσουμε σε ένα άτομο ή ακόμα και μία ομάδα ειδικών να εισάγουν την αξιακή τους κλίμακα σε ένα σύστημα ΑΙ που θα απονέμει δικαιοσύνη με γνώμονα και την ηθική αξιολόγηση της εξατομικευμένης συνθήκης που οδήγησε σε μία πράξη. Η μη ύπαρξη μίας γενικής συναίνεσης όμως στην φιλοσοφία της ηθικής δεν σημαίνει απαραίτητα ότι τα αποτελέσματα της αξιολόγησης που προέρχονται από μία αλγοριθμική ανάλυση, δεν θα πρέπει να λαμβάνονται υπόψη. Αντιθέτως θα έπρεπε μάλλον να καταδεικνύει ότι θα πρέπει να χαραχθούν συγκεκριμένα όρια και, βέβαια, οι εμπλεκόμενοι και κυρίως οι δικαστές να λάβουν την κατάλληλη εκπαίδευση για την σωστή χρήση αυτών των αποτελεσμάτων και την αποφυγή γενικεύσεων18.

Προφανώς και ένα μεγάλο κομμάτι του δημιουργούμενου παζλ αποτελούν και αυτοί που καλούνται να συνδράμουν με το λειτουργικό τους ρόλο στην απονομή της δικαιοσύνης από την πλευρά των διαδίκων, δηλαδή εμείς οι δικηγόροι. Και αν τα ζητήματα που αφορούν το δίκαιο της πληροφορικής, των ηλεκτρονικών δικτύων, της διαδικτυακής συμπεριφοράς και της προστασίας του ατόμου από την χρήση της τεχνολογίας φαίνονται ήδη θέματα του μέλλοντος για μεγάλη μερίδα του νομικού κόσμου τα συστήματα και οι μέθοδοι αλληλεπίδρασης της ΑΙ μάλλον. Η κατανόηση τους είναι όμως όρος εκ των ουκ άνευ για να μπορέσουμε να προσεγγίσουμε τις ρίζες ενός σπουδαίου ζητήματος που θα απασχολήσει την τέχνη της νομοθετικής περιβολής και της προσπάθειας ένταξης στη νομική λογική ενός καινοφανούς τρόπου διάδρασης με τον αυτοματοποιημένο κόσμο των μη βιολογικών συμπεριφορών. Όμως το ερώτημα είναι αν θα υπάρχουν δικηγόροι με την επέλαση της ΑΙ ή θα είναι και αυτό το επάγγελμα ένα από αυτά που θα αντικατασταθούν, ολικώς ή μερικώς, με μηχανές που σε σύντομο χρόνο θα μπορούν να επιτελούν δύσκολες και περίπλοκες αναλύσεις της νομοθεσίας και της νομολογίας και θα ανακοινώνουν στον πελάτη αν έχει πιθανότητα να ευοδώσει η δικαστική του διαμάχη; Η απάντηση δεν είναι απλή και προφανώς βρίσκεται σε συνάρτηση με την τύχη και άλλων επαγγελμάτων που συνήθως κινούνται γύρω από την λειτουργία της δικαιοσύνης και η πραγματικότητα είναι ότι πράγματι θα έρθει κάποτε μία ημέρα που τα συστήματα ΑΙ θα μπορούν να μας δίνουν εξαιρετικά αποτελέσματα στην έρευνα και ερμηνεία των νομικών καταστάσεων. Το δικηγορικό επάγγελμα στηρίζεται σε μεγάλο βαθμό στις βάσεις νομικών δεδομένων, στην ουσία αποτελεί την εφαρμογή όσων έχουν νομοθετηθεί ή αποφασιστεί από δικαστήρια και αρχές σε παρόμοιες υποθέσεις. Και αν αυτό φαντάζει αβάσιμο διότι στην εργασία μας όλοι βάζουμε και το προσωπικό στοιχείο της επιλογής και της αξιολόγησης των κινήσεων που θα κάνουμε σε μία νομική υπόθεση, ας σκεφτούμε ότι τα πρώιμα υπολογιστικά συστήματα ΑΙ έχουν ήδη καταφέρει να προβλέψουν την τακτική και τις κινήσεις παγκόσμιων πρωταθλητών στο σκάκι επιφέροντας εντυπωσιακά γρήγορες νίκες εναντίον τους.

Φρονώ όμως ότι όπως και με τους δικαστές έτσι και στην περίπτωση των δικηγόρων, η απάντηση θα πρέπει να είναι η ενδιάθετη συνειδησιακή κατάσταση που ρυθμίζει τις ανθρώπινες σχέσεις με βάση έναν αξιακό κώδικα συνεχώς μεταβαλλόμενο από περιοχή σε περιοχή, από εποχή σε εποχή και από άνθρωπο σε άνθρωπο και λέγεται ηθική. Ακόμα και αν δεν καταφύγουμε στις διακρίσεις της απονομής της Δικαιοσύνης που έθεσε ο Αριστοτέλης19 και ειδικά της διανεμητικής δικαιοσύνης, η παρέμβαση στην «στεγνή» ανάγνωση των νόμων και η στήριξη των επιχειρημάτων με την ηθική αξιολόγηση της συγκεκριμένης πράξης και των συγκεκριμένων ανθρώπων είναι μία λειτουργία στην οποία δύσκολα θα μπορέσουν οι μηχανές να αντικαταστήσουν τον άνθρωπο και αυτός θα πρέπει να είναι ο κύριος άξονας αυτορρύθμισης του δικηγορικού επαγγέλματος. Φυσικά, τα ανωτέρω δεν μοιάζουν ικανά να ισχύσουν για τα επαγγέλματα των δικαστικών επιμελητών και βοηθών δικηγόρων (paralegals) τα οποία προβλέπεται ότι σύντομα θα αντιμετωπίσουν δυσκολίες με την διάδοση συστημάτων επίδοσης ηλεκτρονικών εγγράφων και την αυξανόμενη ικανότητα των μηχανών να ερευνούν και ερμηνεύουν τους κανόνες και τις αποφάσεις που είναι σχετικές με μία υπόθεση σε χρόνο εξαιρετικά ταχύ και αποτελεσματικό.

Οι μηχανές ως υπαίτιοι πράξεων

Στην εφαρμογή της ισχυρής ΑΙ όπου τα συστήματα και οι εφαρμογές ΑΙ μαθαίνουν από την εμπειρία και τα λάθη τους (ενισχυμένη μηχανική μάθηση ή reinforcement machine learning) καθίσταται δυσδιάκριτη η υπαιτιότητα από την μηχανή που επιλέγει μόνη της μία ενέργεια. Κι αυτό θα συμβεί γιατί στον αρχικό προγραμματισμό που έκανε κάποτε ο άνθρωπος δεν υπήρξε πρόβλεψη για τη συγκεκριμένη επιλογή που οδηγεί για παράδειγμα, σε ένα τραυματισμό, οπότε τα παραδοσιακά νομικά εργαλεία περί καταλογισμού των αδικοπραξιών θα έδειχναν μία αποκομμένη σχέση, μία έλλειψη αιτιώδους συνάφειας, και άρα ότι ο ανθρώπινος παράγοντας δεν είναι υπεύθυνος. Αυτό ασφαλώς δεν μπορεί να επικρατήσει σαν άποψη οδηγώντας de facto σε μία τάξη μηχανών που έχουν το ανεύθυνο20. Δεν μπορεί να ισχύσει διότι διαφορετικά αντί τα συστήματα ΑΙ να προσαρμοστούν στα νομικά συστήματα μας θα έπρεπε τα νομικά μας συστήματα να αλλάξουν κατά τρόπο που δεν μπορεί να οριστεί σε ένα διαρκές μεταβαλλόμενο περιβάλλον με μόνο συνομιλητή μηχανές που μαθαίνουν από τα λάθη τους, οδηγώντας τις κοινωνίες σε ένα δυστοπικό μέλλον. Οι νόμοι προφανώς και θα πρέπει να προσαρμοστούν (και) σε αυτή την τεχνολογική αλλαγή στο εγγύς μέλλον αλλά αυτό θα πρέπει να γίνει με την πρωτοβουλία του πρότερου σχεδιασμού και όχι με αμυντική στάση. Στην πράξη, αυτό που φαίνεται αρκετό για να προβλεφθεί σε ικανό βαθμό η ευθύνη για την ζημιά που μπορεί να προκαλέσει η ΑΙ είναι η ανάπτυξη συστημάτων και προτύπων που αφορούν είτε την πνευματική ιδιοκτησία για τους αλγόριθμους είτε/και τεχνικές σταθερές μέσω διεθνών συμφωνιών, που θα εφαρμόζονται και ενεργοποιούνται σε περιπτώσεις που κάποιος υφίσταται αυτή τη ζημία. Αυτό πιθανόν να συνεπάγεται τη σύγκληση μιας ομάδας κορυφαίων εμπειρογνωμόνων της AI (όπως το OpenAI21 ή το High-Level Expert Group on Artificial Intelligence22, που δημιούργησε η Ε. Επιτροπή) και την δημιουργία κινήσεων σε επίπεδο ενώσεων κρατών για την δημιουργία οδηγιών και την καθιέρωση κοινά αποδεκτών νομικών και τεχνικών κανόνων που περιλαμβάνουν ρητούς ορισμούς για αρχιτεκτονικές νευρωνικών δικτύων (όπως είδαμε ένα νευρωνικό δίκτυο περιέχει οδηγίες για την κατάρτιση ενός μοντέλου AI και την ερμηνεία ενός μοντέλου AI) και τα πρότυπα στα οποία πρέπει να συμμορφώνεται η AI.

Για να φτάσουμε, βέβαια, στη δημιουργία τέτοιων προτύπων, θα χρειαστεί πιθανότατα κάποια κυβερνητική παρέμβαση, η οποία δεν φαίνεται να είναι πολύ μακριά, λαμβάνοντας υπόψη ότι σε πολλά κοινοβούλια χωρών με αναπτυγμένη ψηφιακή υποδομή και βιομηχανία έχουν ξεκινήσει ήδη οι συζητήσεις σχετικά με τη μελλοντική ρύθμιση της έρευνας και των εφαρμογών της AI και της ρομποτικής δείχνοντας ότι, καταρχήν, υπάρχει επίγνωση της ανάγκης να δημιουργηθούν νόμοι και κανονισμοί πριν ωριμάσει η αγορά αυτή. Στην Μ. Βρετανία, για παράδειγμα, η Επιτροπή Επιστήμης και Τεχνολογίας της Βουλής των Κοινοτήτων23 δήλωσε ότι ενώ είναι πολύ νωρίς για να θεσπιστούν τομεακοί κανονισμοί για αυτόν τον εκκολαπτόμενο τομέα, είναι ζωτικής σημασίας να αρχίσει τώρα προσεκτικός έλεγχος των ηθικών, νομικών και κοινωνικών διαστάσεων των τεχνητά έξυπνων συστημάτων και τονίζει την ανάγκη για την ανάγκη ενός συστήματος «λογοδοσίας», όταν πρόκειται για την ανάπτυξη συστημάτων AI. Το σύστημα της λογοδοσίας ως σύστημα αυτορρύθμισης δεν είναι πρωτόγνωρο σε χώρες όπως η Μ. Βρετανία και η Αμερική ενώ διαδόθηκε αρκετά στις ευρωπαϊκές χώρες και με την έναρξη εφαρμογής του Κανονισμού 679/2016/ΕΕ, γνωστού και ως GDPR.

Με αυτά τα δεδομένα λοιπόν είναι σαφές ότι το επόμενο πεδίο κοινωνικής διερεύνησης και ίσως αγώνα θα είναι η νομική και ηθική οριοθέτηση στη χρήση των έξυπνων μηχανών. Προς αυτή την κατεύθυνση είναι προφανές ότι οι προσπάθειες θα πρέπει να περιβληθούν τον μανδύα διεθνών οργανισμών που θα δώσουν έναν ενιαίο πλαίσιο ρυθμίσεων για τις τεχνολογίες ΑΙ που θα είναι αποδεκτές σε όσο το δυνατό μεγαλύτερο μέρος των κοινωνιών. Το πλαίσιο αυτό θα ρυθμίζει ενιαία ή τομεακά τουλάχιστον τις πιο κρίσιμες περιοχές εφαρμογής της ΑΙ, όπως η δυνατότητα υπονόμευσης της σταθερότητας των κυβερνήσεων (μέσω παραγωγής και διασποράς ψευδών ειδήσεων), η διαχείριση της τεράστιας ποσότητας προσωπικών πληροφοριών ακόμα και η διεξαγωγή ρομποτικών πολέμων.

Ηθική, Διαφάνεια και ΑΙ

Έχοντας υπόψη ότι η ΑΙ αναμένεται να διαμορφώσει το μέλλον του κόσμου, καθώς τα πάντα, από τα αυτοκίνητα έως τα νομικά συστήματα, υιοθετούν έξυπνες τεχνολογίες και υπερυπολογιστικά μηχανήματα θα πρέπει να στρέψουμε το ενδιαφέρον μας στο πώς θα ενδυναμώσουμε τα ήδη κατεκτημένα δικαιώματα, νομικά και κοινωνικά, όπως το δικαίωμα στην προστασία της προσωπικότητας και των δεδομένων που παράγουμε. Αυτό θα αποτελέσει τη βάση για την ομαλή ανάπτυξη κάθε σχετικού συστήματος που θα αφορά την ανάλυση και αποθήκευση της ιατρικής, οικονομικής, κοινωνικής και κάθε άλλης κατάστασης μας. Η νομική και ηθική επανεξέταση των κανόνων που διέπουν την διαδικασία αυτή (και ως πρώτο βήμα εκλαμβάνουμε τον GDPR) ενδέχεται να επηρεάσει σημαντικά το μέλλον αγορών που για την ώρα φαίνονται ως οι μοναδικές λύσεις, όπως οι υπηρεσίες νεφοϋπολογιστικής (cloud computing). Διότι αν δεν υπάρξει μία σαφής καθοδήγηση στην λειτουργία των νευρωνικών δικτύων (ΑΝΝ) προς την κατεύθυνση της δημιουργίας τμημάτων τους που θα διακινούν κρυπτογραφημένα δεδομένα (cryptonets24) σε μια υπηρεσία cloud που φιλοξενεί το νευρωνικό δίκτυο, ουσιαστικά δεν μπορούμε να μιλάμε για επαρκή προστασία. Η κρυπτογράφηση αυτή θα εξασφαλίζει ότι τα δεδομένα παραμένουν εμπιστευτικά δεδομένου ότι το σύννεφο δεν έχει πρόσβαση στα κλειδιά που απαιτούνται για την αποκρυπτογράφηση του.

Επίσης πολύ σημαντικό είναι να αποφύγουμε τους άμεσους κινδύνους που μπορεί να επιφέρει εξαρχής η ανάπτυξη συστημάτων ΑΙ και είναι η λεγόμενη μεροληπτική ΑΙ (biased AI), όταν προγράμματα - τα οποία είναι θεωρητικά ουδέτερα - βασίζονται σε ελαττωματικούς αλγορίθμους ή σε ανεπαρκή δεδομένα με αποτέλεσμα την ανάπτυξη μεροληπτικών συμπερασμάτων κατά ορισμένων ατόμων. Δεν πρέπει να ξεχνάμε ότι στα ηθικά διλλήματα οι άνθρωποι αντιδρούν με την συνείδηση και το ένστικτο αλλά οι μηχανές χρειάζονται καθορισμένες εντολές σε γλώσσα που μπορούν να κατανοήσουν25.

Πρόσφατες υποθέσεις δείχνουν ότι το πρόβλημα υπάρχει ήδη26. Ορισμένα παραδείγματα καθημερινής χρήσης μπορεί να είναι ένα μεροληπτικό λογισμικό αναγνώρισης προσώπου που δεν αναγνωρίζει σωστά ή δεν αποδέχεται μη λευκούς ανθρώπους ή ένα λογισμικό αναγνώρισης ομιλίας που δεν αναγνωρίζει τις φωνές των γυναικών. Ένα πιο ανησυχητικό παράδειγμα μπορεί να είναι ένα εργαλείο ΑΙ για την αξιολόγηση της πιστοληπτικής ικανότητας που κάνει φυλετικές διακρίσεις. Για να καταλάβουμε πώς λειτουργεί ένα τέτοιο σύστημα, ο αλγόριθμος που χρησιμοποιείται από ένα πιστωτικό ίδρυμα μπορεί να αναπτυχθεί χρησιμοποιώντας δεδομένα από προϋπάρχουσες αξιολογήσεις πιστοληπτικής ικανότητας ή με βάση τα αρχεία εξόφλησης δανείου συγκεκριμένου πιστωτικού ιδρύματος. Εναλλακτικά, μπορεί να χρησιμοποιήσει δεδομένα που είναι ευρέως διαθέσιμα στο διαδίκτυο - για παράδειγμα, η συμπεριφορά στα ηλεκτρονικά μέσα κοινωνικής δικτύωση ή τα γενικευμένα χαρακτηριστικά σχετικά με τη περιοχή στην οποία ζει ο αιτών. Εάν ακόμη και λίγες από τις πηγές των δεδομένων αυτών περιέχουν μεροληπτικές πληροφορίες, αν περιέχουν δηλαδή πληροφορίες σχετικά με το φύλο, τη φυλή, το χρώμα ή την εθνικότητα, ή συλλέξαμε δεδομένα που δεν είναι αντιπροσωπευτικά, τότε θα μπορούσαμε να δημιουργήσουμε άθελα μας έναν μεροληπτικό αλγόριθμο ΑΙ. Εάν τροφοδοτούμε την βάση δεδομένων του αλγόριθμου με δεδομένα που δείχνουν ότι η πλειονότητα των θέσεων ευθύνης στο εργασιακό περιβάλλον καταλαμβάνονται από άνδρες, ο αλγόριθμος ΑΙ κατανοεί ότι η εταιρεία προσπαθεί να προσλάβει έναν άνδρα, ακόμα και όταν αυτό δεν αποτελεί εμφανές και σαφές κριτήριο της θέσης εργασίας. Οι αλγόριθμοι κατάρτισης με ανεπαρκείς βάσεις δεδομένων μπορούν να οδηγήσουν σε συμπεράσματα όπως ότι οι γυναίκες είναι κακοί υποψήφιοι για ρόλους ηγετικούς ή ότι άνθρωποι που διαμένουν σε έναν «κακό» ταχυδρομικό κώδικα είναι πιο πιθανό να διαπράξουν ένα έγκλημα. Το πρόβλημα δε με τα συστήματα ΑΙ είναι ότι από τη στιγμή που ο αλγόριθμος περιέχει λάθη στην αρχική βάση δεδομένων, είναι αρκετά δύσκολο ή και ακατόρθωτο (στην περίπτωση της ισχυρής ΑΙ) να βρεις το λάθος, αν δεν παύσεις ολοκληρωτικά τη λειτουργία του συστήματος και το επανασχεδιάσεις. Σύμφωνα με μελέτη του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης27, για παράδειγμα, παρά το ότι όλες οι σήμερα χρησιμοποιούμενες τεχνολογίες αναγνώρισης προσώπου βεβαιώνουν ότι τα κριτήρια της εφαρμογής δεν είναι αποκλειστικά φυλετικά, σχεδόν το 35 τοις εκατό των εικόνων με γυναίκες με σκουρότερο δέρμα είχαν λάθη στο λογισμικό αναγνώρισης προσώπου ενώ οι φωτογραφίες που απεικόνιζαν άνδρες με πιο ανοικτό δέρμα είχαν ποσοστό σφάλματος περίπου 1%.

Ως βάση των μεροληπτικών αυτών δεδομένων είναι βέβαια ο άνθρωπος, ας μην το ξεχνάμε αυτό. Εντούτοις, τα πιθανά προβλήματα των μεροληπτικών αποτελεσμάτων στην ΑΙ δείχνουν πώς ορισμένες από τις προκαταλήψεις που υπάρχουν στον πραγματικό κόσμο μπορούν να επηρεάσουν την τεχνολογία με πολύ πιο ισχυρά αποτελέσματα. Τα συστήματα AI απαρτίζονται από αλγόριθμους ή από ένα σύνολο κανόνων που θέτουν τους κανόνες, ώστε να μπορούν να λαμβάνουν αποφάσεις με ελάχιστη παρέμβαση από τον άνθρωπο. Αλλά οι αλγόριθμοι πρέπει να τροφοδοτούνται με δεδομένα για να μάθουν αυτούς τους κανόνες και, μερικές φορές, η ανθρώπινη μεροληψία επηρεάζει αυτούς τους κανόνες. Επιπροσθέτως, αυτό που μάλλον ενισχύει το φόβο αυτό είναι το γεγονός ότι το αντικείμενο του ελέγχου χάνει την δυνατότητα να έχει μία ουσιαστική και ανθρώπινη επαφή με τον κρίνοντα γιατί απλά αυτός είναι ένας αλγόριθμος και δεν μπορεί να κατανοήσει ότι παράγει παραπλανητικά αποτελέσματα. Για το λόγο αυτό ακριβώς και στον GDPR έχει προβλεφθεί η δυνατότητα οιουδήποτε φυσικού προσώπου κρίνεται βάσει του αυτοματοποιημένου προφίλ του που έχει δημιουργηθεί από τα προσωπικά του δεδομένα, ανεξάρτητα από την πηγή τους, να ζητήσει την παρέμβαση ενός φυσικού προσώπου28.

Η αποκάλυψη ύπαρξης μεροληπτικών πληροφοριών στον αλγόριθμο των μηχανών έχει υπάρξει η αιτία για την κατάργηση συστημάτων ΑΙ σε μεγάλες εταιρείες29. Για το λόγο αυτό σωστά προτείνονται τέσσερις βασικοί άξονες αυτορρύθμισης από παγκόσμιους φορείς, όπως το World Economic Forum, που προτείνει να ελέγχεται η ανάπτυξη κάθε συστήματος και εφαρμογής ΑΙ με τα εξής κριτήρια: Την αναγνώριση ότι μπορεί να υπάρχει μεροληψία, την θέληση να ελεγχθούν οι βάσεις για τέτοια δεδομένα (διακυβέρνηση των δεδομένων), την διασφάλιση πηγών με δεδομένα που είναι αξιόπιστες και έγκυρες και, βεβαίως, την διαφάνεια στον τρόπο επιλογής των κριτηρίων και τη λειτουργία του συστήματος30. Το θέμα είναι βέβαια τις απόψεις αυτές να υιοθετήσει πρώτη η αγορά και τα πρώτα σημάδια θα λέγαμε ότι είναι προς την σωστή κατεύθυνση.

Η ύπαρξη διαφάνειας έχει, λοιπόν, πολύ σημασία, όχι μόνο για τον αποτελεσματικό έλεγχο των πηγών από όπου οι βάσεις, που τροφοδοτούν τα συστήματα ΑΙ, αντλούν τα δεδομένα τους αλλά και για την ευχέρεια ελέγχου της μηχανικής πίσω από την παραγωγή αποτελεσμάτων και αποφάσεων. Το μεγάλο πρόβλημα με τα συστήματα αξιολόγησης των κατηγορούμενων, που αναφέραμε ανωτέρω, είναι ότι οι εταιρείες που τα έχουν αναπτύξει δεν αποκαλύπτουν τον τρόπο που έχει αναπτυχθεί ο αλγόριθμος, δηλαδή τα δεδομένα που συλλέγει και την βαρύτητα που τους δίνει, ώστε να εξάγει ένα αποτέλεσμα για το πόσο αξιόποινο είναι ένα φυσικό πρόσωπο, διότι τα θεωρούν εμπορικό τους μυστικό. Αυτό, όμως, σαν πρακτική, περιορίζει τον βαθμό εμπιστοσύνης που μπορούν να εμπνεύσουν οι εταιρείες, ειδικά όταν χρησιμοποιούνται σε ένα ρυθμιζόμενο πλαίσιο, διότι δεν μπορεί να ελεγχθεί η πιθανότητα ύπαρξης μεροληπτικών δεδομένων που περιέχουν αστοχίες και στερεότυπα (π.χ. για εθνοτικές μειονότητες ή υποβαθμισμένες περιοχές).

Από την οπτική της καινοτομίας εξάλλου θα ήταν προς όφελος της κοινωνίας αλλά και της αγοράς να μην καλύπτονται από τα συστήματα της βιομηχανικής ιδιοκτησίας οι καινοτομίες της ΑΙ, όπως οι αλγόριθμοι και ο μηχανισμός με τον οποίο αναπτύσσεται η μηχανική τους μάθηση. Οι εταιρείες πρέπει να διερευνήσουν εάν θέλουν να μοιραστούν και επωφεληθούν από την γενικευμένη γνώση που αφορά την ΑΙ ή αν η αποτελεσματικότητα που έχει δημιουργήσει το AI προσφέρει ένα πλεονέκτημα στην αγορά που θα πρέπει να παραμείνει στην αποκλειστική τους ιδιοκτησία και εκμετάλλευση. Προφανώς, ακολουθώντας τα σημερινά δεδομένα, ο πηγαίος κώδικας τους θα προστατεύεται από πνευματικά δικαιώματα αλλά δεν θα πρέπει να συνδέεται απαραίτητα με διπλώματα ευρεσιτεχνίας. Για το λόγο αυτό και θεωρείται ότι η βέλτιστη λύση θα ήταν ένας συνδυασμός της πνευματικής ιδιοκτησίας με κάποιες εκδοχές της βιομηχανικής ή ακόμα και μία μεταφορά προς την λογική του ανοιχτού κώδικα31. Σημαντικό ρόλο θα παίξει και το ζήτημα του κυρίου της μηχανής που αναπτύσσει τα συστήματα ΑΙ και η σχέση του με τον χρήστη/προγραμματιστή που αναπτύσσει το σχετικό αλγόριθμο ο οποίος εξομοιούται πλέον με τον εφευρέτη. Με αυτό τον τρόπο ο εφευρέτης θα εξακολουθεί να είναι ένας άνθρωπος, ακόμα και αφού αναπτυχθούν πλέον τα αυτόνομα συστήματα (ισχυρής) AI.

Ευθύνη για ηθική διακυβέρνηση δεδομένων

Όπως είδαμε ο ανθρώπινος παράγοντας είναι πράγματι πολύ σημαντικός και η διατήρηση της εγγύτητας του με τα συστήματα μηχανών και ΑΙ αποδεικνύεται επαναλαμβανόμενα σημαντική. Προς το παρόν, ούτως ή άλλως, οι άνθρωποι αποτελούμε την αφορμή και τον στόχο για την ανάπτυξη όλων αυτών των συστημάτων και είναι η δική μας συμπεριφορά και περιήγηση στον ψηφιακό και φυσικό κόσμο που τροφοδοτεί όλα τα συστήματα με πληροφορίες, αντιδράσεις, επιλογές και λοιπά δεδομένα. Και βέβαια στόχος της χρήσης τους είναι η βελτίωση της ζωής του ανθρώπου, ακόμα και αν συσκευάζεται σε ένα καταναλωτικό προϊόν που φαίνεται περιττό στους περισσότερους. Αυτή είναι μία πραγματικότητα που οφείλουμε να διατηρήσουμε για να μην χάσουμε τον συνδετικό κρίκο μεταξύ ανθρώπου και μηχανών.

Η ανάπτυξη, ο προγραμματισμός και η χρήση της ρομποτικής και της AI εγείρει συνακόλουθα μια σειρά ηθικών και νομικών ζητημάτων, που πρέπει να εντοπιστούν και να αντιμετωπιστούν άμεσα, έτσι ώστε τα κοινωνικά οφέλη των τεχνολογιών να μπορούν να μεγιστοποιηθούν ταυτόχρονα με τον μετριασμό των πιθανών κινδύνων. Και τα δύο βήματα είναι απαραίτητα για την οικοδόμηση της εμπιστοσύνης του κόσμου, καθώς η ρομποτική και η διαφθορά διαχέονται σε περισσότερες πτυχές της καθημερινής ζωής. Στο ερώτημα πώς η κοινωνία μπορεί να διασφαλίσει ότι τα αποτελέσματα της ρομποτικής και της AI θα είναι ευεργετικά και διαφανή η πρώτη απάντηση που διαθέτουμε είναι η ρύθμιση και ο δημόσιος διάλογος.

Στο παρακάτω σχήμα βλέπουμε σχηματοποιημένη μία προτεινόμενη διαδικασία για την ανάπτυξη ενός στιβαρού ρυθμιστικού περιβάλλοντος με την συμμετοχή όλων των εμπλεκομένων μερών, από τους δημιουργούς των τεχνικών προτύπων και τους παίκτες της αγοράς μέχρι τις κοινωνικές ομάδες πίεσης και τις ρυθμιστικές αρχές. Το σκεπτικό της συγκεκριμένης σχηματοποίησης εκκινείται από διάφορες μελέτες που δείχνουν ότι όσο η ΑΙ διεισδύει βαθύτερα στις επιχειρηματικές δραστηριότητες και υπηρεσίες, ακόμα και στη στήριξη της δικαστικής λήψης αποφάσεων, προσεγγίζουμε σε μια εποχή που ακόμα και το μεγαλύτερο μυαλό θα μπορούσε να είναι μια μηχανή. Όλες οι τεχνολογίες έχουν τη δύναμη να κάνουν κακό και καλό, πρέπει λοιπόν να εξετάσουμε τις δυνατότητες ρύθμισης και να αποφασίσουμε τι μπορούν και δεν μπορούν να κάνουν με τα σημερινά δεδομένα. Βρισκόμαστε στην αρχή του ταξιδιού του AI και τώρα είναι η ώρα να ορίσουμε τα όρια32.

σχ.1: Οδικός Χάρτης για την ανάπτυξη Κανόνων (Ethics) και εμπιστοσύνης προς την καινοτομία33

Σκοπός κάθε μελέτης και σχεδιασμού γύρω από την ΑΙ θα πρέπει να είναι η αποκρυστάλλωση των τομέων στους οποίους οι εμπειρογνώμονες της βιομηχανίας και της έρευνας στον τομέα της πνευματικής ιδιοκτησίας έχουν προσδιορίσει ως βασικούς παράγοντες για την πιο αποτελεσματική ανάπτυξη συστημάτων ΑΙ και την υλοποίηση των ευκαιριών που παρουσιάζονται, μέσω αφενός της πρόσβασης σε δεδομένα περισσότερο αξιοποιήσιμα και την μεγιστοποίηση της έρευνας για την έρευνα και την υποστήριξη και την υποστήριξη της ανάπτυξης ΑΙ μέσω επενδυτικών σχημάτων και αφετέρου τον καλύτερο συντονισμό και κατανόηση των ΑΙ μεταξύ των δυνητικών χρηστών. Η αρχική αυτή περίοδος παρέχει τις δυνατότητες η ανάπτυξη της AI να κάνει πολύ περισσότερα για τους πολίτες και την εθνική οικονομία μέσω της συνεχούς συνεργασίας μεταξύ κυβέρνησης, ακαδημαϊκών κύκλων και βιομηχανίας.

Οι νομικές και ηθικές συνέπειες της μεταφοράς των ανθρώπινων αποφάσεων σε αλγόριθμους δεν είναι ακόμα πλήρως κατανοητές και αυτό εξηγεί γιατί, για την ώρα, δεν προβληματιζόμαστε ιδιαίτερα με όλες αυτές τις εταιρείες που αντλούν τεράστιες ποσότητες δεδομένων (big data) και εφαρμόζουν αλγόριθμους που έχουν την δυνατότητα να μαθαίνουν από την εμπειρία τους και να ανατροφοδοτούν τα δεδομένα και τις αντιδράσεις τους σε πραγματικό χρόνο. Πρέπει έγκαιρα να κατανοήσουμε ότι τα συστήματα αυτά δεν είναι τέλεια και οι πιθανές συνέπειες περιλαμβάνουν λανθασμένα αποτελέσματα ή μηχανική σκέψη με απρόβλεπτα αποτελέσματα για μεγάλες ομάδες πολιτών. Για το λόγο αυτό θα πρέπει να πιεστεί η βιομηχανία και οι οργανισμοί που χρησιμοποιούν AI στις δραστηριότητες να επιτρέψουν την διαφάνεια και το νομικό επάγγελμα να διαδραματίσει σημαντικό ρόλο στην αξιολόγηση και κατανομή του κινδύνου, της ευθύνης και της λογοδοσίας. Διότι οι οργανισμοί που χρησιμοποιούν ένα εργαλείο λήψης αποφάσεων AI δεν θα πρέπει να μπορούν να αποφύγουν την ευθύνη για κακές αποφάσεις. Πάντα θα υπάρχει κάποιος υπεύθυνος για την λήψη των αποφάσεων. Πρέπει να γίνει απολύτως σαφές ότι η χρήση της ΑΙ μπορεί να έχει πραγματικές συνέπειες και πραγματικούς δράστες. Τα συστήματα AI δεν μπορούν να είναι υπεύθυνα για τις αποφάσεις τους ακόμα και αν οδηγούνται σε αυτόνομες αποφάσεις. Κανείς δεν θα πρέπει να μπορεί να κρυφτεί πίσω από εμπορικά μυστικά και συστήματα προστασίας πατεντών ώστε να καταστήσει αδύνατη την έρευνα. Κανείς δεν θα πρέπει να έχει την αίσθηση ότι μπορεί να αναπτύξει συστήματα ΑΙ χωρίς να είναι υπεύθυνος γι αυτά, ακόμα και αν πρόκειται για συστήματα αυτόνομης μηχανικής μάθησης, αφού η ευθύνη είναι κάτι που μπορεί να εισαχθεί ως πληροφορία34. Αυτά τα επιβαλλόμενα όρια δεν απαιτούνται ακόμη και η πιθανότητα μιας τεχνητής νοημοσύνης που αντικαθιστά έναν άνθρωπο κριτή είναι λεπτή. Η κριτική ανάλυση, η αφηρημένη συλλογιστική και η ηθική κρίση που απαιτούνται στην καταδίκη ενός ανθρώπου δεν θα μπορούν να αναπαραχθούν στην AI, όπως έχουμε ήδη εξηγήσει. Επί του παρόντος, τα συστήματα αυτά λειτουργούν υπό την προϋπόθεση ότι η τελική απόφαση εναπόκειται σε έναν δικαστή ο οποίος έχει ακούσει όλα τα στοιχεία και έχει δει τους μάρτυρες σε κάθε περίπτωση.

Για τους λόγους αυτούς το πρώτο και πολύ σημαντικό βήμα είναι οι οργανισμοί, δημόσιοι ή ιδιωτικοί, ακόμα και τα ερευνητικά κέντρα, να αναπτύξουν μια ηθική σχετικά με τον τρόπο χρήσης των δεδομένων των πελατών/υποκειμένων, καθώς ενδέχεται να μπουν στον πειρασμό να κάνουν πράγματα που προσφέρουν μεν πολύτιμη εμπορική ή επιστημονική αξία, αλλά θα μπορούσαν να έχουν τεράστιες συνέπειες για την προστασία της ιδιωτικής ζωής. Αντί να προσπαθήσουμε να ελέγξουμε τον αλγόριθμο πίσω από την μηχανή θα πρέπει να επιδιώξουμε την παγίωση μίας βελτιωμένης διαχείρισης και ελέγχου των δεδομένων που θα χρησιμοποιήσει η AI ως καύσιμο για την λειτουργία της. Γι αυτό καθίσταται σημαντική η αποτελεσματική διακυβέρνηση των δεδομένων. Παράλληλα όμως για την αποφυγή υπόγειων διαδρομών διακίνησης δεδομένων τα δεδομένα δεν θα πρέπει να αποτελούν έναν απροσπέλαστο θησαυρό. Η ανάγκη για προστασία από τον σχεδιασμό ή εξ ορισμού (βλ. άρθρο 25 GDPR) των προσωπικών δεδομένων αποτελούν προφανώς μία πολύ καλή πρόταση προστασίας τους αλλά δεν θα πρέπει να εμποδίζει την καινοτομία και την ανάπτυξη υπηρεσιών που θα μπορούσαν να προσφέρουν απίστευτη αξία στους καταναλωτές καθώς και στις επιχειρήσεις35.

Η Επιτροπή Νομικών Θεμάτων (JURI) του Ευρωπαϊκού Κοινοβουλίου αποφάσισε να πραγματοποιήσει δημόσια διαβούλευση ειδικά για το μέλλον της ρομποτικής και της τεχνητής νοημοσύνης, με έμφαση στους κανόνες του αστικού δικαίου. Στόχος αυτής της διαβούλευσης ήταν να ενθαρρυνθεί μια ευρεία συζήτηση με ένα ευρύ φάσμα ενδιαφερομένων και να αναζητηθούν απόψεις σχετικά με τον τρόπο αντιμετώπισης των προκλητικών ηθικών, οικονομικών, νομικών και κοινωνικών ζητημάτων που σχετίζονται με τις εξελίξεις της ρομποτικής και της τεχνητής νοημοσύνης.

Από τους ερωτηθέντες η μεγάλη πλειοψηφία συνολικά έχει μια θετική στάση απέναντι στη ρομποτική και την τεχνητή νοημοσύνη. Όταν ερωτήθηκαν σχετικά με την άποψή τους σχετικά με τη ρομποτική, ένα σύνολο 79% των ερωτηθέντων δήλωσε ότι έχει θετική ή πολύ θετική αντίληψη, ενώ μόνο το 3% έχει αρνητική ή έντονα αρνητική αντίληψη. Ομοίως, οι στάσεις απέναντι στην τεχνητή νοημοσύνη είναι γενικά θετικές (68%) και μόνο το 7% είναι αρνητικές. Ενώ οι αντιλήψεις ήταν γενικά θετικές, οι ερωτηθέντες έδωσαν επίσης μια πιο εξειδικευμένη αξιολόγηση της θέσης τους. Για παράδειγμα, από τη μία πλευρά, η μεγάλη πλειοψηφία θεώρησε ότι η τεχνολογία θα απαιτούσε προσεκτική διαχείριση και ότι η ρομποτική θα ήταν ιδιαίτερα χρήσιμη για σκληρές και επικίνδυνες εργασίες (92%) και ότι θα εξασφάλιζε αποδοτικές μεθόδους μεταφοράς και παράδοσης (71%). από την άλλη πλευρά, ορισμένοι ερωτηθέντες φοβούνταν ότι η ρομποτική θα εξάλειφε θέσεις εργασίας (34%) ή θα δημιουργούσε ανισότητες στην κοινωνία (18%).

Για τους συμμετέχοντες στην έρευνα όμως μία από τις πιο σημαντικές ανησυχίες σχετικά με την τεχνητή νοημοσύνη παραμένει η διαφύλαξη της ιδιωτικότητας. Πράγματι, περίπου το 52% των ερωτηθέντων το ανέφεραν, ενώ το 29% θεωρούσε ότι η ΑΙ αποτελεί πραγματική απειλή για την ανθρωπότητα και το 16% θεωρεί την ΑΙ απειλή για τα θεμελιώδη ανθρώπινα δικαιώματα. Η συντριπτική πλειοψηφία (90%) έκρινε απαραίτητο να υπάρξει αποτελεσματική ρύθμιση στις εξελίξεις τόσο στη ρομποτική όσο και στην AI. Όσοι τάχθηκαν  υπέρ της λήψης νομοθετικών μέτρων ανέφεραν, μεταξύ άλλων, την ανάγκη να αντιμετωπιστούν οι ανησυχίες σχετικά με την ηθική, τα ανθρώπινα δικαιώματα και την ιδιωτική ζωή, καθώς και την ανάγκη να αποφευχθεί μια κυρίαρχη θέση στη βιομηχανία. Μεταξύ εκείνων που ευνοούν μια ρυθμιστική προσέγγιση, η συντριπτική πλειοψηφία (96%) προτιμούσε τη δράση σε επίπεδο ΕΕ ή σε διεθνές επίπεδο και όχι σε επίπεδο κρατών μελών (4%)36.

Κατά τη διάρκεια της 40ής Διεθνούς Συνδιάσκεψης των Επιτρόπων Προστασίας Δεδομένων και Προστασίας Προσωπικών Δεδομένων37, κυκλοφόρησε ένα έγγραφο σχετικά με την προστασία της ιδιωτικής ζωής και των δεδομένων των ατόμων στην Τεχνητή Νοημοσύνη. Στο έγγραφο αυτό αναγνωρίζεται ότι λόγω της εξέλιξης της υπολογιστικής ισχύος, της συλλογής δεδομένων και των αναλύσεων, πολλές τεχνολογίες είναι σε θέση να κάνουν αυτόνομους προσδιορισμούς και αυτόματες επιλογές σε σχεδόν πραγματικό χρόνο, μια δυνατότητα που έχει επιπτώσεις στην ιδιωτική ζωή. Βασικός στόχος θα πρέπει να είναι ότι η αυξημένη αυτή αυτοματοποίηση δεν πρέπει να μεταφράζεται σε λιγότερη προστασία της ιδιωτικής ζωής. Αντιθέτως οι νέες δυνατότητες που δίνει η ΑΙ χρειάζεται να περιβληθούν ακόμη περισσότερο με την λογοδοσία, που σημαίνει ότι τα πρόσωπα που την αναπτύσσουν πρέπει να αποδείξουν ότι έχουν οργανώσει τις κατάλληλες διαδικασίες για να εξηγήσουν πώς οι αλγόριθμοι παρουσιάζουν συγκεκριμένα αποτελέσματα. Η επεξεργασία των δεδομένων βασίζεται στην προστασία της ιδιωτικής ζωής.

Στη συνέχεια, αναφέρθηκαν έξι άξονες πολιτικής για την προστασία της ιδιωτικής ζωής στην εποχή του AI:

  • Οι νέες νομοθετικές και ρυθμιστικές πρωτοβουλίες θα πρέπει να είναι ολοκληρωμένες, τεχνολογικά ουδέτερες και να υποστηρίζουν την ελεύθερη ροή δεδομένων,
  • Οι οργανισμοί θα πρέπει να υιοθετήσουν την αρχή της λογοδοσίας βάσει κινδύνου (risk based approach) και να θέσουν σε εφαρμογή οργανωτικά και τεχνικά μέτρα ώστε να ελαχιστοποιηθούν οι κίνδυνοι ιδιωτικού απορρήτου στην ΑΙ,
  • Θα πρέπει να ενθαρρυνθεί η αυτοματοποιημένη λήψη αποφάσεων, ενώ θα πρέπει να ενισχυθεί με μέτρα προστασίας για την προστασία των ατόμων,
  • Το έννομο συμφέρον θα πρέπει να αναγνωρίζεται ως επαρκής και σύννομη νομική βάση για την επεξεργασία δεδομένων για την ΑΙ,
  • Η βιομηχανία και οι κυβερνήσεις πρέπει να συνεργαστούν για την εξειδίκευση αλγορίθμων και βαθμών ανθρώπινης εποπτείας που βασίζονται στην ανάλυση των κινδύνων (impact and risk assessment), ώστε να ελαχιστοποιηθεί ο κίνδυνος για τους πολίτες από την αυτοματοποιημένη λήψη αποφάσεων,
  • Οι κυβερνήσεις θα πρέπει να θεσμοθετήσουν και ενθαρρύνουν την πρόσβαση σε ανοικτά δεδομένα, να υποστηρίξουν τη δημιουργία αξιόπιστων συνόλων δεδομένων διαθέσιμων σε όλους, να ενθαρρύνουν τα κίνητρα για ανταλλαγή δεδομένων και να επενδύσουν στην ανάπτυξη εθελοντικών διεθνών προτύπων σε σύνολα δεδομένων.

Επιμύθιο

Παρά τα όσα φημολογούνται δεν υπάρχουν στοιχεία ότι η ανθρώπινη νοημοσύνη διαθέτει ένα δεδομένο σημείο πέρα από το οποίο είναι δυνατή η υπερίσχυση μόνο της «νοημοσύνης» των μηχανών. Μια τέτοια κατάσταση θα οδηγούσε σε αυτό που ονομάζεται «τεχνολογική ιδιαιτερότητα» – singularity, όμως η εμφάνιση ενός υψηλότερου επιπέδου νοημοσύνης σημαίνει περισσότερα από το να σκέφτεσαι γρήγορα. Πολλά από τα σημερινά πολύπλοκα ζητήματα δεν θα επιλυθούν με μια εκθετική βελτίωση των υπολογιστικών ικανοτήτων των μηχανών, αλλά μόνο από τον άνθρωπο. Από τον Φρανκενστάιν της Μαίρη Σέλεϊ μέχρι τον κλασικό μύθο του Πυγμαλίωνα και το ρομπότ του Κάρελ Τσάπεκ (ο οποίος επινόησε και τον όρο ρομπότ) η δυνατότητα δημιουργίας έξυπνων μηχανών, τροφοδοτούσε πάντα την ανθρώπινη φαντασία, δημιουργώντας αντίγραφα της ανθρώπινης συμπεριφοράς, ανάτυπα των ίδιων χαρακτήρων που συναντάμε καθημερινά, με μία όμως πιο τετράγωνη και πιο ψυχρή λογική.

Τώρα, βρισκόμενοι στο κατώφλι μίας νέας βιομηχανικής επανάστασης όπου εκτός από τα έμβια όντα ρόλο θα παίξουν και οι μηχανές, όχι ως απλά εργαλεία παραγωγής και εκβιομηχάνισης, αλλά ως εξελιγμένες μηχανές και ανθρωποειδή. Μίας επανάστασης που είναι πιθανόν να μην αφήσει ανέγγιχτο κανένα κοινωνικό στρώμα, και συνεπώς είναι εξαιρετικά σημαντικό ο νομοθέτης να εξετάσει τις νομικές και ηθικές συνέπειες και επιπτώσεις της εξέλιξης αυτής, χωρίς να καταστέλλει την καινοτομία38. Όμως ένα συμπέρασμα που μοιάζει να βγαίνει άμεσα από την επιμέτρηση της σχέσης της ΑΙ με την κλίμακα των ηθικών αξιών όπως έχουν διαμορφωθεί μέχρι σήμερα, είναι ότι σε κάποια, σύντομη, ιστορική στιγμή θα πρέπει να αναλογιστούμε μήπως και αυτή η αξιακή κατηγοριοποίηση είναι τόσο επιβαρυμένη από αιώνες ανθρώπινης συμπεριφοράς που αξίζει να ιδωθεί πλέον μέσα από ένα νέο ξεκίνημα, μία επανεκκίνηση του ζητήματος του τί αποτελεί ηθική. Ίσως μάλιστα αυτή είναι η μεγαλύτερη πρόκληση για τον άνθρωπο ενώπιον της χρήσης ΑΙ, το πώς θα καταφέρει να την απαλλάξει από τα ελαττώματα της δικής του ηθικής αξιολόγησης, κάνοντας τις μηχανές να ακολουθούν μία ηθική όχι σαν την ανθρώπινη αλλά πιο βελτιωμένη και πιο ανώτερη39.

Εξαιτίας της μεγάλης σοβαρότητας και της παγκόσμιας φύσης των αναμενόμενων επιπτώσεων της ΑI στην ανθρωπότητα, υπάρχει η προσδοκία να ενταχθεί στην μακρά σειρά θεμάτων που απαιτούν διακρατική συνεργασία, πιθανόν μέσω της δημιουργίας ενός διεθνούς οργανισμού που θα ανταποκριθεί στον δύσκολο ρόλο της ρύθμισης της ΑΙ και που θα μπορούσε αρχικά να χρησιμεύσει ως εστιακό σημείο για τις πολιτικές σχετικά με θέματα που σχετίζονται με την AI και εφόσον υπάρξει η αναγκαία διεθνής υποστήριξη να αποκτήσει αυξανόμενο ρόλο στη ρύθμιση της ΑΙ με την πάροδο του χρόνου40.

Ίσως τελικά η έλλειψη της γνώσης της ύπαρξης μας ως κυρίαρχα όντα στη γη θα ήταν η καλύτερη λύση, αν σκεφτεί κανείς ότι τα πρώτα 300.000 χρόνια περίπου της ύπαρξής μας ως Homo Sapiens ουδόλως είχαμε την πεποίθηση ότι ο κόσμος μας ανήκει41. Παρόλα αυτά αυτό που μένει ως σταθερά είναι η ανθρωποκεντρική προσέγγιση με βάση την ανάγκη της διατήρησης των βασικών αρχών που πρέπει να διέπουν κάθε μετάβαση σε μία νέα εποχή για τον άνθρωπο: πρωταρχικός στόχος να είναι η βελτίωση της ανθρώπινης ζωής, η ΑΙ να μην οδηγεί σε βλάβη του ανθρώπου, να διατηρηθεί η αυτονομία στις επιλογές του ανθρώπου, η ανάπτυξη, χρήση και ρύθμιση της ΑΙ να βασίζεται στις αρχές του δικαίου και η εφαρμογή της ΑΙ να διέπεται από διαφάνεια42.

  • 1. https://www.datatilsynet.no/globalassets/global/english/ai-and-privacy.pdf
  • 2. Σε δύο γενικά παραδεκτές κατηγορίες, γιατί υπάρχουν κι άλλες απόψεις για το πώς μπορεί να κατηγοριοποιηθεί ανάλογα με τη χρήση της κλπ (βλ. μία ενδεικτική απεικόνιση εδώ https://medium.com/personified-systems/structure-in-ai-law-ethics-the-world-and-the-mind-7e00c5e0ae2b)
  • 3. https://techcrunch.com/2017/01/28/artificial-intelligence-and-the-law/?guccounter=1
  • 4. https://hackernoon.com/general-vs-narrow-ai-3d0d02ef3e28
  • 5. http://physics4u.gr/blog/2018/01/18/%CF%84%CE%B9-%CE%B5%CE%AF%CE%BD%CE%B1%CE%B9-%CE%B7-%CF%84%CE%B5%CF%87%CE%BD%CE%B7%CF%84%CE%AE-%CE%BD%CE%BF%CE%B7%CE%BC%CE%BF%CF%83%CF%8D%CE%BD%CE%B7-%CE%BA%CE%B1%CE%B9-%CF%80%CF%89%CF%82-%CE%B8%CE%B1/
  • 6. https://deepmind.com/blog/alphago-zero-learning-scratch/
  • 7. Ο Ρέι Κέρζουελ είναι Αμερικανός συγγραφέας, επιστήμονας υπολογιστών, εφευρέτης, και μελλοντολόγος, ο οποίος εργάζεται στην Google στον τομέα της μηχανικής εκμάθησης και επεξεργασίας φυσικής γλώσσας. Πηγη: https://en.wikipedia.org/wiki/Ray_Kurzweil
  • 8. Franklin Foer, World Without Mind: The Existential Threat Of Big Tech (Penguin, 2017).
  • 9. Virginia Eubanks, AUTOMATING INEQUALITY - How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin’s Press (2018).
  • 10. Jacob Weisberg, The Digital Poorhouse, NYRB 47 (June 7, 2018).
  • 11. Marcel van Gerven and Sander Bohte, «Artificial Neural Networks as Models of Neural Information Processing», Frontiers in Computational Neuroscience – January 2018 https://www.frontiersin.org/research-topics/4817/artificial-neural-networks-as-models-of-neural-information-processing
  • 12. βλ. για παράδειγμα «The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems» (https://standards.ieee.org/industry-connections/ec/autonomous-systems.html)
  • 13. Franklin Foer, ο.π.
  • 14. Sherisse Pham, Computers are getting better than humans at reading, https://money.cnn.com/2018/01/15/technology/reading-robot-alibaba-microsoft-stanford/index.html
  • 15. Ronkainen, Anna, From Spelling Checkers to Robot Judges? Some Implications of Normativity in Language Technology and AI & Law (May 12, 2011). PROCEEDINGS OF THE ICAIL 2011 WORKSHOP APPLYING HUMAN LANGUAGE TECHNOLOGY TO LAW, pp. 48-53, Karl Branting and Adam Wyner, eds., 2011. Available at SSRN: https://ssrn.com/abstract=1879426
  • 16. Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin, How We Analyzed the COMPAS Recidivism Algorithm, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
  • 17. Algorithms in the Criminal Justice System, EPIC (https://epic.org/algorithmic-transparency/crim-justice/)
  • 18. Mitch Smith, In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures, The New York Times https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html?module=inline
  • 19. Ηθικά Νικομάχεια, Βιβλία Β-Ε περί ηθικής αρετής και δικαιοσύνης.
  • 20. This clever AI hid data from its creators to cheat at its appointed task, https://techcrunch.com/2018/12/31/this-clever-ai-hid-data-from-its-creators-to-cheat-at-its-appointed-task/
  • 21. https://openai.com/
  • 22. https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
  • 23. https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf
  • 24. Nathan Dowlin, Ran Gilad-Bachrach, Kim Laine, Kristin Lauter, Michael Naehrig, John Wernsing, CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy https://www.microsoft.com/en-us/research/publication/cryptonets-applying-neural-networks-to-encrypted-data-with-high-throughput-and-accuracy/
  • 25. Dr Vyacheslav Polonski, The Hard Problem of AI Ethics - Three Guidelines for Building Morality Into Machines, https://www.oecd-forum.org/users/80891-dr-vyacheslav-polonski/posts/30743-the-hard-problem-of-ai-ethics-three-guidelines-for-building-morality-into-machines
  • 26. Robert Gryn, Pawel Rzeszucinski: Bias in AI is a real problem. Here’s what we should do about it https://www.weforum.org/agenda/2018/09/the-biggest-risk-of-ai-youve-never-heard-of/
  • 27. https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212
  • 28. Άρθρο 22 (Αυτοματοποιημένη ατομική λήψη αποφάσεων, περιλαμβανομένης της κατάρτισης προφίλ) παρ. 1: Το υποκείμενο των δεδομένων έχει το δικαίωμα να μην υπόκειται σε απόφαση που λαμβάνεται αποκλειστικά βάσει αυτοματοποιημένης επεξεργασίας, συμπεριλαμβανομένης της κατάρτισης προφίλ, η οποία παράγει έννομα αποτελέσματα που το αφορούν ή το επηρεάζει σημαντικά με παρόμοιο τρόπο.
  • 29. Amazon scraps secret AI recruiting tool that showed bias against women https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
  • 30. https://www.weforum.org/agenda/2018/09/the-biggest-risk-of-ai-youve-never-heard-of/
  • 31. Patenting Artificial Intelligence, EPO – Conference Summary, Munich 2018
  • 32. Dame Wendy Hall and Jérôme Pesenti: Growing the Artificial Intelligence Industry in the UK https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/652097/Growing_the_artificial_intelligence_industry_in_the_UK.pdf
  • 33. Professor Alan Winfield: From Ethics to Regulation and Governance, Written evidence submitted to the UK Parliament. http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/33812.html
  • 34. Alan F. T. Winfield and Marina Jirotka: Ethical governance is essential to building trust in robotics and artificial intelligence systems https://doi.org/10.1098/rsta.2018.0085
  • 35. Joanna Goodman: The legal and ethical minefield of AI: ‘Tech has the power to do harm as well as good’. https://www.theguardian.com/legal-horizons/2018/jan/05/the-legal-and-ethical-minefield-of-ai-tech-has-the-power-to-do-harm-as-well-as-good
  • 36. Πηγή: European Parliament, Juri Committee: Findings and results of the public consultation on the Future of Robotics and Artificial Intelligence http://www.europarl.europa.eu/committees/en/juri/robotics.html?tab=Results
  • 37. DECLARATION ON ETHICS AND DATA PROTECTION IN ARTIFICAL INTELLIGENCE, 40th International Conference of Data Protection and Privacy Commissioners, Tuesday 23rd October 2018, Brussels https://edps.europa.eu/sites/edp/files/publication/icdppc-40th_ai-declaration_adopted_en_0.pdf
  • 38. http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EL
  • 39. Bostrom, Nick, and Eliezer Yudkowsky. Forthcoming. “The Ethics of Artificial Intelligence.” In Cambridge Handbook of Artificial Intelligence, edited by Keith Frankish and William Ramsey. New York: Cambridge University Pres, https://intelligence.org/files/EthicsofAI.pdf
  • 40. Erdelyi, Olivia Johanna and Goldsmith, Judy, Regulating Artificial Intelligence: Proposal for a Global Solution (February 2, 2018). 2018 AAAI/ACM Conference on AI, Ethics, and Society (AIES '18), February 2--3, 2018, New Orleans, LA, USA doi/10.1145/3278721.3278731. Available at SSRN: https://ssrn.com/abstract=3263992
  • 41. Steven Strogatz, One Giant Step for a Chess-Playing Machine, https://www.nytimes.com/2018/12/26/science/chess-artificial-intelligence.html
  • 42. EU High-Level Expert Group on Artificial Intelligence, Draft Ethics Guidelines For Trustworthy AI, December 2018, https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-expert-group-seeks-feedback-draft-ethics-guidelines-trustworthy
Σπύρος Τάσσης

Ο κος Τάσσης είναι Δικηγόρος με εξειδίκευση (LLM) και μακρά πρακτική ενασχόληση με τα ζητήματα του Δικαίου της Πληροφορικής, των Ηλεκτρονικών Επικοινωνιών και των Προσωπικών Δεδομένων.

...

Σύνδεση στο Lawspot

Enter your e-mail address or username.
Enter the password that accompanies your e-mail.
Ξεχάσατε τον κωδικό σας;
logo

Δεν έχετε λογαριασμό;

Μπορείτε να εγγραφείτε στο Lawspot ανεξαρτήτως ιδιότητας, ως δικηγόρος, συμβολαιογράφος ή και απλός χρήστης, συμπληρώνοντας τη σχετική φόρμα εδώ.

Αν είστε δικηγόρος, με την εγγραφή σας στο Lawspot.gr κερδίζετε σημαντικά οφέλη. Δείτε αναλυτικές πληροφορίες εδώ.