logo-print

Τεχνητή Νοημοσύνη και Ισότητα - Φοιτητές γράφουν για την Τεχνητή Νοημοσύνη

Τεχνητή νοημοσύνη, μεταφορές & ευθύνη των μεταφορέων στο Ελληνικό Δίκαιο
Mobbing Ευθύνη λόγω ηθικής παρενόχλησης στην εργασία

ΕΡΓΑΤΙΚΟ ΔΙΚΑΙΟ

ΠΑΝΑΓΙΩΤΗΣ ΜΠΟΥΜΠΟΥΧΕΡΟΠΟΥΛΟΣ

Κάθε Νοέμβριο η ELSA γιορτάζει, με μία ημέρα αφιερωμένη στην προάσπιση των ανθρωπίνων δικαιωμάτων, την γνωστή ως “ELSA Day”, σε όλα τα Σωματεία της ανά τον κόσμο.

Το 2021, βασική θεματική της γιορτής αυτής αποτέλεσε η “Τεχνητή Νοημοσύνη και Ανθρώπινα Δικαιώματα” στο πλαίσιο της οποίας διοργανώθηκε η Ομάδα Νομικής Έρευνας.

Στην εκδήλωση που έλαβε χώρα τον Νοέμβριο του 2020, φοιτητές, νομικοί και ακαδημαϊκοί παρευρέθηκαν διαδικτυακά, προβληματίστηκαν και γνώρισαν πτυχές του παγκόσμιου αυτού φαινομένου, θέτοντας τα θεμέλια για μία σειρά από εργασίας.

Το Lawspot δημοσιεύει τις εργασίες υπό το γενικό τίτλο "Φοιτητές γράφουν για την Τεχνητή Νοημοσύνη".

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΚΑΙ ΙΣΟΤΗΤΑ

Αλεξάνδρα Κριαρή - Φοιτήτρια Νομικής ΑΠΘ

Ι. Λειτουργία και αξιολόγηση της τεχνητής νοημοσύνης

Το συνεχώς αυξανόμενο ενδιαφέρον του ανθρώπου στις λεγόμενες θετικές επιστήμες συνέβαλε στη ραγδαία ανάπτυξη των νέων τεχνολογιών, επιστέγασμα των οποίων θεωρείται η τεχνητή νοημοσύνη. Ιδιαίτερα μάλιστα αν σκεφτεί κανείς, ότι σε περίοδο εκτάκτων συνθηκών, όπως η πανδημία, η χρήση των τηλεπικοινωνιών έχει αυξηθεί με γεωμετρική πρόοδο, είναι φανερό ότι η τεχνολογία δεν μπορεί, παρά να κυριαρχεί στο σύνολο των ανθρωπίνων δραστηριοτήτων. Το άτομο εργάζεται εξ αποστάσεως, ο μαθητής συμμετέχει στην τηλεκπαίδευση, τα σεμινάρια διοργανώνονται ηλεκτρονικά. Όλα τα παραπάνω οδήγησαν στην εξέλιξη του κλάδου της τεχνητής νοημοσύνης (artificial intelligence).

Η τεχνητή νοημοσύνη έχει εκτιμηθεί και αξιολογηθεί θετικά για τις λύσεις που μπορεί να προσφέρει σε ζητήματα που απασχολούν εδώ και πολλά χρόνια την ανθρωπότητα. Χαρακτηριστικό παράδειγμα αποτελεί το Green Horizons Project της IBM1, το οποίο ελέγχει, μέσω αισθητήρων, τους ρυπογόνους παράγοντες της ατμόσφαιρας του Πεκίνου με σκοπό την αντιμετώπιση της ατμοσφαιρικής ρύπανσης. Τα συστήματα τεχνητής νοημοσύνης ουσιαστικά διακρίνονται σε δύο είδη ̇ αφενός σε λογισμικά, όπως είναι οι μηχανές αναζήτησης και τα συστήματα αναγνώρισης προσώπου και ταυτοποίησης, αφετέρου στην ενσωματωμένη τεχνητή νοημοσύνη, όπως τα ρομπότ και τα drones. Και οι δύο κατηγορίες λειτουργούν λαμβάνοντας δεδομένα, από τη συλλογή και την επεξεργασία των οποίων προκύπτει ένα αποτέλεσμα, το κριτήριο, το οποίο δεν είναι τίποτε άλλο παρά ένας αλγόριθμος, που ανταποκρίνεται στη ρύθμιση για την οποία το σύστημα έχει τεθεί σε λειτουργία. Τα συστήματα τεχνητής νοημοσύνης, όταν λειτουργούν κατά τον ίδιο τρόπο, μπορούν να δημιουργούν το δικό τους «ιστορικό» αναλύοντας τις συνέπειες προηγούμενων δράσεων και προσαρμόζοντας τη συμπεριφορά τους. Παράδειγμα της ανωτέρω λειτουργίας αποτελεί ο μαζικός έλεγχος, και κατ’ επέκταση, η έγκριση ή η απόρριψη αιτήσεων ατόμων τα οποία επιθυμούν να υπαχθούν σε μια ειδικότερη ρύθμιση για τη λήψη κοινωνικών επιδομάτων.

Παρά τα οφέλη και τις προοπτικές εξέλιξης που προσφέρει η τεχνητή νοημοσύνη, δεν είναι λίγοι οι κίνδυνοι που ελλοχεύουν από τη μη λελογισμένη χρήση της. Ένας από τους βασικότερους κινδύνους, που μπορεί να προκύψει, είναι η ανισότητα που μπορεί να δημιουργηθεί μεταξύ των δύο φύλων, ή και άλλων κοινωνικών ομάδων και η αναπαραγωγή και διαιώνιση προκαταλήψεων. Στην επίσημη ιστοσελίδα του Ευρωπαϊκού Κοινοβουλίου μάλιστα, τονίζεται ότι σημαντικές πτυχές ενός ζητήματος που μπορεί να μην έχουν ενσωματωθεί στον αλγόριθμο, ενδέχεται να οδηγήσουν το σύστημα τεχνητής νοημοσύνης στη λήψη λανθασμένων αποφάσεων, οι οποίες αντανακλούν συγκεκριμένες προκαταλήψεις2.

ΙΙ. Πότε ανιχνεύεται η ανισότητα στο σύστημα τεχνητής νοημοσύνης;

Ο σχετικά γρήγορος εντοπισμός του προβλήματος της ανισότητας έκανε επιτακτική την ανάγκη να εντοπιστεί η χρονική στιγμή, κατά την οποία συμβαίνει η διακριτική μεταχείριση, προκειμένου να γίνουν οι απαιτούμενες αλλαγές των ρυθμίσεων που παράγουν το αποτέλεσμα. Παρά τις προσπάθειες, το χρονικό αυτό σημείο δεν έχει ακόμα γίνει ακόμα αντιληπτό, με συνέπεια να δημιουργηθούν δύο διαφορετικές τάσεις, οι οποίες υποστηρίζουν αντίθετες απόψεις. Σύμφωνα με την πρώτη άποψη, η ανισότητα στα συστήματα τεχνητής νοημοσύνης υπάρχει per se, αφού από τη στιγμή που οι άνθρωποι εισάγουν τα δεδομένα στο σύστημα, τότε το κριτήριο, που κάνει τη διακριτική μεταχείριση, έχει ήδη προστεθεί στο σύστημα, οπότε και η απόφαση που θα εξάγει θα περιέχει ανισότητα. Η αντίθετη άποψη υποστηρίζει ότι η ανισότητα δεν υπάρχει εξ υπαρχής στο σύστημα της τεχνητής νοημοσύνης, αλλά δημιουργείται τη στιγμή που λαμβάνεται η απόφαση, επειδή τότε είναι το χρονικό σημείο που φιλτράρονται τα δεδομένα και προκύπτει το αποτέλεσμα. Φυσικά, υπάρχουν και υποστηρικτές της άποψης ότι η τεχνητή νοημοσύνη επ’ ουδενί δεν παράγει άδικα αποτελέσματα, αλλά ακόμα και αν αυτό συμβαίνει, το αποτέλεσμά της είναι δικαιότερο και αποτελεσματικότερο από το ανθρώπινο3.

Σύμφωνα με την έρευνα των Barocas και Selbst4, υπάρχουν και περιπτώσεις στις οποίες η τεχνητή νοημοσύνη μπορεί να οδηγήσει ακόμα και σε ακούσια εξαγωγή άδικων αποτελεσμάτων. Οι περιπτώσεις αυτές μπορούν να κατηγοριοποιηθούν συνοπτικά σε πέντε κατηγορίες, οι οποίες αφορούν προβλήματα που σχετίζονται με: α) το πώς ορίζεται η μεταβλητή-στόχος5 και οι ετικέτες ταξινόμησης, β) το πώς ορίζονται τα «δεδομένα εξάσκησης6», γ) πώς συλλέγονται αυτά τα δεδομένα, δ) πώς γίνεται η επιλογή χαρακτηριστικών και ε) τους διακομιστές μεσολάβησης (proxies)7.

ΙΙΙ. Ποιοι παράγοντες καθορίζουν τη διακριτική μεταχείριση στο σύστημα ΤΝ και πού οφείλεται αυτή;

Όπως και στην κοινωνία μας, έτσι και τα συστήματα τεχνητής νοημοσύνης οδηγούνται στην εξαγωγή συμπερασμάτων υπέρ ή εις βάρος μια κοινωνικής ομάδας βάσει χαρακτηριστικών. Μέχρι σήμερα, τα χαρακτηριστικά αυτά που δημιουργούν την ανισότητα είναι το φύλο, η καταγωγή, η ταυτότητα και η δύναμη.

Όσον αφορά στη φυλετική ανισότητα, μπορεί αρχικά να επισημανθεί ότι όχι μόνο οι αποφάσεις της ΤΝ είναι επιβαρυντικές για τις γυναίκες, αλλά και η ίδια παρουσία των γυναικών και η ενασχόληση τους με τον κλάδο της πληροφορικής παρουσιάζεται μειωμένη, συγκριτικά με προηγούμενες δεκαετίες, που η ύπαρξη και η χρήση των υπολογιστών δεν ήταν ευρέως διαδεδομένη. Η ανισότητα αυτή γίνεται εμφανής σε όλα τα στάδια της παραγωγικής διαδικασίας. Χαρακτηριστικό είναι το παράδειγμα της εταιρείας Amazon, η οποία είχε δημιουργήσει ένα εργαλείο, το οποίο σάρωνε βιογραφικά υποψηφίων και, από το φιλτράρισμά του κατέληγε στην απόφαση για πρόσληψη. Μετά από αρκετές έρευνες, παρατηρήθηκε ότι το εργαλείο αυτό αυτομάτως υποβάθμιζε τα βιογραφικά εκείνα που περιείχαν τον όρο «κολέγιο θηλέων»8.

Σχετικά με την ανισότητα ως προς την καταγωγή, εκεί σημειώθηκαν μεγάλες ανισότητες ως προς τους Αφροαμερικανούς και τους Λατινοαμερικανούς. Τα τελευταία χρόνια, η αναγνώριση προσώπου (FaceID) χρησιμοποιείται όλο και περισσότερο από πολλές συσκευές προκειμένου ο κάτοχος και χρήστης της συσκευής να απολαμβάνει τη μέγιστη ασφάλεια. Έχει αποδειχθεί όμως ότι οι σχετικές τεχνολογίες κατηγοριοποιούσαν εσφαλμένα τους Αφροαμερικανούς ως πιθανούς εγκληματίες. Ακόμη, σύμφωνα με μία έρευνα του Αμερικανικού Ινστιτούτου Οικονομικής Έρευνας, η οποία αφορούσε τα έτη 2010-2012, διαπιστώθηκε ότι οι λατινοαμερικανοί, και ειδικά οι γυναίκες, δημιουργοί λογισμικών λάμβαναν ετησίως μισθό μειωμένο κατά 20% σε σχέση με τους άνδρες συναδέλφους τους9.

Η ανισότητα που υπάρχει ως προς την ταυτότητα έρχεται σε άμεση συνάρτηση με το φύλο, διότι αφορά το διαχωρισμό μεταξύ των δύο φύλων. Τα συστήματα τεχνητής νοημοσύνης λειτουργούν διακρίνουν το δυαδικό φύλο (binary gender), δηλαδή μόνο το αρσενικό και το θηλυκό. Η αναγνώριση του φύλου γίνεται βάσει της φυσικής εμφάνισης και των χαρακτηριστικών του προσώπου. Το πρόβλημα που υπήρξε σε αυτήν την περίπτωση είναι ότι οι εφαρμογές αυτές δεν αναγνώριζαν τα διεμφυλικά άτομα, κάτι το οποίο είχε ιδιαιτέρως σοβαρές συνέπειες, αφού στην περίπτωση που καταγράφηκε, ο οδηγός ταξί δεν μπορούσε να αποδείξει την επαγγελματική του ιδιότητα με αποτέλεσμα να τεθεί σε διαθεσιμότητα μέχρι την αντιμετώπιση του προβλήματος.

Τέλος, ως προς το κριτήριο της δύναμης, αυτή αφορά και πάλι στο φύλο, αφού στις επιχειρήσεις παρατηρείται άνιση κατανομή ισχύος και οι άνδρες, που κατέχουν υψηλόβαθμες θέσεις ή βρίσκονται στα διοικητικά συμβούλια των επιχειρήσεων, ευνοούνται περισσότερο από τις αποφάσεις των συστημάτων τεχνητής νοημοσύνης.

IV. Πώς μπορεί να αντιμετωπιστεί η ανισότητα στο πεδίο της τεχνητής νοημοσύνης;

Παρά την μιμητική τάση των συστημάτων τεχνητής νοημοσύνης να υιοθετούν και να αντιγράφουν την κοινωνία, όπως, επίσης και τα στερεότυπα που επικρατούν σε αυτήν, φαίνεται πως το πρόβλημα της ανισότητας μπορεί να ξεπεραστεί, εφόσον ακολουθηθούν τα σωστά βήματα. Ο βασικός άξονας για την αντιμετώπιση της ανισότητας είναι η διαφάνεια και η επεξηγησιμότητα, δύο έννοιες, οι οποίες απευθύνονται κυρίως στις επιχειρήσεις και το δημόσιο10. Καθοριστικό ρόλο προς την επίτευξη της διαφάνειας και της επεξηγησιμότητας παίζει σαφώς η θέσπιση νομοθεσίας, με την οποία θα δημιουργηθεί ένα νομικό πλαίσιο που θα κατοχυρώνει ίσες ευκαιρίες σε όλους τους ανθρώπους με σεβασμό στα προσωπικά τους δεδομένα και φυσικά η θέσπιση εσωτερικών κανονισμών λειτουργίας για να θεμελιωθεί ένα αυστηρότερο τείχος προστασίας και ασφάλειας των εργαζομένων. Τέλος, αν και αυτή η λύση αφορά περισσότερο το δημόσιο, χρήσιμο θα ήταν να δημοσιοποιηθούν τα λογισμικά που χρησιμοποιούνται για τη λήψη των αποφάσεων από τα συστήματα ΤΝ.

Επιπλέον, προς το τέλος του 2018, άρχισε να διατυπώνεται εντονότερα η άποψη για τη «δίκαιη» τεχνητή νοημοσύνη (Fair AI), δηλαδή για την καθιέρωση ενός συστήματος υποστήριξης αποφάσεων που αποτρέπει την εφαρμογή τους, σε περίπτωση που το αποτέλεσμα κάνει διακριτική μεταχείριση εις βάρος μιας κοινωνικής ομάδας11. Η λεγόμενη δίκαιη τεχνητή νοημοσύνη διακρίνεται σε συλλογική και σε ατομική. Στην πρώτη κατηγορία, η διάκριση εντοπίζεται και ερμηνεύεται από τον τρόπο κατανομής των σφαλμάτων στις άδικες αποφάσεις, σύμφωνα με τα προβλεπόμενα χαρακτηριστικά που έχουν τεθεί ως φίλτρο για την εξαγωγή του αποτελέσματος. Στην δεύτερη κατηγορία, η ατομική δίκαιη τεχνητή νοημοσύνη βασίζεται στην αντίληψη ότι οι όμοιοι άνθρωποι πρέπει να αντιμετωπίζονται με όμοιο τρόπο. Με αυτόν τον τρόπο διασφαλίζεται με μαθηματική ακρίβεια η αμεροληψία, αφού για την έγκριση ενός δανείου για παράδειγμα, οι προϋποθέσεις των αιτούντων θα πρέπει να είναι όμοιες, ώστε να μπορέσουν τα αποτελέσματα να είναι συγκρίσιμα.

Συνοψίζοντας, έχει γίνει αντιληπτό ότι ο ανθρώπινος παρεμβατισμός κατέστησε τα συστήματα ΤΝ περισσότερο ευάλωτα με συνέπεια να αναπαράγουν στερεότυπα. Εντούτοις, η σωστή χρήση της ΤΝ, σε συνδυασμό με τον ενδελεχή έλεγχο των συστημάτων της μπορεί να οδηγήσει σε δικαιότερα αποτελέσματα, τα οποία θα βελτιώσουν την αγορά εργασίας, την κοινωνική ζωή και θα συμβάλλουν στην εξοικονόμηση χρόνου και στην αποτελεσματικότερη ένταξη όλων των κοινωνικών ομάδων στην κοινωνία.

 

  • 1. Liza Cooper, Air pollution in China and IBM green initiatives, 26.08.2016, δημοσιευμένο σε: https://www.ibm.com/, [τελευταία επίσκεψη: 03.04.2021]
  • 2. Ιστοσελίδα Ευρωπαϊκού Κοινοβουλίου, Τεχνητή νοημοσύνη: ευκαιρίες και απειλές, 26.03.2021, δημοσιευμένο σε: https://www.europarl.europa.eu/, [τελευταία επίσκεψη: 04.04.2021]
  • 3. Andrew Burt, How to fight discrimination in AI, 28.08.2020, δημοσιευμένο σε: https://hbr.org/, [τελευταία επίσκεψη: 07.05.2021]
  • 4. Solon Barocas και Andrew Selbst, Big Data’s Disparate Impact, 2016, δημοσιευμένο σε: California Law Review [https://www.californialawreview.org/], σελ. 7-9
  • 5. Η μεταβλητή-στόχος είναι εκείνη η μεταβλητή, οι τιμές της οποίας πρέπει να τυποποιηθούν και να προβλεφθούν από άλλες μεταβλητές.
  • 6. Τα «δεδομένα εξάσκησης» (δόκιμη η χρήση του όρου training data) είναι ένα αρχικό σύνολο δεδομένων που χρησιμοποιούνται με σκοπό το πρόγραμμα στο οποίο καταχωρούνται να κατανοήσει καλύτερα τον τρόπο με τον οποίο θα εφαρμόσει τεχνολογίες, όπως τα νευρωνικά δίκτυα, και να παράγει πιο εξελιγμένα αποτελέσματα.
  • 7. Frederik Zuiderveen Borgesius, Discrimination, artificial intelligence, and algorithmic decision-making, 2018, εκδ. Directorate General of Democracy – Council of Europe, σελ. 10
  • 8. West, S.M., Whittaker, M. and Crawford, K., Discriminating Systems: Gender, Race and Power in AI, Απρίλιος 2019, AI Now Institute, δημοσιευμένο σε: https://ainowinstitute.org/ discriminatingsystems.html, σελ. 8
  • 9. Nicole Kreisberg, H-1B Visas: No Impact on Wages, 09.10.2014, δημοσιευμένο σε: Αμερικανικό Ινστιτούτο Οικονομικής Έρευνας, https://www.aier.org/, [τελευταία επίσκεψη: 07.05.2021]
  • 10. Benno Keller, Promoting responsible artificial intelligence in insurance, 16.01.2020, δημοσιευμένο σε: The Geneva Association, https://www.genevaassociation.org/, [τελευταία επίσκεψη: 07.05.2021]
  • 11. Stefan Feuerriegel, Mateusz Dolata, Gerhard Schwabe, Fair AI: Challenges and Opportunities, 11.05.2020, δημοσιευμένο σε: Bus.Inf.Syst.Eng 62, σελ. 4
Κλινικές δοκιμές φαρμάκων - Συμβάσεις ευθύνη και ειδικά ζητήματα Αστικού Δικαίου

ΑΙΚΑΤΕΡΙΝΗ ΣΚΟΥΤΕΛΗ

Κλινικές δοκιμές φαρμάκων - Συμβάσεις ευθύνη και ειδικά ζητήματα Αστικού Δικαίου

Ο δικαστικός έλεγχος της δράσης των ανεξάρτητων αρχών

ΣΥΝΤΑΓΜΑΤΙΚΟ ΔΙΚΑΙΟ & ΘΕΜΕΛΙΩΔΗ ΔΙΚΑΙΩΜΑΤΑ / ΣΥΝΤΑΓΜΑΤΙΚΟ ΔΙΚΑΙΟ