logo-print

Τεχνητή Νοημοσύνη και δικαστηριακή πρακτική: Εργαλείο αρωγής ή προβληματισμού;

29/03/2024

25/04/2024

Καθώς η τεχνολογία εξελίσσεται ραγδαία, η τεχνητή νοημοσύνη έχει έρθει για να δημιουργήσει νέες συνθήκες διαβίωσης που θα βασίζονται στην επεξεργασία τεράστιων ποσοτήτων δεδομένων και σε έξυπνες συμβάσεις. Βασικό της εργαλείο η κατασκευή προγραμμάτων υπολογιστών που μιμούνται την ανθρώπινη νοημοσύνη, ανοίγοντας, κατ’ αυτόν τον τρόπο, νέους ορίζοντες στον τομέα της δημιουργικότητας και όχι μόνο. Αποτελεί, δε, μία από τις νευραλγικής σημασίας στρατηγικές τεχνολογίας του 21ου αιώνα, με επενδύσεις δισεκατομμυρίων, κυρίως στον τομέα της ρομποτικής.

Οι νέες αυτές τεχνολογίες παραμένουν αναπτυσσόμενες πάνω σε μία ανθρωποκεντρική προσέγγιση, όπου ό άνθρωπος διαδραματίζει τον κεντρικό ρόλο. Όμως, η εξέλιξη της τεχνολογίας, το blockchain, οι αλγόριθμοι, τα ευφυή υπολογιστικά συστήματα, τα έξυπνα συστήματα και τα ρομπότ, έχουν αποτελέσει πηγή προβληματισμού αναφορικά με τα δικαιώματα πνευματικής ιδιοκτησίας και τα έργα που πηγάζουν ως αποτέλεσμα χρήσης τεχνητής νοημοσύνης. Τα παραδείγματα πολλά: chatbots, art generators, κλωνοποιήσεις φωνής, κλπ. όπου από τη μία έχουμε νομολογιακό προηγούμενο όπου πχ. μέσω chatbot δικαιώθηκε ο γνωστός στο χώρο της ένδυσης Christian Louboutin στην Ινδία, αλλά από την άλλη Δικαστήριο στην Κίνα κατοχύρωσε πνευματικά δικαιώματα σε μηχανικό πρόγραμμα.

Το ερώτημα, όμως, του εάν μπορούν να θεωρηθούν έργα τα αποτελέσματα της δημιουργικής τεχνητής νοημοσύνης, αφορά σε όλες τις εκφάνσεις και εκδηλώσεις της ανθρώπινης ζωής και εργασίας, συμπεριλαμβανομένης και της δικαστηριακής πρακτικής. Ειδικότερα, οι δύο πιο γνωστές υποθέσεις που αφορούν σε νομολογιακά κατασκευάσματα της τεχνητής νοημοσύνης είναι η Mata v. Avianca (ΗΠΑ 2023) και η υπόθεση Harber vs. HMRC (2023)

Mata vsAvianca

H εν λόγω υπόθεση ξεκίνησε όπως όλες οι υποθέσεις: o κ.Ρομπέρτο Μάτα,  άσκησε αγωγή αποζημίωσης κατά της αεροπορικής εταιρείας Avianca, επικαλούμενος τραυματισμό από ένα μεταλλικό καρότσι σερβιρίσματος, που χτύπησε το γόνατό του κατά τη διάρκεια πτήσης προς το Διεθνές Αεροδρόμιο Κένεντι στη Νέα Υόρκη. Η Avianca ζήτησε να απορριφθεί ως απαράδεκτη, όμως οι δικηγόροι του κ. Μάτα αντιτάχθηκαν, υποβάλλοντας υπόμνημα 10 σελίδων, το οποίο ανέφερε πολλές σχετικές δικαστικές αποφάσεις με γνωστές αεροπορικές εταιρίες στις οποίες οι πολίτες είχαν δικαιωθεί σε αντίστοιχα περιστατικά (πχ. Martinez κατά Delta Air Lines, Zicherman κατά Korean Air Lines). Η ιδιαιτερότητα της εν λόγω υπόθεσης, όσον αφορά στην προσκόμιση του υλικού, συνίστατο στο ότι κανένας (δικαστής και δικηγόροι της αεροπορικής εταιρίας) δεν μπόρεσε να βρει τις αποφάσεις που αναφέρονταν στο υπόμνημα.

Γιατί; Γιατί η έρευνα είχε λάβει χώρα κάνοντας χρήση του ChatGPT, ενός ειδικού προγράμματος υπολογιστή. Οι δικηγόροι, αγνοώντας ότι το ChatGPT μπορεί να προβαίνει στη σύνθεση κειμένων μη υπαρκτών, δεν προέβησαν στον έλεγχο του «νομολογιακού» υλικού. Συνεπεία αυτού, το δικαστήριο όχι μόνο απέρριψε την υπόθεση, αλλά επέβαλε κυρώσεις στους δικηγόρους για κακή πίστη, πρόστιμο σε αυτούς και στην εταιρεία τους και διέταξε δημόσιο έλεγχο.

Harber vs. HMRC (Commissioners for Her Majesty’s Revenues and Customs)

Σε μία παρόμοιας φύσης υπόθεση, το Πρωτοβάθμιο Φορολογικό Δικαστήριο της  Αγγλίας (FTT) διαπίστωσε ότι η προσφεύγουσα διάδικος, κα Harber, προσκόμισε νομολογία που δεν υπήρχε και αντ' αυτού «δημιουργήθηκε από ένα σύστημα τεχνητής νοημοσύνης όπως το ChatGPT..

Ειδικότερα, η κυρία Harber κατέστη κυρία ενός ακινήτου, γεγονός το οποίο δεν κοινοποίησε στην αρμόδια υπηρεσία για να της επιβληθεί ο αντίστοιχος φόρος. Συνεπώς,  η HMRC της επέβαλε ποινή «μη κοινοποίησης». Η κ. Harber άσκησε ένδικα μέσα ενώπιον του First Tier Tax Tribunal και ανέφερε τα ονόματα, τις ημερομηνίες και τις περιλήψεις εννέα αποφάσεων  που είχε ήδη εκδόσει  το FTT προς υποστήριξη της δικής της υπόθεσης.

Όπως και με την αεροπορική εταιρία, ούτε  το FTT, αλλά ούτε και η HMRC μπόρεσαν να βρουν αυτές τις περιπτώσεις στον ιστότοπο του FTT. Μερικές υποθέσεις που αναφέρθηκαν είχαν ομοιότητες με πραγματικές υποθέσεις, αλλά ήταν περιπτώσεις στις οποίες οι προσφεύγοντες είχαν χάσει την υπόθεσή τους και ως εκ τούτου δεν μπορούσαν να προσκομιστούν υπέρ της νυν προσφεύγουσας, η οποία δήλωσε ότι οι υποθέσεις της είχαν παρασχεθεί από «έναν φίλο στο γραφείο ενός δικηγόρου» και αναγνώρισε ότι θα μπορούσαν να είχαν δημιουργηθεί από AI. Ως εκ τούτου, και σε αυτήν την περίπτωση η υπόθεση απορρίφθηκε.

Και στις δύο υποθέσεις, συνεπώς, η τεχνητή νοημοσύνη υπήρξε ιδιαιτέρως δημιουργική και ευφάνταστη, με επιζήμιες, όμως, συνέπειες για τους χρήστες, οι οποίοι  αγνοούσαν το γεγονός ότι η προσκομιζόμενη νομολογία είχε εφευρεθεί μηχανικά και ήταν ουσιαστικά ανύπαρκτη. Οι υποθέσεις αυτές σηματοδοτούν έναν αυξημένο βαθμό δυσκολίας στην αναζήτηση νομολογίας προς επίρρωση αποδεικτικών διαδικασιών, καταδεικνύοντας ταυτόχρονα το γεγονός ότι η τεχνολογία δεν λειτουργεί επιβοηθητικά.

Γεωργία Χιόνη

Μέλος του Δικηγορικού Συλλόγου Καβάλας. Κάτοχος δύο μεταπτυχιακών (Γερμανία) και ενός διδακτορικού τίτλου (Ιταλία). Εξειδίκευση σε θέματα εμπράγματου δικαίου, διανοητικής ιδιοκτησίας, ανταγωνισμού, προστασίας καταναλωτή.  Διετέλεσε ΕΕΠ σε...

Δίκαιο Αναγκαστικής Εκτελέσεως ΙΙΙ/α Β έκδοση
Η ανακοπή του άρθρου 933 ΚΠολΔ

ΑΝΤΩΝΗΣ ΒΑΘΡΑΚΟΚΟΙΛΗΣ

ΑΣΤΙΚΟ ΔΙΚΟΝΟΜΙΚΟ ΔΙΚΑΙΟ / ΑΝΑΓΚΑΣΤΙΚΗ ΕΚΤΕΛΕΣΗ

send