Tεχνητή Νοημοσύνη, Δικαιοσύνη και “Έξυπνη Δικαιοσύνη”

Όταν ο Alan Turing έγραφε για τις «μηχανές που σκέφτονται», το 1950, δεν θα μπορούσε ίσως να είχε αφήσει τη φαντασία του να τρέξει τόσο μπροστά σε ό,τι ερευνάται σήμερα ως «τεχνητή νοημοσύνη», όρο που ανέπτυξε έξι χρόνια μετά ο John McCarthy (Turing, 1950; McCarthy, Minsky, Rochester & Shannon, 1955; McCarthy, 1956). Ο χώρος της δικαιοσύνης δεν μένει εκτός των δυνατοτήτων της τεχνητής νοημοσύνης. Το ερώτημα είναι σε ποια έκταση μπορεί να τις χρησιμοποιήσει για να επωφεληθεί. Όταν μιλάμε για την τεχνητή νοημοσύνη, εννοούμε τη δυνατότητα της μηχανής να αντιλαμβάνεται και να ανταποκρίνεται στο περιβάλλον της με ανεξαρτησία και να ενεργεί κατά τρόπο που τυπικά θα χρειάζονταν η ανθρώπινη νοημοσύνη και η διαδικασία λήψης απόφασης, αλλά χωρίς τέτοια ανθρώπινη παρέμβαση. Η τεχνητή νοημοσύνη βασίζεται στην εκμάθηση μέσα από την εμπειρία και τη μίμηση της επαναλαμβανόμενης κατάστασης, στοιχεία που δεν είναι άγνωστα είτε στη συμπεριφορά νομιμότητας ή παρανομίας είτε στον τρόπο απονομής του δικαίου.

Η τεχνητή νοημοσύνη χρησιμοποιείται ήδη με διάφορους τρόπους στον τομέα της δικαιοσύνης. Οι ασυνήθιστοι τρόποι χρήσης μιας πιστωτικής κάρτας ή ενός ηλεκτρονικού συστήματος πληρωμής, που μπορεί να υποδηλώνουν απάτη ή κλοπή, εντοπίζονται άμεσα και συνήθως αποτρέπεται η ζημιά, όπως μπορεί να είναι πιο διαδεδομένη ή εγγύτερη η εμπειρία και στον εγχώριο πληθυσμό. Μπορεί να χρησιμοποιείται στην αναγνώριση προσώπων με τον τρόπο που εργάζεται και ο ανθρώπινος αναλυτής, θεωρώντας ότι θα επιτυγχάνεται μεγαλύτερη ταχύτητα ή ακρίβεια ή και ποιότητα και χωρίς να εμφιλοχωρεί κίνδυνος λάθους λόγω της ανθρώπινης κούρασης ή άλλων συναφών παραγόντων. Μπορεί να επιστρατεύεται και στον εντοπισμό αντικειμένων ή μέσων τα οποία σχετίζονται με την εγκληματική δράση, στην επεξεργασία και ανάλυση εικόνων ή ήχων αλλά και της σκηνής του εγκλήματος ή και στην κατάρτιση προφίλ δραστών ή θυμάτων. Οι αλγόριθμοι της τεχνητής νοημοσύνης που χρησιμοποιούνται στο χώρο των επιστημών υγείας, για την αυτόματη μέτρηση ορισμένων λειτουργιών του ανθρώπινου σώματος, μέσω των διαφόρων μετρητών που διαθέτουν τα κινητά τηλέφωνα ή τα «έξυπνα» ρολόγια χειρός, έχουν σημασία και στη διαδικασία της ποινικής διερεύνησης. Στην Αμερική γίνεται προσπάθεια χρήσης της τεχνητής νοημοσύνης στον εντοπισμό των τροχαίων ατυχημάτων, ώστε να υπάρχει άμεση αντιμετώπιση των αναγκών του κάθε τροχαίου ατυχήματος, ενώ η επιστημονική φαντασία επιτρέπει τη σύλληψη και μεθόδων αυτόματου περιορισμού της ταχύτητας των οχημάτων ή και γιατί όχι την αποτροπή των συγκρούσεων.

Διαβάστε επίσης: H τεχνητή νοημοσύνη ως μια μετασχηματιστική του δικαίου τεχνολογία

Σε κάποια δικαστήρια στο εξωτερικό παρουσιάζονται ήδη αναλύσεις και εκτιμήσεις κινδύνων σε σχέση με τη συμπεριφορά σε διάφορα στάδια της διαδικασίας (π.χ. LSI-R, PSA, PCRA, COMPAS, κ.λπ.). Υπάρχουν προγράμματα (π.χ. PredPol) που προβλέπουν τον τόπο ορισμένων εγκλημάτων, καθορίζοντας ανάλογα τις ανάγκες της αστυνόμευσης. Στη σχετικά πρόσφατη State v. Loomis, 881 N.W.2d 749 (Wis. 2016), το Wisconsin Supreme Court (ΗΠΑ) είχε κρίνει ότι η χρήση του COMPAS κατά τη διαδικασία επιμέτρησης της ποινής για την εκτίμηση του κινδύνου υποτροπής δε συνιστούσε προσβολή οποιουδήποτε δικαιώματος του κατηγορούμενου (π.χ. να έχει εξατομικευμένη ποινή ή ποινή βάσει ακριβών δεδομένων), ακόμα κι αν η μεθοδολογία του COMPAS δεν είχε κοινοποιηθεί επαρκώς και συνιστούσε εμπορικό μυστικό. Ειδικότερα, το Δικαστήριο, μετά την παραδοχή του κατηγορούμενου, είχε ζητήσει έρευνα – PSI – που να περιλαμβάνει το COMPAS, που βασίζονταν τόσο στον ποινικό φάκελο όσο και σε συνέντευξη με τον κατηγορούμενο και στα δεδομένα που ο ίδιος ο κατηγορούμενος θα εισήγαγε στο εργαλείο. Η εφαρμογή του COMPAS είχε δείξει, για τον κατηγορούμενο, βάσει αυτών των δεδομένων, υψηλό κίνδυνο υποτροπής και ενεργό κίνδυνο για την κοινωνία, οπότε το Δικαστήριο είχε επιβάλει ποινή που κινούνταν στα υψηλότερα όρια. Το Wisconsin Supreme Court, με το να προσπαθήσει να οριοθετήσει με την απόφασή του τη χρήση τέτοιων εργαλείων, ορίζοντας πώς και σε ποιο βαθμό χρησιμοποιούνται (μεταξύ άλλων, όχι ως επιβαρυντικός ή ελαφρυντικός παράγοντας, μη καθοριστικά ή αποκλειστικά, και συνοδευόμενα από τη διακριτή αναφορά της αξιολόγησης και των περιορισμών χρήσης της συγκεκριμένης μεθοδολογίας), ουσιαστικά την ενέκρινε. Το United States Supreme Court στη συνέχεια αρνήθηκε να εκδώσει προνομιακό ένταλμα Certiorari [cert. denied, 137 S.Ct. 2290 (2017)]. Παρόλο που και μία παλαιότερη Αμερικανική υπόθεση, η Malenchik v. State, 928 NE2d 564 (Ind 2010) 573, είχε κάνει αναφορά στην επιστημονικά-βασισμένη εκτίμηση κατά την επιμέτρηση της ποινής, η State v. Loomis ήταν αυτή που θεωρήθηκε πως ανοίγει το δρόμο για την τεχνητή νοημοσύνη στη δικαστική πρακτική, για την απονομή του δικαίου. Η Loomis δεν είναι άμοιρη κριτικής (Liu, Lin & Chen, 2019).

Πιο συγκρατημένο ή αυστηρό, το Supreme Court of Western Australia, στη Director of Public Prosecutions for Western Australia v Mangolamara (2007) 169 A Crim R 379, [2007] WASC 71, [165], είχε θέσει ως προϋπόθεση χρησιμοποίησης τέτοιων εργαλείων την προσκόμιση μαρτυρίας σε σχέση με την αξιοπιστία τους, λέγοντας πως, ακόμα κι αν το ίδιο το δικαστήριο τεκμαίρει ότι είναι αξιόπιστα αυτά τα εργαλεία, με την έννοια του ότι δεν τα αμφισβητεί, δεν το γνωρίζει δικαστικά, μέσα από μαρτυρία. Με τον τρόπο αυτό, το Αυστραλιανό δικαστήριο, έριξε το βάρος της εξέλιξης αυτής στον κατήγορο και στον κατηγορούμενο και σε ό,τι οι ίδιοι θα προσκομίσουν κατά την επιμέτρηση της ποινής, υποστηρίζοντας συναφή αιτήματα. Ακόμα κι αν θεωρήσει κανείς πως ορθή διάσταση είναι να βασίζεται, το Δικαστήριο, σε επιστημονικά (κατ’ επέκταση τεχνολογικά) δεδομένα που προσάγονται ενώπιον του ως μαρτυρία (το ίδιο διατηρώντας απαράλλακτη τη δική του λειτουργία), και όχι στην αδέσποτη επιστήμη, ως δικαστική γνώση, όπως ήταν ένας σχετικά εύστοχος σχολιασμός, το να βασίζεται πάντως στην επιστημονική γνώση είναι προτιμότερο από το να βασίζεται στη μη επιστημονική (δικαστική) γνώση ή από το να είναι εντελώς αβάσιμη (Stobbs, Hunter & Bagaric, 2017).

Οι αλγόριθμοι μπορεί και να φαντάζουν σε κάποιους ικανοί να υποκαταστήσουν και την ίδια τη διαδικασία προβολής δεδομένων κατηγορίας ή υπεράσπισης όπως και τη λήψη αποφάσεων για την απονομή του δικαίου, να δημιουργούν τη δυνατότητα διεξαγωγής «ρομποτικών δικών» ή αυτόματων δικών, ως μια περαιτέρω εξέλιξη των διαδικτυακών δικών που ήδη χρησιμοποιούνται ή της ηλεκτρονικής δικαιοσύνης στην οποία με ανυπομονησία εισαγόμαστε. Όπου υπάρχει επανάληψη να υπάρχει και αλγόριθμος, αυτοματισμός και εξαφάνιση της ανθρώπινης λειτουργίας και διαδικασίας. Είναι προς το παρόν πιο ορατή η εικόνα όπου οι πολυσέλιδοι κώδικες γραπτών κανόνων δικαίου και οι πυκνογραμμένοι τόμοι νομολογίας δίνουν τη θέση τους σε ψηφία και μηχανές αναζήτησης, ώστε η μυρωδιά του χαρτιού να γίνει κάποια στιγμή γλυκιά ανάμνηση για τους λίγους και η ανθρώπινη μνήμη να σταματήσει να αναλώνεται εκεί όπου υπάρχει μηχανικός χώρος μνήμης. Πόσο επικίνδυνη είναι άραγε για τον άνθρωπο η αδρανοποίηση της μνήμης του; Θα είναι ίσως κάποτε ορατή και η εξαφάνιση της δίκης ως λειτουργία στην οποία αναλώνεται τελετουργικά τόσος ανθρώπινος χρόνος, για σκοπούς που με την τεχνολογία μπορούν να επιτευχθούν με αυτόματα μέσα (π.χ. διαπίστωση ενοχής, επίτευξη σκοπών της ποινής). Η εικόνα της φυλακής μέσα στην οποία συνωστίζονται άνθρωποι για κάποιους σκοπούς που σχετίζονται είτε με την τιμωρία και την αποτροπή είτε με την ατομική αναμόρφωση.

Οι ηθικές συστολές συστήνουν καμιά φορά ότι η αναφορά είναι πάντοτε σε υποβοήθηση των ανθρώπινων λειτουργιών και όχι στην υποκατάσταση ή την αντικατάστασή τους, ακόμα κι αν οι προσπάθειες είναι να αναπτυχθεί και η συναισθηματική νοημοσύνη των μηχανών. Οι ανησυχίες για την απόλυτη μηχανοποίηση ορισμένων λειτουργιών και για τους κινδύνους τεχνικών λαθών, τεχνικής προκατάληψης και κατ’ επέκταση τεχνικής αδικίας, που εμπνέουν αντίστοιχες έρευνες, δεν είναι χωρίς δικαιολογία (Angell, Johnson, Brun & Meliou, 2018; Brun & Meliou, 2018; Başak Aydemir & Dalpiaz, 2018; Udeshi, Pryanshu & Sudipta, 2018). Εάν ο Petrov Stanislav, την 26η Σεπτεμβρίου 1983, δεν βασίζονταν στο ανθρώπινο ένστικτό του ότι είναι λανθασμένοι όλοι οι επαναλαμβανόμενοι μεταμεσονύκτιοι συναγερμοί των μηχανών ότι ένας πυρηνικός πύραυλος και έπειτα άλλος και άλλοι τέσσερις θα κτυπούσαν, εντός των επόμενων 12 λεπτών στη Ρωσία, με ποσοστό βεβαιότητα της πρόβλεψης 100%, και λάμβανε μια άμεση απόφαση με βάση τα δεδομένα αυτά, δεν θα είχε αποφευχθεί μάλλον ένας τραγικός πυρηνικός πόλεμος, που θα συντάρασσε την ανθρωπότητα (The Economist, 30.09.2017).

Ο χώρος της δικαιοσύνης γενικότερα, ειδικότερα της ποινικής δικαιοσύνης, είναι φύσει ανθρώπινος και κοινωνικoηθικός, πολυδιάστατος και ως ένα βαθμό απρόβλεπτος, ώστε να μην μπορεί να προσεγγιστεί με απόλυτα μαθηματικά δεδομένα και στέρεες νομικές επαναλήψεις. Είναι γεγονός βέβαια ότι οι μηχανές είναι ικανότερες από τον άνθρωπο να χειριστούν τα δεδομένα του ανθρώπινου πλουραλισμού, έτσι δίνοντας και άλλες διαστάσεις σε έννοιες όπως λόγου χάριν η ισότητα. Δεν παύουν όμως να είναι μηχανές που προσπαθούν να λειτουργήσουν ανθρώπινα έξω από το όλο ανθρώπινο ψυχοπνευματικό σύστημα, που προέρχονται από παρόμοια αδύναμα ανθρώπινα ψυχοπνευματικά συστήματα, που έχουν εγγενώς τα δικά τους (τεχνικά) όρια. Από την άλλη, εκεί όπου χωρεί η ανθρώπινη μηχανικότητα, είναι χρήσιμη η τεχνητή νοημοσύνη. Είναι χρήσιμη ακόμα και όταν ή και επειδή επιβάλλει την αίσθηση της απειλής της έλευσης της μηχανικής αντικατάστασης στις λειτουργίες όπου η ανθρώπινη ικανότητα αποτυγχάνει να εφαρμόσει σταθερότητα και συνέπεια ενώ πρέπει. Δημιουργεί την αντίστοιχη ανάγκη ενίσχυσης αφενός του επαγγελματισμού αφετέρου της ακεραιότητας και της εντιμότητας με την οποία επιλέγονται οι εκάστοτε (ανθρώπινες) αποκλίσεις από ό,τι θεωρείται νομικά ή κοινωνικά συνηθισμένο ή (λογικά) αναμενόμενο.

Κάπως έτσι μπαίνει στο διάλογο η συσχέτιση της τεχνητής νοημοσύνης με τη δικαστική διαφάνεια ή καλύτερα η έννοια της «έξυπνης δικαιοσύνης» (smart justice), που βασίζεται σε τεχνολογικά δεδομένα, μεταξύ άλλων, για να αποδιώξει από τους κόλπους της δικαιοσύνης τις όποιες ανθρώπινες αδυναμίες (αλλά εξαρτάται, ως ένα βαθμό, και από την ανθρώπινη συμμετοχή), για να επιτύχει τόσα πολλά που περιλαμβάνουν και την ανάκτηση και ενίσχυση της εμπιστοσύνης των ανθρώπων έναντι στη λειτουργία των νόμων, του δικαίου και της δικαιοσύνης. Η «έξυπνη δικαιοσύνη» αποκτά την έννοια της δικαιοσύνης που, εκεί όπου ασκείται διακριτικά, είναι βασισμένη στην επιστήμη και την τεχνολογία, είναι λιγότερο ενστικτώδης ή εμποτισμένη με προσωπικές πεποιθήσεις ή μεταβαλλόμενες συναισθηματικές καταστάσεις ή πάθη. Είναι αυτή που υποτίθεται αξίζει σε έξυπνους (πολύπλοκους) ανθρώπους, έξυπνες (πολύπλοκες) πόλεις και κοινωνίες, έξυπνες (πολύπλοκες) εποχές. Τόσο στην Αμερική όσο και στην Αυστραλία και τον Καναδά υπάρχουν οι καμπάνιες της «έξυπνης δικαιοσύνης», που άρχισαν προ ετών, ώστε η «έξυπνη δικαιοσύνη» να τείνει να καθίσταται πλέον απαίτηση ή δικαίωμα. Το δικαίωμα στην έξυπνη (πιο διαθέσιμη, πιο προσιτή, αμεσότερη, ταχύτερη, ακριβέστερη, αποτελεσματικότερη) δικαιοσύνη, που να βοηθά και να ευεργετεί το σύγχρονο άνθρωπο, να μην τον ταλαιπωρεί, να μην τον απωθεί, να μην τον εξοργίζει. Το ποινικό δίκαιο (ως περισσότερο κοινωνικό) και ο ευρύτερος χώρος της ποινικής δικαιοσύνης επιδέχονται με προτεραιότητα αυτές τις επιδράσεις (McGann & Moss, 2010; Maher & Berzins, 2011; Sabet, Talpins, Dunagan & Holmes, 2013; Estelle & Phillips, 2018). Κάποτε θα γράφουμε, αναζητώντας, την «καινοτόμο» ανθρώπινη δικαιοσύνη.

  • Angell, R. Johnson, B., Brun, Y. & Meliou, A. (2018). Themis: Automatically Testing Software for Discrimination. In: Proceedings of the 2018 26th Association Computing Machinery Joint Meeting European Software Engineering Conference and Symposium Foundations Software Engineering, USA, 871–875.
  • Başak Aydemir, F. & Dalpiaz, F. (2018). A Roadmap for Ethics-Aware Software Engineering. In: Proceedings of the International Workshop on Software Fairness
    Gothenburg, Sweden, 15–21.
  • Brun, Y. & Meliou, A. (2018). Software Fairness. In: Proceedings of the 2018 26th Association Computing Machinery Joint Meeting European Software Engineering Conference and Symposium Foundations Software Engineering, USA, 754–759.
  • Estelle, S.M. & Phillips, D.C. (2018). Smart sentencing guidelines: The effect of marginal policy changes in recidivism. Journal of Public Economics, 164, 270-293.
  • Liu, HW., Lin, CF. & Chen, YJ. (2019). Beyond State v Loomis: artificial intelligence, government algorithmization and accountability. International Journal of Law and Information Technology, 27, 122–141.
  • Maher, M. & Berzins, L. (2011). Open the Doors to Smarter Justice. Canada: Smart Justice Network.
  • McCarthy, J., Minsky, M.L., Rochester, N. & Shannon, C.E. (1955). A proposal Dartmouth summer research project on Artificial Intelligence.
  • McCarthy, J. (1956). What is Artificial Intelligence. Dartmouth summer research project on Artificial Intelligence, Hanover, New Hampshire.
  • McGann, M. & Moss, J. (2010). Smart Matters, Smart Justice? Australia: University of Melbourne (Social Justice Initiative).
  • The Economist (30.09.2017). Midnight and counting.
  • Turing, A. (1950). Computing machinery and intelligence. Mind, 49, 433-460.
  • Sabet, K., Talpins, S., Dunagan, M. & Holmes, E. (2013). Smart Justice: A new paradigm for dealing with offenders. Journal of Drug Policy Analysis,  6(1), 1-17.
  • Stobbs, N., Hunter, D. & Bagaric, M. (2017). Can Sentencing Be Enhanced by the Use of Artificial Intelligence? Criminal Law Journal, 51, 261-277.
  • Udeshi, S., Pryanshu, A. & Sudipta, C. (2018). Automated Directed Fairness Testing. In: Proceedings of the 2018 26th Association Computing Machinery Joint Meeting European Software Engineering Conference and Symposium Foundations Software Engineering, USA, 98–108.
Print Friendly, PDF & Email
Tags: , , , ,