
Στη χρήση της τεχνητής νοημοσύνης στον ευαίσθητο χώρο της ποινικής δικαιοσύνης, αλλά και στην ανάγκη τα συστήματα πρόβλεψης να είναι δίκαια, διαφανή και απαλλαγμένα από έμφυλες μεροληψίες, εστιάζει το ευρωπαϊκό έργο FAIR-PReSONS, τα αποτελέσματα του οποίου θα παρουσιαστούν την Παρασκευή 8 Μαΐου 2026, στη Μυτιλήνη.
Για το έργο και την εκδήλωση μίλησαν στον ραδιοφωνικό σταθμό του «Ν» στους 99 fm ο Αναπληρωτής Καθηγητής και Αντιπρόεδρος του Τμήματος Πολιτισμικής Τεχνολογίας και Επικοινωνίας του Πανεπιστημίου Αιγαίου, Κωνσταντίνος Κώτης, επιστημονικά υπεύθυνος του FAIR-PReSONS, και ο Κοσμήτορας της Σχολής Κοινωνικών Επιστημών, Καθηγητής Γιώργος Τσεκούρας.
Η εκδήλωση με τίτλο «Δίκαιες Προβλέψεις Υποτροπής με Έμφυλη Διάσταση» θα πραγματοποιηθεί από τις 09:30 έως τις 13:30, στο Κτίριο Γεωγραφίας, αίθουσα Γ, στον Λόφο Πανεπιστημίου στη Μυτιλήνη, με δυνατότητα και διαδικτυακής συμμετοχής.
Κατά τη διάρκειά της θα παρουσιαστούν οι στόχοι, η μεθοδολογία και τα αποτελέσματα του έργου, με έμφαση στην ηθική και μη διακριτική χρήση της τεχνητής νοημοσύνης στον τομέα της ποινικής δικαιοσύνης.
Από μια ερευνητική ιδέα σε ευρωπαϊκό έργο
Το FAIR-PReSONS είναι ένα ευρωπαϊκό έργο χρηματοδοτούμενο από τη Γενική Διεύθυνση Δικαιοσύνης της Ευρωπαϊκής Ένωσης, με προϋπολογισμό περίπου 700.000 ευρώ. Συντονιστής είναι το Πανεπιστήμιο Αιγαίου, ενώ στο έργο συμμετείχαν επτά εταίροι από Ελλάδα, Βουλγαρία, Πορτογαλία και Κύπρο.
Όπως εξήγησε ο κ. Κώτης, η ιδέα ξεκίνησε από ερευνητική συνεργασία στο εργαστήριο του Πανεπιστημίου Αιγαίου, με αφετηρία δεδομένα από τις φυλακές Θήβας. Η αρχική μελέτη ανέδειξε την ανάγκη για ευρύτερη ανάλυση, τόσο ως προς τα δύο φύλα όσο και σε επίπεδο διαφορετικών χωρών.
Τι σημαίνει «δίκαιη» τεχνητή νοημοσύνη
Στόχος του έργου είναι η ανάπτυξη ενός συστήματος τεχνητής νοημοσύνης που μπορεί να προβλέπει την πιθανότητα υποτροπής, χωρίς να αναπαράγει κοινωνικές ανισότητες.
Όπως τόνισαν οι δύο καθηγητές, το βασικό ζήτημα δεν είναι μόνο η ακρίβεια των προβλέψεων, αλλά η δικαιοσύνη τους. Τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των μοντέλων ενδέχεται να περιέχουν μεροληψίες, οι οποίες μεταφέρονται στα αποτελέσματα.
«Τα δεδομένα φτιάχνονται από ανθρώπους και άρα ενσωματώνουν μεροληψίες», σημείωσε ο κ. Τσεκούρας, υπογραμμίζοντας ότι η τεχνητή νοημοσύνη μπορεί να ενισχύσει αυτές τις ανισότητες αν δεν υπάρξει κατάλληλη επεξεργασία.
Η έμφυλη διάσταση και τα «λάθη» εις βάρος των γυναικών
Ένα από τα βασικά ευρήματα του έργου αφορά τη διαφορετική ακρίβεια των προβλέψεων μεταξύ ανδρών και γυναικών.
Λόγω της μικρότερης παρουσίας των γυναικών στον πληθυσμό των φυλακών, τα μοντέλα τείνουν να κάνουν περισσότερα λάθη για αυτές. Αυτό οδηγεί σε άδικες εκτιμήσεις, καθώς ένα γενικό μοντέλο δεν «εκπαιδεύεται» επαρκώς σε δεδομένα που αφορούν γυναίκες.
Η αντιμετώπιση αυτού του ζητήματος αποτέλεσε κεντρικό στόχο της ερευνητικής ομάδας, η οποία ανέπτυξε μεθόδους εξισορρόπησης των δεδομένων ώστε οι προβλέψεις να είναι πιο δίκαιες και για τα δύο φύλα.
Διαφάνεια και επεξήγηση
Ένα ακόμη κρίσιμο στοιχείο του έργου είναι η εξηγήσιμότητα του συστήματος. Σε αντίθεση με πολλά μοντέλα τεχνητής νοημοσύνης που λειτουργούν ως «μαύρα κουτιά», το σύστημα του FAIR-PReSONS μπορεί να αιτιολογεί τις προβλέψεις του.
Αυτό σημαίνει ότι ο χρήστης –είτε πρόκειται για δικαστικό λειτουργό είτε για διοικητικό στέλεχος– μπορεί να γνωρίζει ποιες παράμετροι οδήγησαν σε ένα αποτέλεσμα, ενισχύοντας τη διαφάνεια και την εμπιστοσύνη.
Τα βασικά αποτελέσματα του έργου
Σύμφωνα με τον κ. Κώτη, το έργο κατέληξε σε τρία βασικά αποτελέσματα:
Τα δεδομένα αυτά είναι πλέον διαθέσιμα σε ευρωπαϊκές πλατφόρμες, επιτρέποντας σε άλλους ερευνητές να τα αξιοποιήσουν.
Πρακτικές εφαρμογές στο σωφρονιστικό σύστημα
Όπως επισημάνθηκε στη συνέντευξη, τα αποτελέσματα του έργου μπορούν να αξιοποιηθούν άμεσα σε επίπεδο πολιτικών και πρακτικών.
Η δυνατότητα πρόβλεψης της υποτροπής μπορεί να συμβάλει στον καλύτερο σχεδιασμό παρεμβάσεων, στη διαχείριση των σωφρονιστικών δομών και στη λήψη αποφάσεων που βασίζονται σε δεδομένα.
Παράλληλα, ανοίγει μια ευρύτερη συζήτηση για τις συνθήκες εντός των φυλακών και για το πώς αυτές επηρεάζουν την επανένταξη των κρατουμένων.
Τεχνητή νοημοσύνη και κοινωνία: ο ρόλος των κοινωνικών επιστημών
Οι δύο καθηγητές ανέδειξαν και τη σημασία της διεπιστημονικής συνεργασίας στην ανάπτυξη τέτοιων συστημάτων.
Όπως σημείωσε ο κ. Τσεκούρας, τα μεγαλύτερα ζητήματα σήμερα στην τεχνητή νοημοσύνη είναι η δίκαιη αντιμετώπιση των κοινωνικών ομάδων και η εξηγήσιμότητα των μοντέλων. «Το μεγάλο στοίχημα είναι πώς η τεχνητή νοημοσύνη θα ενταχθεί στην κοινωνία με όρους ηθικής και δικαιοσύνης», ανέφερε.
Στο ίδιο πλαίσιο παρουσίασε και το έργο FAIR Legal, που αφορά τον εντοπισμό μεροληψίας σε νομικά κείμενα και αγγελίες εργασίας, μέσω προσαρμοσμένων γλωσσικών μοντέλων.
Διάλογος και πολιτικές βασισμένες σε τεκμήρια
Η εκδήλωση της Παρασκευής φιλοδοξεί να αποτελέσει πεδίο συνάντησης μεταξύ ακαδημαϊκής κοινότητας, δημόσιων φορέων και επαγγελματιών της ποινικής δικαιοσύνης.
Με τη συμμετοχή και του Γενικού Γραμματέα Αντεγκληματικής Πολιτικής, αναμένεται να ανοίξει ένας ουσιαστικός διάλογος για τη χρήση της τεχνητής νοημοσύνης με όρους διαφάνειας, ισότητας και τεκμηριωμένης λήψης αποφάσεων.
Η συζήτηση αυτή, όπως φάνηκε και από τη συνέντευξη, δεν αφορά μόνο την τεχνολογία, αλλά τον τρόπο με τον οποίο οι κοινωνίες επιλέγουν να τη χρησιμοποιήσουν.