Η αξιόπιστη Τεχνητή Νοημοσύνη στην εποχή της βαθιάς μάθησης αποτελεί ένα από τα σημαντικότερα θέματα που απασχολούν την σύγχρονη εποχή, συνδέοντας τη θεωρία με το ρυθμιστικό και πρακτικό πλαίσιο της εποχής μας. Με την Τεχνική Νοημοσύνη (ΑΙ) να έχει πλέον καθιερωθεί ως βασικός παράγοντας στη λήψη κρίσιμων αποφάσεων και γενικά στην καθημερινότητά μας, προκύπτουν ερωτήματα όπως το κατά πόσον μπορούμε να εμπιστευτούμε πραγματικά αυτούς τους αλγόριθμους, με την απάντηση να μην είναι απλή. Οι αλγόριθμοι βαθιάς μάθησης (deep learning) συχνά λειτουργούν στο πλαίσιο αυτού που οι ειδικοί ονομάζουν «μαύρο κουτί»: λαμβάνουν είσοδο και παρέχουν έξοδο, αλλά οι εσωτερικές διαδικασίες λήψης αποφάσεων παραμένουν κρυφές και αόρατες, δημιουργώντας σοβαρά ζητήματα διαφάνειας, αξιοπιστίας, λογοδοσίας ακόμη και ηθικής.
Η υπερπήδηση των εμποδίων αξιοπιστίας και διαφάνειας που προκύπτει από τις διαδικασίες της Τεχνητής Νοημοσύνης στην εποχή της βαθιάς μάθησης απαιτεί εξήγηση (explainability) και ερμηνευσιμότητα (interpretability), με την εξήγηση να παρέχει μια κατανοητή λογική πίσω από μια απόφαση του μοντέλου ΑΙ και την ερμηνευσιμότητα να αναφέρεται στην κατανόηση των εσωτερικών μηχανισμών του μοντέλου, ειδικά σε αποφάσεις που επηρεάζουν ζωές και δικαιώματα ανθρώπων.
Η αξιοπιστία των συστημάτων στηρίζεται στην ανθρωποκεντρικότητά τους. Το ζητούμενο, σύμφωνα με κορυφαίους ερευνητές στον τομέα όπως ο Passerini, δεν είναι απλώς ή ακριβής πρόβλεψη, αλλά η υποστήριξη της ανθρώπινης λήψης αποφάσεων με τρόπο που να είναι κατανοητός, σεβαστός και εδρασμένος σε νομικές και ηθικές αρχές. Η επίτευξη τούτων εδράζεται σε τέσσερις πυλώνες, ήτοι της νομιμότητας, της ηθικής, της ανθεκτικότητας και ασφάλειας και της διαφάνειας και λογοδοσίας.
Η θεσμοθέτηση του ΑΙ Act από την Ευρωπαϊκή Ένωση τον Αύγουστο του 2024, παρόλη την κριτική που έχει δεχθεί, στοχεύει σε ένα γενικό πλαίσιο στη διασφάλιση της ασφαλούς, αξιόπιστης και ηθικής της Τεχνητής Νοημοσύνης. Προς τούτο απαγορεύονται οι καθαρά επικίνδυνες χρήσεις όπως είναι η χειραγώγηση συμπεριφοράς, οι απαγορευμένες βιομετρικές διαγνώσεις και υποχρεώνονται οι παρόχοι για την πιστοποίηση και την διαρκή αξιολόγηση υψηλών κινδύνων, διαθέτοντας συστήματα διαχείρισης κινδύνου και ανάπτυξης. Η γεφύρωση της απόστασης μεταξύ των κανονιστικών απαιτήσεων και της τεχνικής υλοποίησης αποτελεί, φυσικά, τεράστια πρόκληση και ο ρόλος των συστημάτων βαθιάς μάθησης είναι ιδιαίτερα σημαντικός. Απαιτείται, όμως, διεπιστημονική συνεργασία μεταξύ μηχανικών πληροφορικής, ειδικών ηθικής, νομικών, επιχειρήσεων και άλλων ενδιαφερομένων. Οι συνέργειες μεταξύ όλων των σχετικών με την Τεχνητή Νοημοσύνη και τη βαθιά μάθηση αποτελεί προϋπόθεση σε οποιοδήποτε σχέδιο ανάπτυξης που στόχο έχει την αξιόπιστη Τεχνητή Νοημοσύνη.
Παρά τις προκλήσεις και τις πολυάριθμες δυσκολίες που υπάρχουν στην επίτευξη αξιόπιστης Τεχνητής Νοημοσύνης ως οριοθετείται πιο πάνω, αναδύονται ταυτόχρονα νέες ευκαιρίες, με την ανάπτυξη εργαλείων ΑΙ που εξηγούν αποφάσεις μοντέλων με απόλυτη διαφάνεια, την ενσωμάτωση εντοπισμού και μετριασμού προκαταλήψεων, βασισμένη σε δεδομένα για δίκαιες αποφάσεις και την δημιουργία audit frameworks που συνδέουν τον κύκλο ζωής των μοντέλων ΑΙ με νομοθετικές απαιτήσεις και επιχειρηματικά ΚΡΙs.
Το όραμα για ανθρωποκεντρική Τεχνητή Νοημοσύνη παρουσιάζει αξιοσημείωτη πρόοδο αλλά η βαθιά μάθηση ως «μαύρο κουτί» πρέπει να υπερκεραστεί, με την αξιοπιστία, τη διαφάνεια και την ηθικότητα να μην είναι προαιρετικές αλλά αναγκαίες. Η συντονισμένη δράση των σχετικών δρώντων – τεχνικών, ερευνητών, νομοθετών και εφαρμοστών – είναι το κλειδί για την δημιουργία αξιόπιστης Τεχνητής Νοημοσύνης πέραν του «μαύρου κουτιού.»