00:04 29/12
Σχηματισμός και διαχείριση αποθεματικών Ν.4171.61
Οι επιχειρήσεις μπορούν να επιλέξουν διάφορους τρόπους χρήσης των σχηματισθέντων αποθεματικών ώστε να έχουν καλύτερη φορολογική μεταχείριση.
Οι ελληνικές τράπεζες βιώνουν μια περίοδο ραγδαίας ψηφιακής μετάλλαξης. Επενδύονται εκατομμύρια σε συστήματα που υπόσχονται βελτιστοποίηση, ταχύτητα και μείωση λειτουργικού κόστους. Chatbots εξυπηρετούν πελάτες, αλγόριθμοι αξιολογούν την πιστοληπτική ικανότητα, νευρωνικά δίκτυα εντοπίζουν απάτες. Ωστόσο, πίσω από την τεχνοκρατική ευφορία, ελλοχεύει ένα ζήτημα που απουσιάζει ηχηρά από τον δημόσιο διάλογο και το οποίο αγγίζει τον πυρήνα του νομικού μας πολιτισμού: Τι συμβαίνει όταν η "ηθική" ενός αλγορίθμου αναπαράγει και ενισχύει κοινωνικές διακρίσεις; Κινδυνεύει άραγε το σύστημα από μια αλγοριθμική αυθαιρεσία;
Το 2019, η συνεργασία της Apple με την GoldmanSachs για την AppleCard αποτέλεσε ένα παγκόσμιο casestudy για τους κινδύνους της "τυφλής" εμπιστοσύνης στην τεχνολογία. Αποκαλύφθηκε ότι οι αλγόριθμοι κατηγορήθηκαν ότι έδιναν σε άνδρες αιτούντες σημαντικά υψηλότερα πιστωτικά όρια από τις γυναίκες, ακόμα και όταν τα οικονομικά τους δεδομένα ήταν πανομοιότυπα, όμως το πραγματικό σκάνδαλο ήταν η έλλειψη εξηγήσεων, δηλαδή η εταιρία αδυνατούσε να εξηγήσει τον ίδιο τον αλγόριθμό της.
Άξιες για σκέψη οι προεκτάσεις: ένας αλγόριθμος, που υποτίθεται ότι λειτουργεί ως πυλώνας αντικειμενικότητας, κατέληξε να παραβιάζει θεμελιώδεις αρχές ισότητας. Στην ελληνική πραγματικότητα, το φαινόμενο αυτό μεταφράζεται στην αδιαφανή απάντηση που λαμβάνουν συχνά πελάτες και επιχειρήσεις: "Το σύστημα σας απέρριψε". Ποιος όμως φέρει την ευθύνη όταν το "σύστημα" σφάλλει; Η αδυναμία αιτιολόγησης μιας απόφασης που επηρεάζει βιοτικές ανάγκες δεν είναι απλώς τεχνικό πρόβλημα, είναι ζήτημα δημοκρατίας και κράτους δικαίου.
Οι αλγόριθμοι μηχανικής μάθησης (Machine Learning) εκπαιδεύονται σε ιστορικά δεδομένα. Εδώ εντοπίζεται η μεγάλη παγίδα για το εγχώριο τραπεζικό σύστημα. Τα "ιστορικά δεδομένα" της Ελλάδας φέρουν το βαθύ τραύμα της δεκαετούς οικονομικής κρίσης. Εάν τα τραπεζικά μοντέλα τροφοδοτηθούν ανεπεξέργαστα με δεδομένα της περιόδου 2010-2018, ο αλγόριθμος θα "μάθει" να αναπαράγει τις στρεβλώσεις εκείνης της εποχής. Θα μάθει να εφαρμόζει ένα ψηφιακό "Redlining" –μια πρακτική αποκλεισμού– σε ολόκληρες γεωγραφικές περιοχές που επλήγησαν δυσανάλογα ή σε επαγγελματικές κατηγορίες που υπέφεραν. Έτσι, ένας υγιής σήμερα επιχειρηματίας ή δανειολήπτης κινδυνεύει να απορριφθεί, όχι βάσει της τρέχουσας δυναμικής του, αλλά επειδή ο αλγόριθμος εντόπισε ένα μοτίβο (pattern) που παραπέμπει στο παρελθόν. Πρόκειται για μια μορφή "ψηφιακού ντετερμινισμού" που διαιωνίζει τις κοινωνικές ανισότητες.
Διεθνώς, η ρυθμιστική ανοχή τελειώνει. Η Αμερικανική Υπηρεσία Προστασίας Καταναλωτών (CFPB) και η Ευρωπαϊκή Κεντρική Τράπεζα έχουν ήδη κρούσει τον κώδωνα του κινδύνου, καθιστώντας σαφές ότι οι χρηματοπιστωτικοί οργανισμοί φέρουν ακέραια την ευθύνη για τις αλγοριθμικές προκαταλήψεις.
Στην Ελλάδα, το τοπίο παραμένει θολό. Ενώ το επερχόμενο EU AI Act χαρακτηρίζει τα συστήματα αξιολόγησης πιστοληπτικής ικανότητας ως "Υψηλού Κινδύνου" (High Risk), οι ελληνικές τράπεζες βρίσκονται ακόμη σε στάδιο διερεύνησης. Σύμφωνα με μελέτες, η ουσιαστική υιοθέτηση Predictive AI είναι ακόμα περιορισμένη, γεγονός που μας δίνει ένα χρονικό περιθώριο: να θέσουμε τα σωστά κανονιστικά θεμέλια πριν παγιωθούν οι στρεβλώσεις.
Ο νομικός μας πολιτισμός απαιτεί οι αποφάσεις να είναι αιτιολογημένες. Πώς όμως αιτιολογείται μια απόφαση που ελήφθη από ένα νευρωνικό δίκτυο με εκατομμύρια παραμέτρους, τη λειτουργία του οποίου δυσκολεύονται να εξηγήσουν ακόμα και οι ίδιοι οι προγραμματιστές του;
Αυτή η έλλειψη διαφάνειας δημιουργεί ένα δυστοπικό σενάριο. Όταν ένας πελάτης αισθάνεται ότι αδικήθηκε, πώς μπορεί να ασκήσει τα δικαιώματά του απέναντι σε μια διαδικασία λήψης αποφάσεων που είναι, ουσιαστικά, ένα "μαύρο κουτί";
Η τεχνολογία είναι εργαλείο, όχι θεσμός. Η Τεχνητή Νοημοσύνη μπορεί να προσφέρει τεράστια οφέλη στην ανίχνευση απάτης και τη μείωση του κόστους, αλλά δεν μπορεί να αφεθεί ανεξέλεγκτη. Απαιτείται μια συνειδητή στροφή από την απλή τεχνολογική υιοθέτηση στην ηθική θωράκιση των συστημάτων. Αυτό απαιτεί συνεχείς ελέγχους (Auditing) των αλγορίθμων για εντοπισμό μεροληψιών, διασφάλιση της ανθρώπινης επίβλεψης (Human in the loop) σε κρίσιμες αποφάσεις χορηγήσεων και το κυριότερο, διαφάνεια και δικαίωμα αποτελεσματικής προσφυγής για τον πολίτη.
Οι ελληνικές τράπεζες επενδύουν στην ψηφιακή τους μετάλλαξη. Οφείλουν όμως να επενδύσουν ισότιμα και στη διατήρηση της εμπιστοσύνης. Σε μια εποχή όπου οι αλγόριθμοι αποφασίζουν για τη στέγαση και την επιχειρηματικότητα, η διασφάλιση ότι αυτές οι αποφάσεις είναι δίκαιες δεν είναι απλώς τεχνική λεπτομέρεια. Είναι ηθική επιταγή και προϋπόθεση για τη λειτουργία του κράτους δικαίου.
* Ο Κωνσταντίνος Φράγκος είναι Μηχανικός Ηλεκτρονικών Υπολογιστικών Συστημάτων - Τραπεζικός, Υποψήφιος διδάκτορας Πανεπιστημίου Δυτικής Αττικής