Συνεχης ενημερωση

    Παρασκευή, 21-Νοε-2025 00:04

    Κανονισμός για την Τεχνητή Νοημοσύνη (AI) - Κατηγορίες Κινδύνου

    • Εκτύπωση
    • Αποστολή με email
    • Προσθήκη στη λίστα ανάγνωσης
    • Μεγαλύτερο μέγεθος κειμένου
    • Μικρότερο μέγεθος κειμένου

    Του Σταύρου Κουμεντάκη

    Σε προηγούμενη αρθρογραφία μας εγκαινιάσαμε σειρά άρθρων αναφορικά με τον ενωσιακό Κανονισμό για την Τεχνητή Νοημοσύνη. Αναφερθήκαμε στη στόχευση, το πεδίο εφαρμογής και την έναρξη ισχύος του σχετικού Κανονισμού (ΑΙ). Προχωρώντας λίγο περισσότερο στη διερεύνησή του, αναγκαίο είναι να κατανοήσουμε τους κινδύνους της ΤΝ μέσα από την κατηγοριοποίηση τους˙ τουλάχιστον όπως ο Κανονισμός τους αντιλαμβάνεται. Περί αυτών το παρόν. 

    Τα επίπεδα κινδύνου

    Ο Κανονισμός υιοθετώντας, εν μέρει, μία κινδυνο-κεντρική προσέγγιση, προσδιορίζει τέσσερα επίπεδα κινδύνου για τα συστήματα ΤΝ με κριτήριο τον κίνδυνο που, το καθένα από αυτά εμπεριέχει: τον απαγορευμένο, τον υψηλό, τον περιορισμένο και τον ελάχιστο ή μηδενικό κίνδυνο. Οι υποχρεώσεις εκείνων που εμπλέκονται σε κάθε στάδιο ανάπτυξης και χρήσης των συστημάτων ΤΝ, άρρηκτα συνδέονται (και αντιστοιχούν) με τα επιμέρους επίπεδα κινδύνου.

    Συστήματα ΤΝ απαγορευμένου κινδύνου

    Ο Κανονισμός καθιερώνει μια κατηγορία συστημάτων ΤΝ τα οποία απαγορεύεται να διατεθούν στην αγορά, να τεθούν σε λειτουργία και να χρησιμοποιηθούν. Και τούτο, εξαιτίας του σοβαρού κινδύνου που ενέχουν για τα θεμελιώδη δικαιώματα και την ανθρώπινη αξιοπρέπεια. 

    Απαγορεύεται, ειδικότερα, η διάθεση, λειτουργία και χρήση συστήματος ΤΝ:

    (α) Που εφαρμόζει τεχνικές απευθυνόμενες στο υποσυνείδητο ή σκόπιμα χειριστικές/παραπλανητικές. 

    (β) Που εκμεταλλεύεται τα αδύνατα σημεία ενός φυσικού προσώπου ή μιας συγκεκριμένης ομάδας προσώπων λόγω ηλικίας, αναπηρίας, κοινωνικής ή οικονομικής κατάστασης. 

    (γ) Για την αξιολόγηση/ταξινόμηση φυσικών προσώπων ή ομάδων προσώπων για ορισμένο χρονικό διάστημα, με βάση την κοινωνική συμπεριφορά ή προσωπικά χαρακτηριστικά με κοινωνική βαθμολογία και συγκεκριμένη, επιζήμια ή δυσμενή στόχευση. 

    (δ) Για τη διενέργεια εκτιμήσεων κινδύνου φυσικών προσώπων, προκειμένου να εκτιμηθεί ή να προβλεφθεί ο κίνδυνος τέλεσης αξιόποινης πράξης βάσει προφίλ ή συμπεριφοράς. 

    (ε) Για τη δημιουργία ή επέκταση βάσεων δεδομένων αναγνώρισης προσώπου μέσω της μη στοχευμένης εξαγωγής εικόνων προσώπου από το διαδίκτυο ή βίντεο CCTV.

    (στ) Για τη συναγωγή συναισθημάτων φυσικού προσώπου στους τομείς εργασίας και των εκπαιδευτικών ιδρυμάτων.

    (ζ) Συστημάτων βιομετρικής κατηγοριοποίησης. 

    (η) Συστημάτων εξ αποστάσεως βιομετρικής ταυτοποίησης "σε πραγματικό χρόνο", σε δημόσια προσβάσιμους χώρους για τους σκοπούς της επιβολής του νόμου.

    Συστήματα ΤΝ υψηλού κινδύνου

    Συστήματα ΤΝ υψηλού κινδύνου είναι εκείνα που χρησιμοποιούνται:

    (α) Ως σσφάλεια προϊόντος˙  πρόκειται, ειδικότερα, για συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν ως στοιχείο ασφάλειας ενός προϊόντος, δηλαδή είναι ενσωματωμένο σε κάποιο μηχάνημα. Επίσης, στην ίδια κατηγορία εντάσσεται και το σύστημα ΤΝ, το οποίο είναι το ίδιο προϊόν, το οποίο καλύπτεται από την ενωσιακή νομοθεσία εναρμόνισης. 

    (β) Ως βιομετρικά στοιχεία˙ εφόσον, βεβαίως, η χρήση τους επιτρέπεται σύμφωνα με το ενωσιακό ή εθνικό δίκαιο. 

    (γ) Σε υποδομές ζωτικής σημασίας˙ όπως η χρήση για στοιχεία ασφάλειας στη διαχείριση κρίσιμων ψηφιακών υποδομών.  

    (δ) Στην εκπαίδευση και στην επαγγελματική κατάρτιση˙ πρόκειται για συστήματα ΤΝ που χρησιμοποιούνται για τον καθορισμό πρόσβασης/εισαγωγής σε εκπαιδευτικά ιδρύματα και ιδρύματα επαγγελματικής κατάρτισης, για αξιολόγηση μαθησιακών αποτελεσμάτων, αξιολόγηση κατάλληλου επιπέδου εκπαίδευσης καθώς και για παρακολούθηση και εντοπισμό απαγορευμένης συμπεριφοράς σπουδαστών κατά τη διάρκεια εξετάσεων. 

    (ε) Στην εργασία˙ πρόκειται για εργαλεία ΤΝ που χρησιμοποιούνται για την πρόσληψη, επιλογή, δημοσίευση αγγελιών, ανάλυση και φιλτράρισμα αιτήσεων εργασίας, αξιολόγηση υποψηφίων, λήψη αποφάσεων σχετικά με τους όρους εργασιακών σχέσεων, προώθηση και καταγγελία συμβατικών σχέσεων, κατανομή καθηκόντων, αξιολόγηση επιδόσεων.  

    (στ) Για την πρόσβαση σε βασικές δημόσιες και ιδιωτικές υπηρεσίες˙ με σκοπό την  αξιολόγηση επιλεξιμότητας φυσικών προσώπων για βασικές παροχές και υπηρεσίες δημόσιας αρωγής (υγειονομική περίθαλψη), αξιολόγηση πιστοληπτικής ικανότητας, εκτίμηση κινδύνων και τιμολόγηση σε περίπτωση ασφάλειας ζωής και υγείας, αξιολόγηση κλήσεων και καθορισμό προτεραιοτήτων σε καταστάσεις έκτακτης ανάγκης. 

    (ζ) Για την επιβολή του νόμου˙ εφόσον, τούτο, είναι επιτρεπτό από το ενωσιακό ή εθνικό δίκαιο.  

    (η) Για τη διαχείριση μετανάστευσης, ασύλου και συνοριακών ελέγχων˙ εφόσον η χρήση τους επιτρέπεται βάσει του σχετικού ενωσιακού ή εθνικού δικαίου.

    (θ) Στην απονομή δικαιοσύνης και στις δημοκρατικές διαδικασίες˙ με ιδιαίτερα περιορισμένο πεδίο εφαρμογής. 

    Όπως ήδη αναφέρθηκε η πλειονότητα των άρθρων του Κανονισμού ρυθμίζει ζητήματα που αφορούν τα συστήματα ΤΝ υψηλού κινδύνου. Οι προβλεπόμενες υποχρεώσεις αφορούν κατά βάση αυτά τα συστήματα. 

    Συστήματα περιορισμένου και μηδενικού κινδύνου

    Αναφορικά με τα συστήματα ΤΝ τα οποία χαρακτηρίζονται ως περιορισμένου κινδύνου (όπως για παράδειγμα τα διαλογικά ρομπότ) ο Κανονισμός θεσπίζει περιορισμένες υποχρεώσεις. Kατά κύριο λόγο υποχρεώσεις διαφάνειας και γνωστοποίησης, όσον αφορά τη χρήση της ΤΝ, ώστε να είναι σε θέση όσοι αλληλεπιδρούν με αυτά να λαμβάνουν τεκμηριωμένες αποφάσεις και, εφόσον κρίνουν απαραίτητο, να διακόψουν την χρήση τους.

    Σημειώνεται ότι τα συστήματα ΤΝ τα οποία χαρακτηρίζονται ως ελάχιστου ή μηδενικού κινδύνου, δεν εμπίπτουν στην εφαρμογή των υποχρεώσεων συμμόρφωσης που προβλέπουν οι διατάξεις του Κανονισμού.

    Όπως, ήδη, διατυπώθηκε ο Κανονισμός είναι, εν μέρει, κινδυνο-κεντρικός: τα συστήματα Τεχνητής Νοημοσύνης κατηγοριοποιούνται σε συστήματα απαγορευμένου, υψηλού, περιορισμένου και ελάχιστου ή μηδενικού κινδύνου. Για τις δύο τελευταίες κατηγορίες θεσπίζονται ελάχιστες υποχρεώσεις. Η πρώτη κατηγορία (ως απολύτως απαγορευμένη) δεν είναι, ούτως ή άλλως προς συζήτηση. Η πλειονότητα των σοβαρών υποχρεώσεων υφίσταται όσον αφορά τα συστήματα Τεχνητής Νοημοσύνης υψηλού κινδύνου. Κι ακριβώς λόγω της κρισιμότητάς τους αλλά και του βάρους που δημιουργούν στα εμπλεκόμενα μέρη οι υποχρεώσεις των εμπλεκομένων και οι επαπειλούμενες κυρώσεις θα μας απασχολήσουν, αυτοτελώς, σε επόμενη αρθρογραφία μας.

    *Managing Partner Koumentakis and Associates Law Firm

     

    ΣΑΣ ΑΡΕΣΕ ΤΟ ΑΡΘΡΟ;

    ΣΧΕΤΙΚΑ ΑΡΘΡΑ