Συνεχης ενημερωση

    Δευτέρα, 05-Φεβ-2018 00:16

    Κι αν τα αυτοοδηγούμενα οχήματα δεν μπορούν να δουν τα "STOP";

    • Εκτύπωση
    • Αποθήκευση
    • Αποστολή με email
    • Προσθήκη στη λίστα ανάγνωσης
    • Μεγαλύτερο μέγεθος κειμένου
    • Μικρότερο μέγεθος κειμένου

    Του Mark Bucharian

    Παρά την εντυπωσιακή πρόοδό της στην προσομοίωση των ανθρώπινων ενεργειών, η τεχνητή νοημοσύνη έχει ένα ντροπιαστικό μυστικό: Είναι εκπληκτικά εύκολο να την ξεγελάσεις. Αυτό θα μπορούσε να αποτελέσει μεγάλο πρόβλημα, καθώς αναλαμβάνει ολοένα μεγαλύτερη ευθύνη για τις ζωές και τα μέσα διαβίωσης των ανθρώπων.

    Χάρη στην πρόοδο που έχει σημειωθεί στα νευρωνικά δίκτυα και τη "βαθιά εκμάθηση", οι αλγόριθμοι υπολογιστών μπορούν τώρα να νικήσουν τους καλύτερους παίκτες σε παιχνίδια όπως το Go, ή να αναγνωρίσουν ζώα και αντικείμενα από φωτογραφίες. Στο εγγύς μέλλον, είναι πιθανό να αναλαμβάνουν κάθε είδους ανθρώπινο καθήκον, από το να οδηγούν για να μεταφέρουν τους ανθρώπους στις δουλειές τους έως το να διαχειρίζονται επενδύσεις. Όντας λιγότερο επιρρεπείς από τους ανθρώπους σε σφάλματα, ενδέχεται να χειρίζονται επίσης ευαίσθητα καθήκοντα όπως ο έλεγχος της εναέριας κυκλοφορίας ή η σάρωση αποσκευών για εκρηκτικές ύλες.

    Αλλά τα τελευταία χρόνια, οι επιστήμονες υπολογιστών έχουν βρεθεί αντιμέτωποι με ορισμένες ανησυχητικές αδυναμίες. Οι λεπτές αλλαγές σε μια εικόνα, τόσο ασήμαντες, που δεν γίνονται αντιληπτές από το ανθρώπινο μάτι, μπορούν να κάνουν έναν αλγόριθμο να δει κάτι που δεν υπάρχει. Ο αλγόριθμος μπορεί να αντιληφθεί τα πολυβόλα που βρίσκονται πάνω σε ένα τραπέζι σαν ελικόπτερο ή μια γάτα Tάμπι ως γουακαμόλε. Αρχικά, οι ερευνητές χρειάστηκε να εξοικειωθούν στενά με έναν αλγόριθμο για να κατασκευάσουν τέτοια "αντιφατικά παραδείγματα". Τελευταία, ωστόσο, κατάλαβαν πώς να το κάνουν χωρίς εσωτερική γνώση.

    Οι αλγόριθμοι αναγνώρισης ομιλίας έχουν παρόμοια αδυναμία. Στην ιστοσελίδα του, ο επιστήμονας υπολογιστών Nicholas Carlini παραθέτει μερικά ανησυχητικά παραδείγματα: Μια μικρή παραμόρφωση ενός ηχητικού δείγματος τεσσάρων δευτερολέπτων του Ρέκβιεμ του Βέρντι αποπροσανατολίζει το σύστημα αναγνώρισης ομιλίας της Google ώστε να το μεταγράψει ως "Εντάξει Google, περιηγήσου στο Evil.com". Το ανθρώπινο αυτί δεν αντιλαμβάνεται καν τη διαφορά. Με την ελαφριά προσαρμογή του ήχου, λέει ο Carlini, είναι εύκολο να κάνεις την Google να μεταγράψει μια κάπως προφορική γλώσσα ως ο,τιδήποτε του αρέσει, ανεξάρτητα από το πόσο φαινομενικά διαφορετικό είναι.

    Δεν είναι δύσκολο να φανταστεί κανείς πώς τέτοιου είδους κόλπα θα μπορούσαν να χρησιμοποιηθούν για δόλιους σκοπούς. Οι κάμερες παρακολούθησης θα μπορούσαν να ξεγελαστούν και να αναγνωρίσουν το λάθος άτομο - πράγματι, οποιοδήποτε επιθυμητό πρόσωπο - ως εγκληματία. Οι δυσδιάκριτες αλλαγές σε ένα σήμα "stop" θα μπορούσαν να κάνουν τους υπολογιστές σε ένα αυτό-οδηγούμενο αυτοκίνητο να το διαβάσουν ως "όριο ταχύτητας 80". Μια φαινομενικά ακίνδυνη μουσική θα μπορούσε να εισβάλλει σε κοντινά τηλέφωνα και να παραδίδει εντολές για την αποστολή κειμένων ή μηνυμάτων ηλεκτρονικού ταχυδρομείου που περιέχουν ευαίσθητες πληροφορίες.

    Δεν υπάρχει εύκολη λύση. Οι ερευνητές δεν έχουν ακόμη επινοήσει μια επιτυχημένη αμυντική στρατηγική. Ακόμη και ο μικρότερος στόχος του να βοηθούνται οι αλγόριθμοι να εντοπίζουν τα αντιφατικά παραδείγματα έχει αποδειχθεί ασαφής. Πρόσφατα, ο Carlini και ο David Wagner, και οι δύο στο Πανεπιστήμιο Μπέρκλεϋ, δοκίμασαν 10 προγράμματα ανίχνευσης που προτάθηκαν κατά το παρελθόν έτος και διαπίστωσαν ότι όλα μπορούσαν να παρακαμφθούν. Στην τρέχουσα μορφή της, η τεχνητή νοημοσύνη δείχνει απίστευτα εύθραυστη.

    Μέχρις ότου να βρεθεί λύση, οι άνθρωποι θα πρέπει να είναι πολύ προσεκτικοί στη μεταφορά εξουσίας και ευθυνών σε έξυπνες μηχανές. Σε μια συνέντευξή του, ο Carlini σημείωσε ότι η περαιτέρω έρευνα θα μπορούσε να μας βοηθήσει να μάθουμε πού, πότε και πώς μπορούμε να αναπτύξουμε τους αλγόριθμους με ασφάλεια και επίσης να μας δείξει ποια άλλα εργαλεία άνευ τεχνητής νοημοσύνης μπορούν να μας χρησιμεύσουν ώστε να διατηρηθεί η ασφάλεια. Τα αυτό-οδηγούμενα οχήματα μπορεί να χρειαστούν περιορισμούς που θα επιβάλλονται από άλλους αισθητήρες και που θα μπορούσαν, για παράδειγμα, να τα εμποδίζουν να τρακάρουν με ένα αντικείμενο, ανεξάρτητα από το τι πιστεύει η ενσωματωμένη κάμερα ότι βλέπει.

    Τα καλά νέα είναι ότι οι επιστήμονες έχουν εντοπίσει τον κίνδυνο εγκαίρως, προτού οι άνθρωποι αρχίσουν να βασίζονται πολύ στην τεχνητή νοημοσύνη. Αν οι μηχανικοί δώσουν προσοχή, θα μπορέσουμε τουλάχιστον να εμποδίσουμε την τεχνολογία να κάνει εντελώς τρελά πράγματα.

     

    ΣΑΣ ΑΡΕΣΕ ΤΟ ΑΡΘΡΟ;

    ΣΧΕΤΙΚΑ ΑΡΘΡΑ