Συνεχης ενημερωση

    Παρασκευή, 24-Ιαν-2020 00:04

    Τεχνητή νοημοσύνη: Η τριπλή επανάσταση

    • Εκτύπωση
    • Αποθήκευση
    • Αποστολή με email
    • Προσθήκη στη λίστα ανάγνωσης
    • Μεγαλύτερο μέγεθος κειμένου
    • Μικρότερο μέγεθος κειμένου

    Του Patrice Caine

    Τα τελευταία χρόνια, μια τριπλή επανάσταση  στην οποία η Τεχνητή Νοημοσύνη διαδραματίζει βασικό ρόλο έχει οδηγήσει στην ολοένα και ταχύτερη ανάπτυξη των τεχνολογιών των δεδομένων.

    Η πρώτη επαναστατική εξέλιξη αφορά στον τρόπο με τον οποίο "μαθαίνει" η τεχνητή νοημοσύνη. Μέσα σε διάστημα μερικών μηνών αποδείχθηκε ότι τα συνελικτικά νευρωνικά δίκτυα και τα βαθιά νευρωνικά δίκτυα – αλγοριθμικά κατασκευάσματα που χρησιμοποιούνται  στον τομέα της υπολογιστικής νοημοσύνης – θα μπορούσαν να μειώσουν δραστικά τα σφάλματα στην αναγνώριση φωνής ή αντικειμένων. Διοργανώσεις όπως ο ετήσιος διαγωνισμός λογισμικού ImageNet Large Scale Visual Recognition Challenge είχαν ουσιαστική συμβολή στο να καταλήξουμε σε τέτοια συμπεράσματα.

    Ακολούθησε η "επανάσταση" του όγκου των δεδομένων, η οποία οφείλεται κυρίως στην τεράστια αύξηση των μέσων κοινωνικής δικτύωσης (2 δισεκατομμύρια εικόνες δημοσιεύονται στο Instagram και στο Facebook καθημερινά) και στην ικανότητά τους να "εκπαιδεύουν" αυτούς τους αλγορίθμους που σχετίζονται με τη "μάθηση" της τεχνητής νοημοσύνης. 

    Τέλος, μια τρίτη "επανάσταση", αυτή τη φορά σε σχέση με την υπολογιστική ισχύ, επέτρεψε - σχεδόν -στον καθένα μας να μπορεί να διαχειρίζεται μεγάλους όγκους δεδομένων, χάρη σε επεξεργαστές που εκτελούν ένα τρισεκατομμύριο υπολογισμούς ανά δευτερόλεπτο, με κόστος λιγότερο από 1.000 ευρώ ανά επεξεργαστή.

    Σήμερα οι εξελίξεις προχωρούν με τόσο γοργούς ρυθμούς, που ακόμα και η ίδια μας η αντίληψη για την τεχνητή νοημοσύνη άλλαξε σε χρόνο ρεκόρ. Από πολλές απόψεις, η μάθηση μέσω δεδομένων έχει καταστεί συνώνυμη με τη νοημοσύνη. Η βαθιά εκμάθηση (deep learning) ή η τεχνητή νοημοσύνη (ΑΙ) βασισμένη στα Big Data, φαίνεται ότι έχουν "ισοπεδώσει" τα συλλογιστικά και συμβολικά μοντέλα.

    Ο συνδυασμός μάθησης, νευρωνικών δικτύων και ελαχιστοποίησης σφαλμάτων σημαίνει, λοιπόν, ότι η υπόθεση "τεχνητή νοημοσύνη" έχει κλείσει; Μάλλον όχι, επειδή οι τρεις μεγάλες προκλήσεις παραμένουν. Η ικανότητα αντιμετώπισης αυτών των προκλήσεων είναι κομβικής σημασίας για κάθε εταιρεία τεχνολογίας σήμερα, ιδιαίτερα όταν αυτή χρησιμοποιεί την τεχνητή νοημοσύνη σε εφαρμογές που συνδέονται με την φυσική και ψηφιακή ασφάλεια των πολιτών και των κρατών, την άμυνα και άλλους κρίσιμους τομείς.

    Η πρώτη πρόκληση είναι η λιτή μάθηση (frugal learning) και η σχέση μας με την παρούσα υπερπληθώρα δεδομένων. Οι πρόσφατες εξελίξεις στον τομέα της τεχνητής νοημοσύνης πρέπει να προσαρμοστούν σε περιβάλλοντα όπου δεν είναι πάντοτε δυνατό να συγκεντρωθεί ένας τεράστιος όγκος δεδομένων. Με άλλα λόγια, πρέπει να αναπτύξουμε μεθόδους λιτής μάθησης που μπορούν να παράγουν αποτελέσματα ακόμη και από μια σχετικά μικρή ποσότητα δεδομένων ή από σύνθεση δεδομένων.

    "Οι απαιτήσεις του ψηφιακού κόσμου σε ηλεκτρική ενέργεια αναμένεται να υπερβούν την παγκόσμια παραγωγή ενέργειας μέχρι το 2040"

    Η δεύτερη πρόκληση είναι να αναπτυχθούν νέες τεχνολογίες που να μπορούν να είναι βιώσιμες σε έναν κόσμο που ταλανίζεται από περιβαλλοντικά προβλήματα. Σε παγκόσμιο επίπεδο, ο ψηφιακός κόσμος με τα 40 zettabytes δεδομένων – δηλαδή 40 και 21 μηδενικά! – καταναλώνει ήδη σχεδόν το 10% της παγκόσμιας ηλεκτρικής ενέργειας και οι ανάγκες του σε ενέργεια αναμένεται να υπερβούν την παγκόσμια παραγωγή ενέργειας μέχρι το 2040! 

    Ακόμη και αν οι bitcoin miners φέρεται να είναι αυτοί που καταναλώνουν το μεγαλύτερο μέρος της ενέργειας, όσοι εργάζονται στον τομέα ανάπτυξης της τεχνητής νοημοσύνης βασισμένης σε δεδομένα, έχουν το καθήκον να καινοτομούν για να μειώσουν την κατανάλωση ενέργειας. Απλούστερα μοντέλα με χαμηλότερες ενεργειακές απαιτήσεις αποτελούν, βεβαίως, μια πρώτη λύση για τη δημιουργία, αποθήκευση και επεξεργασία λιγότερων δεδομένων.

    Μια τέτοια προσέγγιση ουσιαστικά μοιάζει με τον ανθρώπινο πειραματισμό: Δεν χρειάζεται να βγούμε από το δρόμο 10.000 φορές για να καταλάβουμε γιατί είναι σημαντικό να επιβραδύνουμε σε μια στροφή. 

    Έτσι, για παράδειγμα, έχουμε αναπτύξει ένα υποβοηθούμενο από τεχνητή νοημοσύνη σύστημα αναγνώρισης εικόνας για στρατιωτικά αεροσκάφη. Λόγω των περιορισμών του συγκεκριμένου περιβάλλοντος, χρειάστηκε να κάνουμε τροποποιήσεις στην τεχνολογία προκειμένου να μειώσουμε δραστικά την κατανάλωση ενέργειας.

    Εξετάζουμε επίσης μια δεύτερη, δυνητικά επαναστατική λύση που αφορά στον επανασχεδιασμό του ίδιου του hardware, ώστε να προσαρμοστεί στις νέες εξελίξεις στον κόσμο των αλγορίθμων. Με απλά λόγια, επιδιώκουμε την αύξηση της χωρητικότητας αποθήκευσης και επεξεργασίας του hardware, μειώνοντας σημαντικά τις ενεργειακές της ανάγκες.

    Τα περισσότερα από τα ηλεκτρονικά εξαρτήματα που χρησιμοποιούμε σήμερα δεν σχεδιάστηκαν για να τρέξουν τους ενεργειακά απαιτητικούς αλγόριθμους που χρησιμοποιούνται από τα νευρωνικά δίκτυα. Οι μονάδες επεξεργασίας – είτε για τυποποιημένους υπολογιστές είτε για συγκεκριμένες εφαρμογές –είναι πολύ πιο ισχυρές και χρησιμοποιούνται ευρέως για εφαρμογές μηχανικής μάθησης. Παρόλα αυτά, η ηλεκτρονική αρχιτεκτονική παραμένει η ίδια. 

    Οι λειτουργίες επεξεργασίας εξακολουθούν να είναι ξεχωριστές από τις λειτουργίες μνήμης, με αποτέλεσμα να υπάρχει απώλεια ενέργειας. Η απώλεια ενέργειας, μάλιστα, πρόκειται να αυξηθεί καθώς τα συστήματα που γνωρίζουμε σήμερα, με τα εκατομμύρια των τεχνητών νευρώνων, εξελίσσονται διαρκώς και προσεγγίζουν όλο και περισσότερο τα 100 δισεκατομμύρια νευρώνων που υπάρχουν στον ανθρώπινο εγκέφαλο! 

    Αυτή η συνειδητοποίηση οδήγησε στην ιδέα της ανάπτυξης ενός τεχνητού νανο-νευρώνα που προσομοιάζει τη λειτουργία του ανθρώπινου εγκεφάλου, όντας παράλληλα 10.000 φορές αποδοτικότερος ενεργειακά.

    Πρόκειται για μια ιδέα που βασίζεται στο πρωτοποριακό έργο του βραβευμένου με Νόμπελ Albert Fert στον τομέα της σπιντρονικής (μιας τεχνικής που χρησιμοποιεί την ιδιότητα κβαντικής περιστροφής του ηλεκτρονίου για την αποθήκευση πληροφοριών). 

    Χρησιμοποιώντας την κβαντική περιστροφή του ηλεκτρονίου – μια ιδιότητα ανάλογη με το μαγνητισμό – η ερευνητική ομάδα συνενώνει την αποθήκευση και την επεξεργασία δεδομένων, με τη χρήση ηλεκτρικού ρεύματος αντί μαγνητικού πεδίου. 

    Ο νευρωνικός υπολογιστής του μέλλοντος θα διαθέτει στο hardware την ιδανική αρχιτεκτονική για την εκτέλεση αλγορίθμων νευρωνικών δικτύων, αφού θα έχει νανο-νευρώνες διασυνδεδεμένους με τεχνητές συνάψεις που λειτουργούν με ηλεκτρικό ρεύμα - ακριβώς όπως ο ανθρώπινος εγκέφαλος! 

    Αναπτύσσουμε αλγόριθμους που χρησιμοποιούν λιγότερα δεδομένα και εφεύρουμε νανο-νευρώνες που είναι ενεργειακά πιο αποδοτικοί, αλλά η τελική πρόκληση στην οποία πρέπει να απαντήσει η τεχνητή νοημοσύνη είναι ανταποκρίνεται στον πραγματικό κόσμο και να συμμορφώνεται με τους κανόνες του. 

    Η τεχνητή νοημοσύνη που βασίζεται στα δεδομένα επικεντρώνεται στα αποτελέσματα και δημιουργεί λογικά σχήματα και συμβολικά μοντέλα ώστε το περιθώριο σφάλματος να είναι όσο το δυνατόν μικρότερο. Παρόλα αυτά η διαδικασία λήψης αποφάσεων είναι ένα "μαύρο κουτί": Και τι συμβαίνει όταν δεν υπάρχει κανένα περιθώριο λάθους; 

    Άλλο είναι ένα σύστημα αναγνώρισης εικόνων γενικού σκοπού να μπερδεύει μια γάτα με ένα σκύλο ή ένας χρήστης να διαφωνεί με τις προτεινόμενες ταινίες μιας πλατφόρμας streaming, και πολύ πιο σοβαρό είναι όταν ένα σφάλμα θέτει σε κίνδυνο μια ανθρώπινη ζωή. Για κάθε κρίσιμο σύστημα άμυνας ή αεροδιαστημικής, για παράδειγμα, η αξιοπιστία θα είναι πάντοτε πρωταρχικής σημασίας.

    Έτσι, προκύπτει η επιτακτική ανάγκη για μια προσέγγιση της τεχνητής νοημοσύνης που είναι διαφανής (πληροί τις προδιαγραφές και ακολουθεί σαφείς κανόνες), κατανοητή (μπορεί να εξηγήσει γιατί παίρνεται και υλοποιείται μια απόφαση σε μια γλώσσα κατανοητή για τον άνθρωπο) και ηθική (συμμορφώνεται με τα νομικά και ηθικά πλαίσια). Για να τεθούν σε πρακτική εφαρμογή αυτές οι αρχές, θα πρέπει αναμφισβήτητα να διερευνηθούν και άλλα είδη τεχνητής νοημοσύνης, όπως αυτά που βασίζονται σε συμβολικές και λογικές αναπαραστάσεις. Ωστόσο, δεν πρέπει να υπονομεύονται οι σημαντικές προσπάθειες που καταβάλλονται στην προηγμένη έρευνα πάνω στη βασιζόμενη σε δεδομένα τεχνητή νοημοσύνη που εφαρμόζεται στα νευρωνικά δίκτυα.

    Πρωτοπόροι αυτής της επανάστασης στον τομέα της τεχνητής νοημοσύνης είναι οι κολοσσοί της Silicon Valley και η ευρύτερη αγορά τεχνολογίας, αφού ήταν αυτοί που ανέπτυξαν αλγόριθμους μηχανικής μάθησης (machine learning) που στοχεύουν στο ευρύ κοινό. Η άποψή μου σήμερα είναι ότι το μέλλον της τεχνητής νοημοσύνης εξαρτάται από την ικανότητα της γνώσης και της λογικής να εξηγούν τον κόσμο, ενδυναμώνοντας τις ουσιαστικές αλληλεπιδράσεις μεταξύ ανθρώπων και μηχανών. 

    * Ο κ. Patrice Caine είναι Πρόεδρος και CEO της Thales

    ΣΑΣ ΑΡΕΣΕ ΤΟ ΑΡΘΡΟ;

    ΣΧΕΤΙΚΑ ΑΡΘΡΑ

    Δειτε τα πρωτοσελιδα ολων των εφημεριδων