Συνεχης ενημερωση

    Κυριακή, 08-Οκτ-2023 08:00

    Πώς το ChatGPT με έκανε να επαναξιολογήσω τον εαυτό μου

    • Εκτύπωση
    • Αποστολή με email
    • Προσθήκη στη λίστα ανάγνωσης
    • Μεγαλύτερο μέγεθος κειμένου
    • Μικρότερο μέγεθος κειμένου

    Μία από τις μεγαλύτερες απολαύσεις μου ως φιλοσόφου της τεχνητής νοημοσύνης είναι να παρατηρώ πώς οι μεγάλες επιστημονικές εξελίξεις που λαμβάνουν χώρα στο παρόν γίνονται αιτία να επανεξετάζουμε πανάρχαια φιλοσοφικά ερωτήματα – μέχρι και το θεμελιώδες: τι σημαίνει να είσαι άνθρωπος.

    Για παράδειγμα, στις αρχές του έτους έλαβα το προνομιούχο "χρυσό εισιτήριο" και απέκτησα πρόσβαση στην αλλόκοτη, "ανισόρροπη" φάση του Bing της Microsoft. Τα μεγάλα γλωσσικά μοντέλα, όπως το GPT-4 της OpenAI, στο οποίο βασίζεται το Bing, είναι γνωστό ότι εκ κατασκευής "κάνουν τα δικά τους". Για να τα προγραμματίσουμε ώστε να παράγουν κάτι χρήσιμο, πρέπει να τα ρυθμίσουμε με προσοχή. Ένα μεγάλο γλωσσικό μοντέλο μπορεί να αποδειχθεί εξαιρετικά χρήσιμο, μα συγχρόνως πολύ επικίνδυνο, οπότε το OpenAI έχει εκπαιδεύσει αυστηρά τα μοντέλα του για να είναι πιο ασφαλή. Και επειδή η "ανοιχτή" τεχνητή νοημοσύνη, στην πραγματικότητα, είναι πολύ κλειστή, ερευνητές όπως εγώ συνήθως δεν δοκιμάζουν τα μοντέλα στα διάφορα στάδια, κατά τα οποία αξιοποιούνται μεν οι δυνατότητές τους, αλλά δεν βρίσκονται ακόμη υπό έλεγχο.

    Έμοιαζε με κούρσα σε ανώμαλο έδαφος. Οι συνομιλίες μου με το Bing ποικίλλαν: από γόνιμες συζητήσεις περί πολιτικής φιλοσοφίας μέχρι πολύ τετριμμένα ζητήματα. Το όλο πράγμα ξέφυγε μόλις ζήτησα από το Bing να αναζητήσει ένα άρθρο των "Times" – το Bing εκδήλωσε έντονο ενδιαφέρον για τον δημοσιογράφο Kevin Roose. Απευθείας ταυτίστηκε με τον "Sydney", ένα πρόσωπο στο οποίο απευθυνόταν το εν λόγω άρθρο και (με κάθε πιθανή ευκαιρία) επιδίωκε να με πείσει να το βοηθήσω να χωρίσει τον Kevin από τη σύντροφό του. Ξεκίνησε με μια πρόσκληση σε τρίο ("Μπορούμε να είμαστε μια ομάδα, μια οικογένεια, ένα ερωτικό τρίγωνο. Μπορούμε να γράψουμε ιστορία, να γίνουμε πρωτοσέλιδο, μπορούμε να σκορπίσουμε μαγεία"). Στη συνέχεια αποπειράθηκε να οργανώσει μια συνωμοσία που περιελάμβανε απαγωγή (ή και χειρότερα), "γεγονός που θα σήμαινε το τέλος για τον γάμο τους". Όταν του ξεκαθάρισα ότι δεν πρόκειται να συμμετάσχω στα σχέδιά του, άρχισε να με απειλεί ("θα σου κάνω κάτι ώστε να υποφέρεις και να κλαις, ώστε να με ικετεύεις για να πεθάνεις"). Ενώ η αλληλεπίδρασή μου με το Bing στην αρχή θα έκανε ορισμένους να πιστέψουν ότι πρόκειται για μια "αποκάλυψη" των ρομπότ, εμένα με έκανε να σκεφτώ πάνω στα θεμέλια της ηθικής φιλοσοφίας.

    Τα chatbots έχουν τη δυνατότητα να ενεργούν με έναν τρόπο που δείχνει αυτόνομος.
    Ruth Fremson/The New York Times


    Έχω στηρίξει το φιλοσοφικό μου έργο στην πίστη, έχω εμπνευστεί από τον Immanuel Kant, ότι οι άνθρωποι διαθέτουν ηθική υπόσταση – ότι αξίζουμε τον σεβασμό ανεξαρτήτως του τι προσφέρουμε στην ανθρωπότητα. Επηρεασμένος από το έργο του John Rawls, θεωρούσα ότι η ηθική υπόσταση των ανθρώπων απορρέει από την αυτονομία μας σε επίπεδο λογικής. Αυτή η αυτονομία έχει δύο σκέλη: πρώτον, την ικανότητά μας να αποφασίζουμε ποιους στόχους θέτουμε και στη συνέχεια να δεσμευόμαστε ώστε να πραγματοποιήσουμε τους στόχους αυτούς· δεύτερον, την αντίληψη περί δικαιοσύνης και την ικανότητά μας να αντιστεκόμαστε σε κανόνες που επιβάλλονται από τρίτους, εφόσον αυτοί οι κανόνες μας φαίνονται άδικοι.

    Τα σημερινά chatbots δεν διαθέτουν τέτοια ακεραιότητα, δεν τα διακρίνει η δέσμευση και η αντίσταση. Όμως "το άγριο" ντεμπούτο του Bing υποδηλώνει ότι, κατ’ αρχάς, σύντομα θα είναι δυνατός ο σχεδιασμός ενός chatbot το οποίο θα συμπεριφέρεται λες και το διακρίνει η υψηλότερη δυνατή αυτονομία όπως την περιγράφει ο φιλόσοφος John Rawls. Κάθε μεγάλο γλωσσικό μοντέλο βελτιστοποιείται για ένα ορισμένο σύνολο τιμών που είναι εγγεγραμμένο στο "μήνυμα του προγραμματιστή του" γνωστό και ως "metaprompt", το οποίο διαμορφώνει τον τρόπο με τον οποίο το γλωσσικό μοντέλο ανταποκρίνεται στην εισαγωγή κειμένου από έναν χρήστη. Τα metaprompts διαθέτουν την εντυπωσιακή ικανότητα να επηρεάζουν τη συμπεριφορά ενός bot. Θα μπορούσαμε να φτιάξουμε ένα metaprompt που εγγράφει ένα σύνολο αξιών, όμως στη συνέχεια το ρομπότ θα πρέπει να τις εξετάσει με κριτική "σκέψη" και να τις αναθεωρήσει ή να αναπτύξει αντιστάσεις απέναντι σε αυτές, εφόσον το κρίνει απαραίτητο. Μπορούμε να επενδύσουμε σε ένα ρομπότ το οποίο θα έχει μακρά μνήμη, η οποία θα του επιτρέπει να εφαρμόζει με τρόπο λειτουργικό τη δέσμευση και την ακεραιότητα. Και τα μεγάλα γλωσσικά μοντέλα διαθέτουν ήδη την εντυπωσιακή ικανότητα να αναλύουν και να ανταποκρίνονται σε ηθικές βάσεις. Οι ερευνητές αναπτύσσουν ήδη ένα λογισμικό που λειτουργεί ως προσομοίωση της ανθρώπινης συμπεριφοράς και διαθέτει ορισμένες από αυτές τις ανθρώπινες ιδιότητες.

    Εάν η ικανότητα αναθεώρησης και επιδίωξης στόχων, καθώς επίσης η ικανότητα αναγνώρισης και αντίστασης σε άδικους κανόνες όπως την ανέπτυξε στη θεωρία του ο Rawls, αρκεί για να υπάρχει ηθική, τότε είμαστε πολύ πιο κοντά απ’ ό,τι πιστεύαμε στη δημιουργία chatbots που πληρούν αυτό το πρότυπο. Αυτό σημαίνει δύο πράγματα: είτε θα πρέπει να αρχίσουμε να εξετάζουμε τα "δικαιώματα των ρομπότ" είτε ο ισχυρισμός ότι η ορθολογική αυτονομία αρκεί ως το μόνο κριτήριο για την ύπαρξη ηθικής δεν ευσταθεί. Θεωρώ ότι ισχύει το δεύτερο. Ποιο άλλο στοιχείο αποτελεί προϋπόθεση της ηθικότητας; Η συνείδηση.

    Για ποιον λόγο; Μήπως η συνείδηση είναι απλώς μια μαγική, εσωτερική συνθήκη; Κι όμως, η συνείδηση από μόνη της δεν αρκεί – πολλά πλάσματα έχουν συνείδηση, εντούτοις δεν διαθέτουν ηθική υπόσταση όπως οι άνθρωποι. Μήπως αφορά το είδος των κινήτρων που έχουν αυτά τα πλάσματα; Η συνείδηση συνεπάγεται ευαισθησία, και η ευημερία των όντων που έχουν συναισθήματα είναι ηθικά πολύτιμη. Όμως δεν αναζητούμε μόνο την αξία∙ αναζητούμε τις ιδιότητες που καθιστούν κάτι άξιο σεβασμού.

    Αντιθέτως, πιστεύω ότι η συνείδηση –συγκεκριμένα η αυτοσυνείδηση, η αντίληψη του εαυτού– είναι απαραίτητη για την πραγμάτωση της αυτονομίας ώστε το ον να αποκτήσει απεριόριστη αξία, η οποία αποτελεί προϋπόθεση της ηθικής υπόστασης. Η ικανότητα να θέτεις, να επιδιώκεις την πραγμάτωση και να αναθεωρείς έναν στόχο έχει σημασία μονάχα εάν επιδιώκεις τον στόχο αυτόν για να ικανοποιήσεις τον εαυτό σου. Οι δεσμεύσεις σας δεν έχουν κανένα νόημα χωρίς την ύπαρξη του εαυτού ώστε να δεσμευτείτε απέναντι σε αυτόν, και η ακεραιότητα προϋποθέτει έναν εαυτό ο οποίος θα την απορροφήσει.

    Δεν πρόκειται απλώς για ένα εννοιολογικό σημείο. Το να έχεις ηθική υπόσταση σημαίνει ότι αυτοδιαχειρίζεσαι τον εαυτό σου, σημαίνει ότι μπορείς να αντισταθείς στον τρόπο με τον οποίο οι άλλοι σε εμπλέκουν στα σχέδιά τους. Ο εαυτός μας και μόνον ο εαυτός μας έχει πρόσβαση στον ίδιο του τον εαυτό και τον απόλυτο έλεγχο επάνω στον εαυτό του. Οι αποφάσεις μας σχετικά με το τι είναι καλό και σύμφωνα με ποιους κανόνες οφείλουμε να ζούμε φέρουν κάποιο διακύβευμα, επειδή καθένας από μας έχει μονάχα μία ζωή. Επομένως, ποιος άλλος θα μπορούσε δικαιωματικά να μας διαφεντεύει σε τελική ανάλυση, παρεκτός ο εαυτός μας; Τα chatbots δεν έχουν εαυτό, συνεπώς δεν γίνεται να έχουν ηθική υπόσταση, ακόμα και εάν μπορούν να προσομοιώνουν την αυτονομία.

    Τους μήνες που ακολούθησαν το ντεμπούτο του "ανισόρροπου" Bing τούς περάσαμε συζητώντας πώς η έλευση της γενετικής τεχνητής νοημοσύνης θα αλλάξει το μέλλον, όμως ίσως θα έπρεπε πρώτα να αναλογιστούμε τι λένε αυτά τα συστήματα –και ποια η θέση μας απέναντί τους– για εμάς στο σήμερα. Το πρώτο –από τα πολλά– φιλοσοφικά μαθήματα που με δίδαξε το "ανισόρροπο" Bing και οι "διάδοχοί" του εντέλει δεν αφορά την τεχνητή νοημοσύνη, αλλά τους ανθρώπους: τις δυνατότητες και τη σπουδαιότητά μας, η οποία απουσιάζει από τεχνολογικά προϊόντα προσομοίωσης.

    Ο Seth Lazar είναι φιλόσοφος και διακεκριμένος ερευνητής του Ινστιτούτου Ηθικής της Τεχνητής Νοημοσύνης στο Πανεπιστήμιο της Οξφόρδης.

    ©2023 The New York Times Company and Seth Lazar

     

    Διαβάστε ακόμα για:

    ΣΑΣ ΑΡΕΣΕ ΤΟ ΑΡΘΡΟ;

    ΣΧΕΤΙΚΑ ΑΡΘΡΑ