Τετάρτη, 24-Μαϊ-2023 00:05
Μια έκρηξη κοντά στο Πεντάγωνο "έριξε" τη Wall Street - μόνο που δεν συνέβη

Της Parmy Olson
Μια ψεύτικη φωτογραφία μιας έκρηξης κοντά στο Πεντάγωνο στις ΗΠΑ έγινε viral στο Twitter τη Δευτέρα και οι μετοχές βυθίστηκαν. Το περιστατικό επιβεβαίωσε εκείνο το οποίο πολλοί έχουν επισημάνει εδώ και μήνες: η παραπληροφόρηση πρόκειται να ενισχυθεί, καθώς τα νέα εργαλεία τεχνητής νοημοσύνης για τη δημιουργία φωτογραφιών γίνονται πιο εύχρηστα.
Η επίλυση αυτού του προβλήματος με την τεχνολογία θα είναι ένα ατέλειωτο "παιχνίδι" εξόδου από λαβύρινθο. Αξίζει βεβαίως να προσπαθεί κανείς να παρακολουθήσει την προέλευση έκαστης εικόνας, όπως κάνει η Adobe, με το Content Authenticity Initiative. Όπως όμως λέει και η παροιμία, "ένα ψέμα μπορεί να ταξιδέψει σε όλο τον κόσμο και να επιστρέψει πίσω, ενώ η αλήθεια θα δένει ακόμη τα κορδόνια της". Σε έναν κόσμο όπου περισσότερο περιεχόμενο από ποτέ παράγεται τεχνητά, θα πρέπει όλοι να γίνουμε πιο δύσπιστοι για το τι βλέπουμε στο Διαδίκτυο - ειδικά ενόψει των προεδρικών εκλογών του 2024 στις ΗΠΑ.
Η ιστορία με τη "φωτογραφία" του Πενταγώνου έγινε ιδιαίτερα περίπλοκη λόγω του τραγικού συστήματος επαλήθευσης του Twitter. Ο Έλον Μασκ ανανέωσε τα μπλε τικ του ιστότοπου, έτσι ώστε να μην μονοπωλούνται πλέον από τις "ελίτ" όπως ο Τύπος και οι διασημότητες - κι έτσι περισσότεροι άνθρωποι θα μπορούσαν να λάβουν το σήμα επαλήθευσης και να έχουν πιο δυνατή φωνή έναντι ενός σταθερού ποσού. Δυστυχώς, το σύστημά του έχει γίνει στόχος ανθρώπων οι οποίοι μιμούνται άλλους, όπως ο "επιβεβαιωμένος" λογαριασμός BloombergFeed, ο οποίος ήταν ένας από τους πολλούς "επαληθευμένους" λογαριασμούς οι οποίοι δημοσίευσαν τη φωτογραφία του Πενταγώνου πριν τεθεί σε αναστολή τη Δευτέρα το πρωί.
Το Bloomberg Feed και ένας λογαριασμός στο Twitter που ονομάζεται Walter Bloomberg, ο οποίος αναπαρήγαγε επίσης το "ρεπορτάζ", δεν συνδέονται με το Bloomberg News, σύμφωνα με εκπρόσωπο του πρακτορείου.
Αν και το Twitter έχει δημιουργήσει ένα τέλειο περιβάλλον για την άνθηση των ψεύτικων φωτογραφιών τεχνητής νοημοσύνης (AI), το πρόβλημα τελικά ξεπερνά την πλατφόρμα. Η φωτογραφία του Πενταγώνου προήλθε από το Facebook και μπορούμε να περιμένουμε περισσότερες φωτογραφίες όπως αυτή να κυκλοφορούν και σε άλλα κοινωνικά δίκτυα, όπως το WhatsApp, όπου ψεύτικες πληροφορίες για τις εκλογές στη Βραζιλία πέρυσι έγιναν viral μέσω της δυνατότητας μαζικής προώθησης την οποία διαθέτει η εφαρμογή.
Το TikTok θα μπορούσε επίσης να γίνει πιο ευάλωτο σε ψεύτικα βίντεο αρκετά σύντομα. Τα πρώτα παραδείγματα βίντεο τα οποία δημιουργήθηκαν από εργαλεία τεχνητής νοημοσύνης εξακολουθούν να φαίνονται αφύσικα, ωστόσο είναι πιθανό να γίνουν πιο ρεαλιστικά μέσα στα επόμενα ένα ή δύο χρόνια, με εκατομμύρια δολάρια επενδύσεων από venture capitals (VC) σε νεοφυείς επιχειρήσεις που χτίζουν τεχνολογία deepfake (φυσικά για νόμιμους σκοπούς).
Για παράδειγμα, η νεοϋορκέζικη startup Runway μόλις κυκλοφόρησε ένα εργαλείο το οποίο επιτρέπει σε οποιονδήποτε να μετατρέψει ένα βίντεο σε άλλο τύπο βίντεο χρησιμοποιώντας λέξεις και εικόνες ως προτροπές, ενώ η Gan.ai με έδρα το Σαν Φρανσίσκο συγκέντρωσε χρήματα από διακεκριμένους VC όπως η Sequoia Capital προκειμένου να πωλεί τεχνολογία "εξατομίκευσης βίντεο" σε διάφορα brands.
Ενώ τα ρεαλιστικά ψεύτικα βίντεο μπορεί να είναι ακόμη ένα ή δύο χρόνια μακριά, η δημιουργία εικόνων γίνεται ευκολότερη από ποτέ. Η Adobe μόλις ενημέρωσε το λογισμικό Photoshop της με εργαλεία δημιουργίας τεχνητής νοημοσύνης, τα οποία επιτρέπουν στους απανταχού χρήστες του λογισμικού επεξεργασίας εικόνων να χειρίζονται τις φωτογραφίες με πολύ πιο δραστικούς τρόπους. Και υπάρχουν αρκετά καλά εργαλεία δημιουργίας εικόνας διαθέσιμα ως εφαρμογές για κινητά, τα οποία διευκολύνουν την πρόσβαση των ανθρώπων ενώ εκείνοι βρίσκονται εν κινήσει. Μολονότι όμως εργαλεία όπως εκείνα της Adobe, της Midjourney ή το DALL-E 2 της OpenAI δεν θα δημιουργούν εικόνες διασημοτήτων, πολιτικών, βίας και πολέμου, εναλλακτικές λύσεις ανοιχτού κώδικα όπως το Stable Diffusion θα το κάνουν.
Όταν ρώτησα τον συνιδρυτή της Stable Diffusion πέρυσι για το πώς θα πρέπει να αντιμετωπίσει ο κόσμος την αύξηση των ψεύτικων φωτογραφιών, εκείνος απάντησε ότι όλοι θα πρέπει να προσαρμοστούμε. "Οι άνθρωποι θα έχουν επίγνωση του γεγονότος ότι ο καθένας μπορεί να δημιουργήσει μια εικόνα στο τηλέφωνό του, σε ένα δευτερόλεπτο", σημείωνε ο Emad Mostaque. "Οι άνθρωποι θα λένε, "Α, μάλλον μόλις δημιουργήθηκε".
Θυμάστε την ορολογία του Διαδικτύου, του τύπου "φωτογραφία, αλλιώς δεν πιστεύω τίποτα"; Σύντομα, οι φωτογραφίες δεν θα είναι τόσο χρήσιμες ως απόδειξη και θα βρεθούμε σε κατάσταση να αμφισβητούμε ακόμη και τις πραγματικές εικόνες. Οι χρήστες του Twitter πήραν μια γεύση της δυνατότητας της τεχνητής νοημοσύνης να επιταχύνει την παραπληροφόρηση τον Μάρτιο, όταν μια ψεύτικη φωτογραφία του πάπα Βενέδικτου με ένα φουσκωτό λευκό τζάκετ έγινε viral. Όπως είχαμε προβλέψει τότε, η πιθανότητα για παραποίηση έχει πάρει μια πιο σκοτεινή τροπή.
Το Generative AI και τα ψεύτικα μπλε τικ είναι ένας τέλειος συνδυασμός προκειμένου να ευδοκιμήσει η παραπληροφόρηση στο Twitter και, καθώς η Meta Platforms ετοιμάζεται να περικόψει περισσότερες θέσεις εργασίας τις επόμενες εβδομάδες, το προσωπικό ανησυχεί, , σύμφωνα με ρεπορτάζ στην Washington Post, ότι θα περιοριστούν και οι ομάδες εποπτείας περιεχομένου, κάτι που σημαίνει ότι θα υπάρχουν λιγότεροι άνθρωποι για να αντιμετωπίζουν το πρόβλημα.
Τέτοια περίοδο πέρυσι, πλατφόρμες όπως το Twitter και το Facebook είχαν βελτιώσει τις ικανότητές τους στο να εξαλείφουν την παραπληροφόρηση. Τα πράγματα φαίνονται διαφορετικά σήμερα. Οι εταιρείες τεχνολογίας πρέπει να κάνουν καλύτερη δουλειά για να αποτρέψουν τη διάδοση ψευδών ειδήσεων - αλλά θα χρειαστεί κι εμείς πια να τις προσεγγίζουμε με μεγαλύτερες δόσεις σκεπτικισμού.
Σε μια εποχή που το να βλέπεις κάτι δεν είναι ταυτόσημο με το να το πιστεύεις, πρέπει να οπλιστούμε με μια πιο διορατική ματιά και λίγη περισσότερη αμφιβολία.