00:04 09/09
Τα Πάντα Όλα ή Βάλτε τώρα που γυρίζει
Χάος, χάσμα και χυλός: τα τρία Χαρακτηριστικά του σύγχρονου έλληνα.
Ο "Πόλεμος Διανόησης" (Cognitive Warfare), σύμφωνα με πρόσφατες ακαδημαϊκές και στρατιωτικές προσεγγίσεις (Claverie and Du Cluzel 2021, Dale F. Reding and Bryan Wells 2022, Christoph Deppe 2023), αφορά τη στοχευμένη εκμετάλλευση της ανθρώπινης νόησης και της τεχνολογίας με σκοπό τη διατάραξη, την υπονόμευση, την επιρροή ή την τροποποίηση των ανθρώπινων αποφάσεων.
Παρόλο που οι ρίζες του ανάγονται στις κλασικές μορφές ψυχολογικού πολέμου (psywar, psyops κλπ), σήμερα αποκτά μεγαλύτερη βαρύτητα λόγω της ραγδαίας ανάπτυξης της Τεχνητής Νοημοσύνης, της καθολικής χρήσης των social media, και της σύνδεσης των νευροεπιστημών με τους αλγορίθμους που εντοπίζουν και χτίζουν γύρω από τις προτιμήσεις μας διαδικτυακά.
Έτσι, η χειραγώγηση της πληροφορίας γίνεται πιο αποτελεσματική και πιο επικίνδυνη από ποτέ, απειλώντας κρίσιμους θεσμούς, μέσω της συστηματικής παραπληροφόρησης και της εσκεμμένης διαστρέβλωσης της πραγματικότητας.
Πώς λειτουργεί ο Πόλεμος Διανόησης (Cognitive Warfare);
Στον πυρήνα του, ο "Πόλεμος Διανόησης" συνδυάζει παραπληροφόρηση, χειραγώγηση δεδομένων και συναισθηματικά μηνύματα που διαχέονται μέσω πλατφορμών κοινωνικής δικτύωσης, ΜΜΕ, ακόμα και σε εφαρμογές instant messaging. Μολονότι φαίνεται να συγγενεύει με την κλασική προπαγάνδα, στην πραγματικότητα πρόκειται για μια πιο εξελιγμένη μορφή ελέγχου ή πειθούς, προσαρμοσμένη στα εκάστοτε ακροατήρια.
Κρίσιμες παράμετροι που καθιστούν εξαιρετικά αποτελεσματική τη συγκεκριμένη πρακτική
Συγκυρία 1 – Η εκθετική επέκταση των δυνατοτήτων λόγω Τεχνητής Νοημοσύνης. Καινοτόμα εργαλεία AI διευκολύνουν τη γρήγορη δημιουργία στοχευμένων μηνυμάτων, ψευδών εικόνων ή "deepfake" βίντεο, κάνοντας πολύ πιο δύσκολη την επαλήθευση της αυθεντικότητάς τους. Παράλληλα, οι αλγόριθμοι τροφοδοτούνται από τεχνικές και γνώση νευροεπιστημών, "διαβάζοντας" και αξιοποιώντας τις ανθρώπινες προκαταλήψεις και ευαισθησίες με πρωτοφανή αποτελεσματικότητα. To tik tok είναι γεμάτο από τέτοια παραδείγματα (πχ ψηφιακά αντίγραφα του Jeff Bezos να δίνει προσωπικές συμβουλές, ή του Anthony Hopkins να κάνει φιλοσοφικές τοποθετήσεις κλπ)
Συγκυρία 2 – Χαλάρωση των ελέγχων από μεγάλες πλατφόρμες. Η πάγια θέση του Elon Musk στο Χ (Twitter) και του Trump (Truth Social), που προκρίνουν πολιτικές αφιλτράριστου περιεχομένου, καθώς και οι ανακοινώσεις για διακοπή ελέγχων ορθότητας και ψευδών ειδήσεων στο Meta, δημιουργούν ένα περιβάλλον όπου η διασπορά -πιθανά – επιβλαβούς περιεχομένου ενισχύεται. Όσο λιγότερη εποπτεία, τόσο ευκολότερα τα ψεύτικα προφίλ, ενώ οι "bot farms" και οι παραπλανητικές καμπάνιες βρίσκουν έδαφος να εξαπλωθούν.
Σε αυτό το πλαίσιο, η μαζική άντληση δεδομένων (data harvesting) επιτρέπει στους "δράστες" να στοχεύουν ευάλωτες κοινωνικές ομάδες, ενώ οι αλγόριθμοι που επιλέγουν ποιο περιεχόμενο θα δούμε, μας εγκλωβίζουν σε ένα στοχευμένο φαύλο κύκλο πληροφόρησης – έναν ψηφιακό μικρόκοσμο στον οποίο τα ίδια αφηγήματα – με παραλλαγές – αναπαράγονται αδιάκοπα.
Οι δημοκρατικές κοινωνίες στηρίζονται στην ελεύθερη πληροφόρηση, στον ορθολογικό διάλογο και στη συναίνεση που προκύπτει μέσα από την πολυφωνία. Όταν η πληροφόρηση χειραγωγείται κεντρικά μέσω φαινομενικά "αθώων" social media και περιεχομένου, τα οποία αποζητούμε για γρήγορες, εθιστικές δόσεις ντοπαμίνης, τότε παρακάμπτεται η κριτική σκέψη. Η συστηματική έκθεση σε ψευδείς ειδήσεις, θεωρίες συνωμοσίας και στοχευμένη προπαγάνδα αλλοιώνει σταδιακά την ικανότητα διάκρισης πραγματικότητας από ψέμα. Συνεπεία αυτού διαταράσσεται η κοινωνική συνοχή. Η στοχευμένη παραπληροφόρηση υποδαυλίζει την πόλωση, τη ρητορική μίσους και τη δυσπιστία μεταξύ κοινωνικών ομάδων. Ως αποτέλεσμα οι κοινωνικοί δεσμοί αποδυναμώνονται και οι "γραμμές άμυνας" των θεσμών γίνονται πιο ρηχές. Φαινόμενα όπως η χειραγώγηση εκλογικών διαδικασιών, η συκοφάντηση πολιτικών προσωπικοτήτων (μέσω deepfakes ή χακαρισμένων δεδομένων) και η ανάδειξη ακραίων δυνάμεων συνιστούν υπαρκτές απειλές για τη σταθερότητα, όταν οι πολίτες δεν είναι επαρκώς ενημερωμένοι.
Η Ευρώπη έχει γνωρίσει αρκετές περιπτώσεις χειραγώγησης της κοινής γνώμης, οι οποίες μπορούν να χαρακτηριστούν μορφές "Πολέμου Διανόησης". Προβεβλημένα παραδείγματα έχουν αποτελέσει Το Brexit & Καμπάνιες στο Ηνωμένο Βασίλειο (2016) – Η περίοδος πριν το δημοψήφισμα για το Brexit έφερε στο φως σειρά στοχευμένων διαφημίσεων και παραπληροφόρησης στα κοινωνικά δίκτυα. Εταιρείες που αξιοποιούν αλγορίθμους ανάλυσης δεδομένων κατηγορήθηκαν για βαθιά χειραγώγηση της κοινής γνώμης, διαστρεβλώνοντας τα πραγματικά επίδικα. Τα "Macron Leaks” στις Γαλλικές Προεδρικές Εκλογές (2017) – Λίγο πριν τον δεύτερο γύρο των εκλογών, χακαρισμένα emails της προεκλογικής ομάδας του Εμμανουέλ Μακρόν διοχετεύτηκαν στα μέσα κοινωνικής δικτύωσης, ενισχυμένα με ψευδείς αναφορές. Παρότι δεν είναι σαφής ο ακριβής τους αντίκτυπος, εμπέδωσαν τη δυνατότητα μαζικής εκτροπής της κοινής γνώμης σε κρίσιμες πολιτικές στιγμές. Η παραπληροφόρηση κατά τη διάρκεια της Πανδημίας COVID-19 -
Παγκοσμίως, ειδικά κατά τη διάρκεια των lockdowns, παρατηρήθηκε ένας πρωτοφανής όγκος ψευδών ειδήσεων που διακινούνταν ταχύτατα μέσω social media και messaging apps. Αποκορύφωμα ήταν οι κατασκευασμένες έρευνες και μελέτες, που σκοπό είχαν να εντείνουν τους φόβους και να διαρρήξουν ακόμη περισσότερο την εμπιστοσύνη των πολιτών στις κυβερνήσεις και τους θεσμούς.
Η επίγνωση του φαινομένου είναι το πρώτο βήμα. Χρειάζονται όμως συνεργατικές και διαχρονικές προσπάθειες από όλους. Ενδεικτικά, ανά κοινωνικό – οικονομική οργανωτική δομή:
Κυβερνήσεις και Θεσμοί: Να θεσπίσουν ρυθμιστικά πλαίσια για την προστασία των πολιτών από εκστρατείες παραπληροφόρησης, σε συνεργασία και με διεθνείς οργανισμούς. Σε ευρωπαϊκό επίπεδο, ήδη υπάρχει μια δέσμη κανόνων (EU Code of Practice on Disinformation), όμως απαιτείται ευρύτερη και συστηματική εφαρμογή.
Εκπαιδευτικό σύστημα: Να εντάξει προγράμματα "ψηφιακής και κριτικής παιδείας", ώστε οι πολίτες να μπορούν να αξιολογούν πηγές και να αναγνωρίζουν "fake news". Η εξοικείωση με βασικές αρχές αλγορίθμων και νευροεπιστήμης θα καθιστούσε πιο συνειδητούς τους μελλοντικούς ψηφιακούς πολίτες.
Ιδιωτικός τομέας: Οι εταιρείες τεχνολογίας καλούνται να αναπτύξουν αλγόριθμους σταθμισμένους, χωρίς προκατάληψη, που προάγουν ισορροπημένη ενημέρωση. Παράλληλα, οφείλουν να περιορίσουν τη μαζική δημιουργία και διακίνηση ψευδούς περιεχομένου, χωρίς όμως να φαλκιδεύουν την ελευθερία της έκφρασης (εξαιρετικά λεπτή διαχωριστική γραμμή…).
Ατομική ευθύνη: Οι πολίτες οφείλουν να ενημερώνονται με κριτική προσέγγιση, να διασταυρώνουν ειδήσεις και να αμφισβητούν εύκολα αφηγήματα που κολακεύουν τους φόβους ή τις προκαταλήψεις τους. Η "ψηφιακή αυτοάμυνα" είναι πλέον απαραίτητη στάση ζωής.
Ο "Πόλεμος Διανόησης" δεν είναι ένα "φρέσκο" φαινόμενο· αποτελεί την εξέλιξη γνωστών τεχνικών ψυχολογικής χειραγώγησης που συναντούμε ήδη σε ιστορικά και στρατιωτικά εγχειρίδια. Ωστόσο, η σύμπτωση της εξάπλωσης του AI, της καθολικής χρήσης των social media, του doomscrolling και των εφαρμοσμένων γνώσεων των νευροεπιστημών στους αλγορίθμους καθιστούν το σύγχρονο πλαίσιο θεαματικά πιο επίφοβο και πολύπλοκο.
Προτού βρεθούμε μπροστά σε ακόμα μεγαλύτερης κλίμακας παρεμβάσεις και ολοκληρωτικού τύπου ψηφιακή εκμετάλλευση, είναι σημαντικό να αναγνωρίσουμε το πρόβλημα και να μιλάμε ανοιχτά γι’ αυτό, να εκπαιδευτούμε ψηφιακά και κριτικά και να απαιτήσουμε θεσμικές αλλαγές για διαφάνεια στις διαδικασίες ενημέρωσης και σαφείς ρυθμίσεις στους αλγορίθμους.
*Ο Κωνσταντίνος Μανωλίτσης είναι Μηχανολόγος Μηχανικός με ειδίκευση στα Συστήματα Παραγωγής και Διοίκησης. Είναι συνιδρυτής της MASTER ΑΕ