Βιώνουμε μια εποχή όπου ένα τηλεφώνημα από τη «φωνή» ενός αγαπημένου προσώπου μπορεί να είναι εντελώς πλαστό× όπου χιλιάδες λογαριασμοί στα μέσα κοινωνικής δικτύωσης μπορούν να κατασκευαστούν σε λίγα λεπτά για να προωθήσουν ένα αφήγημα× όπου ένα βίντεο προσώπου με δημοτικότητα να «λέει πράγματα» που δεν είπε ποτέ και να γίνεται viral (να εξαπλώνεται ταχύτατα), πριν προλάβει κάποιος να τα διαψεύσει.

Η Τεχνητή Νοημοσύνη (ΤΝ) έχει μεταμορφώσει ριζικά το τοπίο της Κοινωνικής Μηχανικής (ΚΜ) (Social Engineering), των μεθόδων χειραγώγησης ανθρώπων μέσω ψυχολογικών τεχνικών.

Αυτό που άλλοτε απαιτούσε ανθρώπινη επινοητικότητα, χρόνο και προσπάθεια, τώρα αυτοματοποιείται και κλιμακώνεται με τρόπους που, πριν από μία δεκαετία, ανήκαν στην επιστημονική φαντασία.

Η ΚΜ δεν είναι κάτι νέο. Είναι η τέχνη και τεχνολογία της χειραγώγησης ανθρώπων, ώστε να αποκαλύψουν πληροφορίες, να εκτελέσουν ενέργειες ή να λάβουν αποφάσεις που εξυπηρετούν τον χειραγωγό.

Η ΚΜ βασίζεται κυρίως στην ψυχολογία και στην ανθρώπινη συμπεριφορά. Είναι μια σοβαρή απειλή στον τομέα ασφάλειας της πληροφορίας, αφού εκμεταλλεύεται την ψυχολογία και τη συμπεριφορά των ανθρώπων.

Ο ψυχολόγος Robert Cialdini, στο κλασικό έργο του Influence, περιέγραψε τους θεμελιώδεις μοχλούς πειθούς, όπως είναι η εμπιστοσύνη, ο φόβος, το επείγον, η εξουσία, η περιέργεια, η απληστία, η ανταπόδοση και η κοινωνική απόδειξη.

Ο άνθρωπος είναι προγραμματισμένος να εμπιστεύεται, να θέλει να βοηθάει, να αποφεύγει τη σύγκρουση, να υπακούει σε αυθεντίες. Η ΚΜ εκμεταλλεύεται αυτές τις φυσικές τάσεις.

Μερικά παραδείγματα από τις σύγχρονες τεχνικές είναι το phishing μέσω ψεύτικων emails, το vishing μέσω τηλεφώνου, το smishing μέσω SMS. Αυτό που άλλαξε δραματικά είναι η κλίμακα και η πειστικότητα. Η ΤΝ απλώς επιταχύνει την εκμετάλλευσή τους φθηνότερα και σε μεγαλύτερη κλίμακα.

Το 2018, μια έρευνα του MIT “Lies spread faster than the truth”, που δημοσιεύτηκε στο περιοδικό “Science”, έδειξε κάτι ανησυχητικό. Ότι οι ψευδείς ειδήσεις εξαπλώνονται στα κοινωνικά δίκτυα έξι φορές ταχύτερα από τις αληθινές. Οι ερευνητές Vosoughi, Roy και Aral ανέλυσαν 126.000 ιστορίες που διαδόθηκαν από 3 εκατομμύρια χρήστες και κατέληξαν σε ένα δυσάρεστο συμπέρασμα:

Ο άνθρωπος έλκεται από το καινοφανές και το συναισθηματικά φορτισμένο, ακόμη και αν είναι ψευδές. Τα εργαλεία παραγωγής κειμένου μπορούν πλέον να δημιουργούν χιλιάδες μοναδικά άρθρα παραπληροφόρησης την ώρα, προσαρμοσμένα σε διαφορετικά κοινά.

Μια έκθεση της Europol, το 2023 προειδοποίησε ότι τα Μεγάλα Γλωσσικά Μοντέλα (LLM) μειώνουν δραματικά το κόστος των επιθέσεων phishing και της παραγωγής προπαγάνδας.

Η τεχνολογία deepfake (βαθιά παραποίηση) έχει φτάσει σε σημείο όπου η διάκριση πραγματικού και πλαστού γίνεται αδύνατη με γυμνό μάτι. Οι νομικοί ερευνητές Robert Chesney και Danielle Citron, σε εκτενή ανάλυσή τους στο “California Law Review”, περιέγραψαν αυτό που αποκάλεσαν “liar’s dividend”.

Σε έναν κόσμο γεμάτο deepfakes, πλήττεται συνολικά η εμπιστοσύνη στην πληροφορία, ακόμη και οι ένοχοι μπορούν να ισχυριστούν ότι οι αληθινές αποδείξεις εναντίον τους είναι πλαστές. Το “liar’s dividend” οδηγεί τους πολίτες να αμφισβητούν ακόμη και αυθεντικό υλικό ως «πιθανό deepfake», προκαλώντας μια γενικευμένη κρίση αξιοπιστίας.

Η αναπαραγωγή ανθρώπινης φωνής έχει ήδη χρησιμοποιηθεί σε απάτες εκατομμυρίων δολαρίων. Στελέχη εταιρειών έχουν μεταφέρει χρήματα, πιστεύοντας ότι μιλούν με τους προϊσταμένους τους, ενώ, στην πραγματικότητα, η φωνή στο τηλέφωνο ήταν συνθετική.

Πέραν της προφανούς απάτης, υπάρχει η αλγοριθμική χειραγώγηση του τι βλέπουμε, όπως μηνύματα προσαρμοσμένα στο ψυχολογικό προφίλ καθενός.

Παράλληλα, όμως, η ίδια η τεχνολογία αναπτύσσεται και ως μηχανισμός άμυνας, κυρίως με μεθόδους ανίχνευσης ψευδών ειδήσεων μέσω μηχανικής μάθησης. Τα συστήματα αυτά αναλύουν γλωσσικά μοτίβα, δίκτυα διάδοσης και χαρακτηριστικά χρηστών για να εντοπίσουν ύποπτο περιεχόμενο προτού γίνει viral.

Το “Oxford Internet Institute”, μέσω του “Computational Propaganda Project”, χαρτογραφεί συστηματικά τις παγκόσμιες καμπάνιες αυτοματοποιημένης προπαγάνδας. Η έρευνά τους έχει αποκαλύψει οργανωμένες επιχειρήσεις επιρροής από δεκάδες κράτη, χρησιμοποιώντας ΤΝ για να ανιχνεύσει τα ίχνη τους.

Στην Ευρώπη, ο Ενισχυμένος Κώδικας Πρακτικής για την Παραπληροφόρηση του 2022 υποχρεώνει τις μεγάλες πλατφόρμες να χρησιμοποιούν αυτοματοποιημένα εργαλεία για τον εντοπισμό και την επισήμανση ψευδούς περιεχομένου. Παράλληλα, ο Ευρωπαϊκός Οργανισμός για την Κυβερνοασφάλεια (ENISA) αναπτύσσει κατευθυντήριες γραμμές για τη χρήση ΤΝ στην άμυνα κατά ΚΜ. Εργαλεία, όπως το “Botometer” του MIT και το “Media Lab” επιτρέπουν σε δημοσιογράφους και ερευνητές να αξιολογούν αν ένας λογαριασμός είναι πιθανώς αυτοματοποιημένος. Το ευρωπαϊκό έργο “InVID/WeVerify” προσφέρει εργαλεία επαλήθευσης βίντεο που ανιχνεύουν σημάδια παραποίησης.

Υπάρχει, ωστόσο, ένα θεμελιώδες πρόβλημα: ότι οι επιτιθέμενοι είναι πάντα ένα βήμα μπροστά. Η επίθεση αρκεί να πείσει μία φορά. Η άμυνα, όμως, πρέπει να προστατεύει συνεχώς. Η επίθεση επιλέγει στόχο και χρόνο. Η άμυνα αντιδρά σε άγνωστες απειλές. Η επίθεση είναι φθηνή και αυτοματοποιημένη. Η άμυνα απαιτεί πόρους και συντονισμό.

Η επίθεση εκμεταλλεύεται συναισθήματα. Η άμυνα βασίζεται σε λογική που είναι αργή. H αντιμετώπιση των ψευδών ειδήσεων είναι ένα αρκετά περίπλοκο θέμα που απαιτεί συνδυασμό τεχνολογίας, ρύθμισης και εκπαίδευσης. Κανένα μεμονωμένο εργαλείο δεν επαρκεί.

Από τη θεωρία στην πράξη: Σύγχρονες συγκρούσεις

Η θεωρία συναντά την πράξη στα πεδία των σύγχρονων συγκρούσεων. Η τρέχουσα κρίση στη Μέση Ανατολή προσφέρει ένα ζωντανό παράδειγμα. Οι δηλώσεις του προέδρου Τραμπ αλλάζουν σχεδόν καθημερινά. Από «κερδίσαμε» έως «δεν θέλουμε να φύγουμε νωρίς».

Σύμφωνα με ρεπορτάζ του “Reuters”, αυτή η ασυνέπεια αντανακλά μια εσωτερική διαμάχη στον Λευκό Οίκο μεταξύ αυτών που ανησυχούν για τις τιμές της βενζίνης και αυτών που πιέζουν για συνέχιση της στρατιωτικής πίεσης. Και οι δύο πλευρές χρησιμοποιούν εντατικά τα μέσα κοινωνικής δικτύωσης.

Το Ιράν απειλεί με αποκλεισμό των Στενών του Ορμούζ, μια απειλή που ενισχύεται μέσω συντονισμένων δικτύων. Οι ΗΠΑ επικήρυξαν τον Μοτζτάμπα Χαμενεΐ, με τον υπουργό Άμυνας, Π. Χέγκσεθ, να ισχυρίζεται ότι είναι «τραυματισμένος και πιθανόν παραμορφωμένος», πληροφορία αδύνατο να επαληθευτεί ανεξάρτητα.

Η παραπληροφόρηση δεν στοχεύει μόνο στρατιωτικούς στόχους. Ψευδείς φήμες για επιθέσεις σε πετρελαϊκές εγκαταστάσεις μπορούν να κινήσουν τις αγορές. Η διεθνής ναυτιλιακή οργάνωση “BIMCO” προειδοποίησε για τις επιπτώσεις στη ναυτιλία και την ασφάλεια των πλοίων, με την αβεβαιότητα να μεταφράζεται σε υψηλότερες τιμές καυσίμων και διαταραχές στην εφοδιαστική αλυσίδα.

Η “BIMCO” και άλλοι ναυτιλιακοί φορείς (όπως η “Intercargo”) τονίζουν την ανάγκη για προσεκτική αξιολόγηση των πληροφοριών προς αποφυγή τεχνητών κρίσεων.

Η εκπαίδευση ως άμυνα

Η εκπαίδευση του κοινού είναι αναγκαία. Η τεχνολογία εξελίσσεται ταχύτατα ώστε ο μέσος άνθρωπος να αδυνατεί να παρακολουθήσει την κάθε αρνητική εξέλιξη και να υποπέσει θύμα απάτης. Τα παραδοσιακά «σημάδια» απάτης, όπως ορθογραφικά λάθη, αδέξιες διατυπώσεις και ύποπτες διευθύνσεις, εξαλείφονται με ΤΝ, καθιστώντας την ενστικτώδη αναγνώριση αναξιόπιστη.

Ο πολίτης θα πρέπει να γνωρίζει τι είναι τα “deepfakes” και πώς παράγονται. Πώς λειτουργεί το “voice cloning” (κλωνοποίηση φωνής). Ένα «προσωπικό» μήνυμα δεν σημαίνει πλέον ότι είναι και γνήσιο. Απαραίτητες είναι οι πρακτικές επαλήθευσης, όπως η επιβεβαίωση μέσω δεύτερου καναλιού.

Εάν λάβεις email από τον διευθυντή σου, τηλεφώνησέ του. Επαλήθευση ταυτότητας με προσυμφωνημένες «λέξεις-κλειδιά» σε οικογένειες ή ομάδες. Αμφισβήτηση του επείγοντος, επειδή οι απατεώνες εκμεταλλεύονται την πίεση χρόνου.

Ιδιαίτερη προσοχή χρειάζονται ειδικές ομάδες: οι ηλικιωμένοι, συχνοί στόχοι τηλεφωνικών απατών. Τα παιδιά και οι έφηβοι, που χρειάζονται κριτική σκέψη απέναντι σε περιεχόμενο.

Ποιος ελέγχει την τεχνολογία

Η τεχνολογία είναι ουδέτερη× όμως, η χρήση της όχι. Τα κρίσιμα ερωτήματα είναι: Ποιος σχεδιάζει τα συστήματα και με ποιους στόχους; Υπάρχει διαφάνεια στον τρόπο λειτουργίας; Ποιος ελέγχει τους ελέγχοντες; Έχει ο πολίτης πραγματική επιλογή;

Η ΤΝ ενισχύει τις υπάρχουσες δυναμικές εξουσίας. Αν οι θεσμοί είναι υγιείς, μπορεί να τους ενδυναμώσει. Αν είναι διεφθαρμένοι ή αδύναμοι, μπορεί να επιταχύνει τη χειραγώγησή τους.

Η προστασία του κοινού απαιτεί ταυτόχρονα τεχνολογικά εργαλεία άμυνας, ρυθμιστικό πλαίσιο με λογοδοσία, ψηφιακή παιδεία σε όλες τις ηλικίες και ενεργούς πολίτες που απαιτούν διαφάνεια.

Ζούμε σε μια εποχή όπου η αλήθεια δεν είναι απλώς το πρώτο θύμα του πολέμου, είναι ταυτόχρονα όπλο, στόχος και πεδίο μάχης. Η ΤΝ έχει πολλαπλασιάσει τόσο την ικανότητα χειραγώγησης όσο και τη δυνατότητα άμυνας.

Η τρέχουσα κρίση στη Μέση Ανατολή δείχνει πόσο άμεσα η παραπληροφόρηση επηρεάζει τη ζωή μας, από τις τιμές στο βενζινάδικο έως τις πολιτικές αποφάσεις που καθορίζουν αν θα κλιμακωθεί ή θα αποκλιμακωθεί μια σύγκρουση.

Η ΤΝ δεν θα σώσει τη δημοκρατία ούτε θα την καταστρέψει από μόνη της. Θα κάνει απλώς ό,τι της ζητήσουμε πιο γρήγορα και πιο αποτελεσματικά από ποτέ. Το ερώτημα είναι τι θα της ζητήσουμε. Η κριτική σκέψη δεν είναι πολυτέλεια× είναι αυτοάμυνα και ασπίδα προστασίας.

Η Ιωάννα Δ. Μαλαγαρδή είναι δρ Υπολογιστικής Γλωσσολογίας και ιστορικός