AI και παραπληροφόρηση: Μελλοντικά δεν θα υπάρχουν αποδεκτές οπτικές αποδείξεις

Η Τεχνητή Νοημοσύνη έχει πλέον πολλές εφαρμογές στην καθημερινότητα μας. Και σίγουρα βοηθάει σε πολλούς τομείς. Υπάρχουν όμως και άλλοι τομείς που δυστυχώς βοηθά να διασπείρονται ψευδείς ειδήσεις. Είναι πλέον αμφισβητήσιμο το τι βλέπουμε με τα μάτια μας και κατά πόσο αυτό είναι αληθινό ή ψεύτικο. Ή αν αυτό που διαβάζουμε είναι προϊόν της Al.

Οι ειδικοί προειδοποιούν ότι η ανθρωπότητα είναι ανέτοιμη να διαχειριστεί τη «δύναμη» της Τεχνητής Νοημοσύνης. Κάποιες φορές μπορεί να είναι διασκεδαστικό να φτιάχνουμε βίντεο και να τα ποστάρουμε, αλλά δυστυχώς όταν αυτό γίνεται κακόβουλα, παραπληροφορεί και εγκυμονεί κινδύνους.

Ένα παράδειγμα του πόσο ανέτοιμοι προφανώς είμαστε για τέτοιες εφαρμογές είναι η νέα viral «τρέλα» των χρηστών στα social, που έχουν γεμίσει τις τελευταίες ημέρες το TikTok με βίντεο που δείχνουν… γιαγιάδες να συλλαμβάνονται από την αστυνομία επειδή, υποτίθεται, έκλεψαν ένα μήλο ή διέπραξαν άλλες «παρανομίες».

Μόνο που τίποτα από αυτά δεν έχει συμβεί στην πραγματικότητα. Ωστόσο ένα μεγάλο ποσοστό χρηστών, ιδιαίτερα όσοι δεν είναι εξοικειωμένοι με το διαδίκτυο, εύκολα πιστεύουν ότι τέτοια βίντεο είναι αυθεντικά. «Το πρόβλημα δεν είναι τα προϊόντα της τεχνητής νοημοσύνης αλλά η απουσία της κριτικής σκέψης. Πρέπει να έχουμε μία παιδεία, να διασταυρώνουμε τις πηγές», εξήγησε μιλώντας στο Mega ο Γιώργος Παπαπροδρόμου, αντιστράτηγος ε.α. και πρώην Διοικητής Δίωξης Ηλεκτρονικού Εγκλήματος.

«Εγώ βλέπω 4 ποινικά αδικήματα. Διασπορά ψευδών ειδήσεων, παράνομη χρήση εικόνας και φωνής, καθώς τα πρόσωπα που δείχνουν είναι υπαρκτά, η συκοφαντική δυσφήμιση και το αδίκημα της εξύβρισης. Είναι επικίνδυνο όταν διαδίδονται τέτοια βίντεο. Πρέπει να είμαστε υποψιασμένοι», πρόσθεσε.

Τα προφανή και τα κακόβουλα

Στο θέμα αναφέρονται και οι New York Times, τονίζοντας ότι από τότε που κυκλοφόρησε η Sora, πολλοί χρήστες ανεβάζουν για πλάκα κατασκευασμένα ρεαλιστικά βίντεο στο διαδίκτυο που δεν έχουν καμία σχέση με την πραγματικότητα αλλά είναι προφανές στον καθένα ότι δεν ανταποκρίνονται στην πραγματικότητα, όπως καυγάδες μεταξύ διάσημων ηθοποιών του Χόλιγουντ ή ρακούν πάνω σε αεροπλάνα.

Όμως άλλοι έχουν χρησιμοποιήσει την AI εφαρμογή για κακόβουλους σκοπούς, διαδίδοντας fake news για ψεύτικα εγκλήματα που δεν συνέβησαν ποτέ και άλλα περιστατικά που προκαλούν το κοινό αίσθημα και συμβάλλουν στην παραπληροφόρηση.

Η άφιξη της Sora, σημειώνει η αμερικανική εφημερίδα, μαζί με παρόμοια εργαλεία GenAI από τη Meta και την Google φέτος έχει τεράστιες συνέπειες. Η τεχνολογία αυτή ίσως σηματοδοτεί το τέλος της οπτικής αλήθειας όπως την ξέρουμε, δηλαδή της ιδέας ότι το βίντεο αποτελεί αντικειμενική καταγραφή της πραγματικότητας, οδηγώντας την κοινωνία να αντιμετωπίζει την εικόνα που βλέπει με την ίδια δυσπιστία που δείχνει ήδη προς τον γραπτό λόγο.

Το «μία φωτογραφία, χίλιες λέξεις» είχε αρχίσει ήδη τα προηγούμενα χρόνια να μην ισχύει όταν όλοι κατάλαβαν πόσο εύκολο είναι να παραποιηθεί η εικόνα. Τώρα είναι η σειρά του βίντεο να «τελειώσει» και αυτό είναι ανησυχητικό.

«Ο εγκέφαλός μας είναι ισχυρά προγραμματισμένος να πιστεύει αυτό που βλέπει, αλλά μπορούμε και πρέπει πλέον να μάθουμε να κάνουμε παύση και να σκεφτόμαστε αν ένα βίντεο – και γενικά οποιοδήποτε μέσο – αντανακλά πραγματικά την αληθινή ζωή», δήλωσε ο Ren Ng, καθηγητής Πληροφορικής στο Μπέρκλεϊ.

Πνευματικά δικαιώματα

Στο Χόλιγουντ, στούντιο εκφράζουν ανησυχίες ότι βίντεο που δημιουργήθηκαν με την εφαρμογή Sora – η πιο δημοφιλής δωρεάν εφαρμογή στο App Store της Apple αυτή την εβδομάδα – έχουν ήδη παραβιάσει πνευματικά δικαιώματα ταινιών, σειρών και χαρακτήρων. Από την πλευρά του ο διευθύνων σύμβουλος της OpenAI, Sam Altman, δήλωσε ότι η εταιρεία εξετάζει τα δεδομένα και σύντομα θα δώσει στους κατόχους πνευματικών δικαιωμάτων τον έλεγχο στη χρήση χαρακτήρων, καθώς και έναν τρόπο να κερδίσουν χρήματα από την υπηρεσία.

Αν και ο καθένας μπορεί να κατεβάσει δωρεάν την εφαρμογή Sora, η υπηρεσία προς το παρόν λειτουργεί μόνο με προσκλήσεις – δηλαδή, για να φτιάξει κάποιος βίντεο πρέπει να λάβει κωδικό πρόσκλησης από άλλον χρήστη. Πολλοί μοιράζονται τέτοιους κωδικούς σε ιστότοπους όπως το Reddit και εφαρμογές όπως το Discord.

Στη συνέχεια δημιουργούν βίντεο πληκτρολογώντας απλώς τι θέλουν να δείχνει το βίντεο. Μπορούν επίσης να ανεβάσουν μια πραγματική φωτογραφία και να δημιουργήσουν βίντεο πάνω σε αυτήν. Το βίντεο είναι έτοιμο σε περίπου ένα λεπτό, και οι χρήστες μπορούν είτε να το ανεβάσουν στη ροή της εφαρμογής είτε να το κατεβάσουν και να το μοιραστούν στο TikTok, το Instagram ή αλλού.

Πώς να προστατευτούμε;

Το πρόβλημα είναι ότι οποιοδήποτε βίντεο βλέπεις σε εφαρμογές όπως TikTok, Reels, YouTube Shorts και Snapchat έχει πλέον μεγάλη πιθανότητα να είναι ψεύτικο. Η Sora σηματοδοτεί μια καμπή στην εποχή της παραποίησης μέσω GenAI και σύντομα θα εμφανιστούν αντιγραφείς, συμπεριλαμβανομένων κακόβουλων φορέων που θα προσφέρουν δημιουργία βίντεο με τεχνητή νοημοσύνη χωρίς περιορισμούς.

«Κανείς δεν θα δέχεται πλέον βίντεο ως απόδειξη για οτιδήποτε», δήλωσε ο Lucas Hanse, ιδρυτής της CivAI, ενός μη κερδοσκοπικού οργανισμού που εκπαιδεύει τους ανθρώπους στις δυνατότητες της τεχνητής νοημοσύνης.

Ψεύτικα πλάνα από κάμερες αυτοκινήτων που θα μπορούσαν να χρησιμοποιηθούν για ασφαλιστική απάτη, βίντεο με αμφισβητήσιμες ιατρικές συμβουλές, βίντεο δυσφήμισης ανθρώπων, κατασκευασμένα πλάνα σοκαριστικών τροχαίων στον αυτοκινητόδρομο, ανύπαρκτες ειδήσεις για κατά συρροή δολοφόνους, είναι μερικά από αυτά που μπορεί να δημιουργήσει σε ένα λεπτό η Sora.  Αν και φέρουν υδατογράφημα με το λογότυπο της εφαρμογής, κάποιοι χρήστες έχουν ήδη βρει τρόπους να το κόβουν. Μερικά, παρ’ όλα αυτά, έχουν μερικά εμφανή λάθη αν τα παρατηρήσεις, όπως ανορθόγραφες ταμπέλες εστιατορίων ή ασυγχρονία ήχου με την κίνηση των χειλιών.

Ωστόσο, οποιαδήποτε συμβουλή για το πώς να αναγνωρίζεις βίντεο που δημιουργήθηκαν με τεχνητή νοημοσύνη είναι καταδικασμένη να έχει σύντομη διάρκεια, επειδή η τεχνολογία εξελίσσεται ραγδαία, προειδοποιεί ο Hany Farid, καθηγητής Πληροφορικής στο Μπέρκλεϊ και ιδρυτής της GetReal Security. «Τα social media είναι ένας κανονικός σκουπιδότοπος» πρόσθεσε, τονίζοντας ότι ο μόνος τρόπος να αποφύγει κάποιος τα ψεύτικα βίντεο είναι να σταματήσει να χρησιμοποιεί εφαρμογές όπως το TikTok, το Instagram και το Snapchat.