Tεχνητή νοημοσύνη: Ραγδαία αύξηση των βίντεο παιδικής πορνογραφίας

Ο αριθμός των βίντεο παιδικής σεξουαλικής κακοποίησης που δημιουργούνται μέσω τεχνητής νοημοσύνης έχει αυξηθεί ραγδαία, καθώς παιδεραστές εκμεταλλεύονται τις τεχνολογικές εξελίξεις για να δημιουργήσουν σοκαριστικά ρεαλιστικό περιεχόμενο.

Σύμφωνα με τον Guardian, η Internet Watch Foundation (IWF) προειδοποιεί πως τα AI-generated βίντεο έχουν πλέον φτάσει σε σημείο όπου είναι σχεδόν αδύνατο να διακριθούν από πραγματικές εικόνες, γεγονός που καθιστά την ανίχνευσή τους ιδιαίτερα δύσκολη.

Ανησυχητική αύξηση μέσα σε έναν χρόνο

Κατά το πρώτο εξάμηνο του 2025, η βρετανική αρχή διαδικτυακής ασφάλειας επαλήθευσε 1.286 βίντεο που είχαν δημιουργηθεί με τεχνητή νοημοσύνη και περιείχαν παράνομο υλικό παιδικής σεξουαλικής κακοποίησης (CSAM).

Το νούμερο αυτό παρουσιάζει τρομακτική αύξηση σε σχέση με μόλις δύο βίντεο που είχαν εντοπιστεί την ίδια περίοδο το 2024.

Από αυτά τα βίντεο, περισσότερα από 1.000 ταξινομήθηκαν στην «Κατηγορία Α» – δηλαδή την πιο σοβαρή μορφή σεξουαλικής κακοποίησης παιδιών.

Σύμφωνα με την IWF, η ευρεία επένδυση δισεκατομμυρίων δολαρίων στην ανάπτυξη τεχνητής νοημοσύνης έχει οδηγήσει στη διάθεση εξελιγμένων εργαλείων δημιουργίας βίντεο, τα οποία πλέον αξιοποιούνται από παιδόφιλους.

«Ο τομέας της τεχνητής νοημοσύνης είναι εξαιρετικά ανταγωνιστικός. Επενδύονται τεράστια κεφάλαια, και δυστυχώς οι δράστες έχουν πολλές επιλογές στη διάθεσή τους», δήλωσε αναλυτής της οργάνωσης.

Εντοπισμός περιεχομένου στο dark web

Κατά την έρευνα της IWF, εντοπίστηκε δημοσίευση σε φόρουμ του dark web όπου παιδεραστής σχολίαζε την ταχύτητα με την οποία εξελίσσεται η τεχνητή νοημοσύνη, λέγοντας ότι κάθε φορά που εξοικειωνόταν με ένα εργαλείο, εμφανιζόταν «κάτι νέο και καλύτερο».

Οι αναλυτές σημειώνουν ότι πολλά από τα ρεαλιστικά βίντεο δημιουργούνται μέσω ανοιχτού λογισμικού AI, το οποίο «εκπαιδεύεται» με CSAM για να αποδίδει όσο το δυνατόν πιο ρεαλιστικά αποτελέσματα.

Τα πιο πειστικά βίντεο κακοποίησης με τη χρήση AI βασίζονται σε πραγματικά θύματα, όπως επισημαίνει η IWF. Αυτό σημαίνει πως, ακόμη και χωρίς νέα περιστατικά κακοποίησης, οι δράστες μπορούν να αναπαράγουν ή να δημιουργούν νέο υλικό με χρήση ήδη υπάρχοντων εικόνων και βίντεο.

Νομοθετική απάντηση από τη βρετανική κυβέρνηση
Σε απάντηση στη νέα απειλή, η βρετανική κυβέρνηση εισήγαγε αυστηρότερη νομοθεσία που καθιστά παράνομη την κατοχή, δημιουργία ή διανομή εργαλείων τεχνητής νοημοσύνης που προορίζονται για τη δημιουργία CSAM. Η ποινή για παραβίαση του νόμου ανέρχεται σε έως και πέντε έτη φυλάκισης.

Παράλληλα, απαγορεύεται και η κατοχή «εγχειριδίων» που καθοδηγούν πιθανούς δράστες στη χρήση AI για την παραγωγή κακοποιητικού περιεχομένου, με την αντίστοιχη ποινή να φτάνει τα τρία έτη.

Έκκληση για δράση

Ανακοινώνοντας τα μέτρα τον Φεβρουάριο, η υπουργός Εσωτερικών Yvette Cooper τόνισε την ανάγκη να αντιμετωπιστεί η παιδική σεξουαλική κακοποίηση «τόσο στο διαδίκτυο όσο και εκτός αυτού».

Η δημιουργία CSAM μέσω AI απαγορεύεται ήδη βάσει του Νόμου για την Προστασία των Παιδιών του 1978, ο οποίος ποινικοποιεί τη λήψη, διανομή και κατοχή «άσεμνης φωτογραφίας ή ψευδοφωτογραφίας» παιδιού.

Ωστόσο, όπως προειδοποιεί ο προσωρινός CEO της IWF, Derek Ray-Hill, η συνδυαστική απειλή της τεχνολογικής εξέλιξης, της ευκολίας πρόσβασης στα εργαλεία AI και της δυνατότητας εξατομίκευσης, δημιουργεί το ενδεχόμενο για «μια έκρηξη» στην παραγωγή και διάδοση CSAM που θα μπορούσε να κατακλύσει το διαδίκτυο.

Πηγή: in.gr