Τουλάχιστον 25 συλλήψεις πραγματοποιήθηκαν κατά τη διάρκεια μιας παγκόσμιας επιχείρησης κατά των εικόνων κακοποίησης παιδιών που παράγονται από τεχνητή νοημοσύνη (AI), δήλωσε ο οργανισμός επιβολής του νόμου της Ευρωπαϊκής Ένωσης Europol.
Οι ύποπτοι ανήκαν σε εγκληματική ομάδα, τα μέλη της οποίας ασχολούνταν με τη διανομή εικόνων ανηλίκων που είχαν δημιουργηθεί πλήρως από τεχνητή νοημοσύνη, σύμφωνα με τo ΒΒC.
Η επιχείρηση είναι μία από τις πρώτες που αφορούν τέτοιο υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), δήλωσε η Europol.
Η έλλειψη εθνικής νομοθεσίας κατά των εγκλημάτων αυτών καθιστούσε «εξαιρετικά δύσκολη την υπόθεση για τους ερευνητές», πρόσθεσε.
Η επιχείρηση Cumberland
Οι συλλήψεις έγιναν ταυτόχρονα την Τετάρτη 26 Φεβρουαρίου κατά τη διάρκεια της επιχείρησης Cumberland, υπό την ηγεσία των δανικών διωκτικών αρχών, αναφέρεται σε ανακοίνωση.
Έχουν εμπλακεί αρχές από τουλάχιστον 18 άλλες χώρες και η επιχείρηση συνεχίζεται ακόμη, ενώ αναμένονται και άλλες συλλήψεις τις επόμενες εβδομάδες, ανέφερε η Europol.
Εκτός από τις συλλήψεις, μέχρι στιγμής έχουν ταυτοποιηθεί 272 ύποπτοι, έχουν διεξαχθεί 33 κατ’ οίκον έρευνες και έχουν κατασχεθεί 173 ηλεκτρονικές συσκευές, σύμφωνα με την υπηρεσία.
Δήλωσε επίσης ότι ο κύριος ύποπτος είναι Δανός υπήκοος, ο οποίος συνελήφθη τον Νοέμβριο του 2024.
Στην ανακοίνωση αναφέρεται ότι «διατηρούσε μια διαδικτυακή πλατφόρμα όπου διακινούσε το υλικό που παρήγαγε με τεχνητή νοημοσύνη».
Αφού έκαναν μια «συμβολική online πληρωμή», χρήστες από όλο τον κόσμο ήταν σε θέση να αποκτήσουν έναν κωδικό πρόσβασης που τους επέτρεπε να «έχουν πρόσβαση στην πλατφόρμα και να παρακολουθούν την κακοποίηση παιδιών».
Η σημασία της σύλληψης
Ο οργανισμός δήλωσε ότι η σεξουαλική εκμετάλλευση παιδιών στο διαδίκτυο αποτελεί μία από τις κορυφαίες προτεραιότητες για τους οργανισμούς επιβολής του νόμου της Ευρωπαϊκής Ένωσης, οι οποίοι αντιμετωπίζουν «έναν συνεχώς αυξανόμενο όγκο παράνομου περιεχομένου».
Η Europol πρόσθεσε ότι ακόμη και σε περιπτώσεις που το περιεχόμενο ήταν πλήρως τεχνητό και δεν απεικονιζόταν πραγματικό θύμα, όπως με την επιχείρηση Cumberland, «το CSAM που δημιουργείται με τεχνητή νοημοσύνη εξακολουθεί να συμβάλλει στην αντικειμενοποίηση και τη σεξουαλικοποίηση των παιδιών».
Η εκτελεστική διευθύντρια της υπηρεσίας, Catherine De Bolle δήλωσε: «Αυτές οι τεχνητά παραγόμενες εικόνες δημιουργούνται τόσο εύκολα που μπορούν να παραχθούν από άτομα με εγκληματική πρόθεση, ακόμη και χωρίς ουσιαστικές τεχνικές γνώσεις».
Η ίδια προειδοποίησε ότι η επιβολή του νόμου θα πρέπει να αναπτύξει «νέες μεθόδους και εργαλεία έρευνας» για την αντιμετώπιση των αναδυόμενων προκλήσεων.
Ο κίνδυνος της σεξουαλικής κακοποίησης ΑΙ
Το Ίδρυμα Internet Watch Foundation (IWF) προειδοποιεί ότι παράγονται περισσότερες εικόνες σεξουαλικής κακοποίησης ΑΙ παιδιών και γίνονται όλο και πιο διαδεδομένες στον ανοικτό ιστό.
Σε έρευνα που διεξήγαγε πέρυσι, το φιλανθρωπικό ίδρυμα διαπίστωσε ότι κατά τη διάρκεια ενός μηνός ανακαλύφθηκαν 3.512 εικόνες τεχνητής νοημοσύνης σεξουαλικής κακοποίησης και εκμετάλλευσης παιδιών σε έναν σκοτεινό ιστότοπο.
Σε σύγκριση με ένα μήνα του προηγούμενου έτους, ο αριθμός των εικόνων της πιο σοβαρής κατηγορίας (κατηγορία Α) είχε αυξηθεί κατά 10%.
Οι ειδικοί λένε ότι το υλικό σεξουαλικής κακοποίησης παιδιών με τεχνητή νοημοσύνη μπορεί συχνά να φαίνεται απίστευτα ρεαλιστικό, καθιστώντας δύσκολο να ξεχωρίσει κανείς το πραγματικό από το ψεύτικο.
Πηγή: tanea.gr