Εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται με τη χρήση εφαρμογών Τεχνητής Νοημοσύνης (ΤΝ) πληθαίνουν, καθιστώντας ολοένα και πιο δύσκολο τον εντοπισμό των θυμάτων και των δραστών, προειδοποίησε η Europol.
«Ο όγκος των αυτόματα κατασκευασμένων εικόνων σεξουαλικού υλικού αποτελεί πλέον ένα σημαντικό και αυξανόμενο μέρος του υλικού σεξουαλικής παιδικής πορνογραφίας στο διαδίκτυο» και «αναμένεται να εξαπλωθεί περαιτέρω στο εγγύς μέλλον», υπογραμμίζει σε έκθεσή της η ευρωπαϊκή αστυνομική υπηρεσία που εδρεύει στη Χάγη.
Ακόμη και σε περιπτώσεις όπου το περιεχόμενο είναι εξ ολοκλήρου δημιούργημα Τεχνητής Νοημοσύνης και δεν απεικονίζονται πραγματικά θύματα, το υλικό παιδικής πορνογραφίας που δημιουργείται από την ΤΝ εξακολουθεί να συμβάλλει στην εξαντικειμενοποίηση και σεξουαλικοποίηση παιδιών, τόνισε η Europol.
Η χρήση εφαρμογών ΤΝ για τη δημιουργία ή την τροποποίηση υλικού σεξουαλικής παιδικής πορνογραφίας αυξάνει επίσης «την ποσότητα του παράνομου υλικού που κυκλοφορεί και περιπλέκει την αναγνώριση των θυμάτων καθώς και των δραστών».
Η έλευση εφαρμογών Τεχνητής Νοημοσύνης προκαλεί αυξανόμενη ανησυχία σχετικά με τη χρήση των εφαρμογών αυτών για κακόβουλους σκοπούς, ιδιαίτερα μέσω της δημιουργίας «deepfakes» – εικόνων και βίντεο που δημιουργούνται στον υπολογιστή, συχνά ρεαλιστικών, που βασίζονται σε ένα πραγματικό μοντέλο.
Περισσότερα από 300 εκατομμύρια παιδιά πέφτουν θύματα διαδικτυακής σεξουαλικής εκμετάλλευσης και κακοποίησης κάθε χρόνο, δήλωσαν ερευνητές από το Πανεπιστήμιο του Εδιμβούργου τον Μάιο.
Τα αδικήματα κυμαίνονται από εκβιασμό που στοχεύει εφήβους μετά τη μετάδοση στο διαδίκτυο σεξουαλικής φύσης φωτογραφιών και βίντεο (“sextorsion”), μέχρι τον καταχρηστικό τρόπο χρήσης της Τεχνητής Νοημοσύνης για τη δημιουργία πλαστών βίντεο και εικόνων, σύμφωνα με ερευνητές.
Εκτός από τη δημιουργία σκληρά άσεμνων εικόνων ανηλίκων, οι εγκληματίες χρησιμοποιούν την ΤΝ για να διαπράξουν μια σειρά από εγκλήματα που κυμαίνονται από διαδικτυακή απάτη έως κυβερνοεπιθέσεις, αναφέρει επίσης το 37σελιδο έγγραφο της Europol, το οποίο χαρτογραφεί τις διαδικτυακές απειλές που αντιμετωπίζει αυτή τη στιγμή η Ευρώπη.
«Ο όγκος των αυτόματα κατασκευασμένων εικόνων σεξουαλικού υλικού αποτελεί πλέον ένα σημαντικό και αυξανόμενο μέρος του υλικού σεξουαλικής παιδικής πορνογραφίας στο διαδίκτυο» και «αναμένεται να εξαπλωθεί περαιτέρω στο εγγύς μέλλον», υπογραμμίζει σε έκθεσή της η ευρωπαϊκή αστυνομική υπηρεσία που εδρεύει στη Χάγη.
Ακόμη και σε περιπτώσεις όπου το περιεχόμενο είναι εξ ολοκλήρου δημιούργημα Τεχνητής Νοημοσύνης και δεν απεικονίζονται πραγματικά θύματα, το υλικό παιδικής πορνογραφίας που δημιουργείται από την ΤΝ εξακολουθεί να συμβάλλει στην εξαντικειμενοποίηση και σεξουαλικοποίηση παιδιών, τόνισε η Europol.
Η χρήση εφαρμογών ΤΝ για τη δημιουργία ή την τροποποίηση υλικού σεξουαλικής παιδικής πορνογραφίας αυξάνει επίσης «την ποσότητα του παράνομου υλικού που κυκλοφορεί και περιπλέκει την αναγνώριση των θυμάτων καθώς και των δραστών».
Η έλευση εφαρμογών Τεχνητής Νοημοσύνης προκαλεί αυξανόμενη ανησυχία σχετικά με τη χρήση των εφαρμογών αυτών για κακόβουλους σκοπούς, ιδιαίτερα μέσω της δημιουργίας «deepfakes» – εικόνων και βίντεο που δημιουργούνται στον υπολογιστή, συχνά ρεαλιστικών, που βασίζονται σε ένα πραγματικό μοντέλο.
Περισσότερα από 300 εκατομμύρια παιδιά πέφτουν θύματα διαδικτυακής σεξουαλικής εκμετάλλευσης και κακοποίησης κάθε χρόνο, δήλωσαν ερευνητές από το Πανεπιστήμιο του Εδιμβούργου τον Μάιο.
Τα αδικήματα κυμαίνονται από εκβιασμό που στοχεύει εφήβους μετά τη μετάδοση στο διαδίκτυο σεξουαλικής φύσης φωτογραφιών και βίντεο (“sextorsion”), μέχρι τον καταχρηστικό τρόπο χρήσης της Τεχνητής Νοημοσύνης για τη δημιουργία πλαστών βίντεο και εικόνων, σύμφωνα με ερευνητές.
Εκτός από τη δημιουργία σκληρά άσεμνων εικόνων ανηλίκων, οι εγκληματίες χρησιμοποιούν την ΤΝ για να διαπράξουν μια σειρά από εγκλήματα που κυμαίνονται από διαδικτυακή απάτη έως κυβερνοεπιθέσεις, αναφέρει επίσης το 37σελιδο έγγραφο της Europol, το οποίο χαρτογραφεί τις διαδικτυακές απειλές που αντιμετωπίζει αυτή τη στιγμή η Ευρώπη.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου