Συναγερμός έχει σημάνει στην Βρετανία για την αύξηση των εικόνων ΑΙ που διακινούνται στο διαδίκτυο και απεικονίζουν σκηνές σεξουαλικής κακοποίησης παιδιών.
Το Ίδρυμα Παρακολούθησης του Διαδικτύου (Internet Watch Foundation, IWF) ανέφερε ότι η ποσότητα τέτοιου είδους περιεχομένου που δημιουργήθηκε μέσω τεχνητής νοημοσύνης και εντοπίστηκε στο διαδίκτυο τους τελευταίους έξι μήνες είχε ήδη ξεπεράσει το σύνολο του προηγούμενου έτους.
Ο παγκόσμιος οργανισμός, που διαχειρίζεται και την γραμμή καταγγελιών στο Ηνωμένο Βασίλειο, δήλωσε ότι σχεδόν όλο το περιεχόμενο βρέθηκε σε δημόσια προσβάσιμα μέρη του διαδικτύου και όχι στο dark web.
Ο διαχωρισμός μεταξύ αληθινών και τεχνητών εικόνων γίνεται όλο και πιο δύσκολος
Ο προσωρινός διευθύνων σύμβουλος του IWF, Derek Ray-Hill, δήλωσε ότι το επίπεδο πολυπλοκότητας στις εικόνες υποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιήθηκαν είχαν εκπαιδευτεί με εικόνες και βίντεο πραγματικών θυμάτων. «Τα δεδομένα των τελευταίων μηνών δείχνουν ότι αυτό το πρόβλημα δεν εξαφανίζεται, αντιθέτως, γίνεται χειρότερο», ανέφερε.
Όπως ανέφερε μέλος του IWF, η κατάσταση με το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη (AI) έχει φτάσει σε ένα «κρίσιμο σημείο», καθώς οι αρμόδιοι φορείς ασφαλείας και οι αρχές δεν είναι σε θέση να γνωρίζουν αν μια εικόνα περιλαμβάνει ένα πραγματικό παιδί που χρειάζεται βοήθεια.
Το IWF έλαβε μέτρα κατά 74 αναφορών υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που έχουν δημιουργηθεί από τεχνητή νοημοσύνη και ήταν αρκετά ρεαλιστικό ώστε να παραβιάζει τη βρετανική νομοθεσία, μέσα σε έξι μήνες μέχρι τον περασμένο Σεπτέμβριο, σε σύγκριση με 70 αναφορές σε διάστημα 12 μηνών μέχρι τον Μάρτιο.
Εκτός από εικόνες τεχνητής νοημοσύνης που απεικονίζουν πραγματικά θύματα κακοποίησης, το IWF έχει δει επίσης υλικό όπως βίντεο «deepfake», στα οποία πορνογραφικό περιεχόμενο ενηλίκων έχει παραποιηθεί ώστε να μοιάζει με υλικό σεξουαλικής κακοποίησης παιδιών.
Ο διαχωρισμός μεταξύ αληθινών και τεχνητών εικόνων γίνεται όλο και πιο δύσκολος
Ο προσωρινός διευθύνων σύμβουλος του IWF, Derek Ray-Hill, δήλωσε ότι το επίπεδο πολυπλοκότητας στις εικόνες υποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιήθηκαν είχαν εκπαιδευτεί με εικόνες και βίντεο πραγματικών θυμάτων. «Τα δεδομένα των τελευταίων μηνών δείχνουν ότι αυτό το πρόβλημα δεν εξαφανίζεται, αντιθέτως, γίνεται χειρότερο», ανέφερε.
Όπως ανέφερε μέλος του IWF, η κατάσταση με το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη (AI) έχει φτάσει σε ένα «κρίσιμο σημείο», καθώς οι αρμόδιοι φορείς ασφαλείας και οι αρχές δεν είναι σε θέση να γνωρίζουν αν μια εικόνα περιλαμβάνει ένα πραγματικό παιδί που χρειάζεται βοήθεια.
Το IWF έλαβε μέτρα κατά 74 αναφορών υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που έχουν δημιουργηθεί από τεχνητή νοημοσύνη και ήταν αρκετά ρεαλιστικό ώστε να παραβιάζει τη βρετανική νομοθεσία, μέσα σε έξι μήνες μέχρι τον περασμένο Σεπτέμβριο, σε σύγκριση με 70 αναφορές σε διάστημα 12 μηνών μέχρι τον Μάρτιο.
Εκτός από εικόνες τεχνητής νοημοσύνης που απεικονίζουν πραγματικά θύματα κακοποίησης, το IWF έχει δει επίσης υλικό όπως βίντεο «deepfake», στα οποία πορνογραφικό περιεχόμενο ενηλίκων έχει παραποιηθεί ώστε να μοιάζει με υλικό σεξουαλικής κακοποίησης παιδιών.
Δεν υπάρχουν σχόλια
Δημοσίευση σχολίου