Ads Section

ΕΛΛΑΔΑ

Εμφάνιση αναρτήσεων με ετικέτα Τεχνητη Νοημοσυνη. Εμφάνιση όλων των αναρτήσεων
Εμφάνιση αναρτήσεων με ετικέτα Τεχνητη Νοημοσυνη. Εμφάνιση όλων των αναρτήσεων

Η τεχνητή νοημοσύνη δημιουργεί έργα ζωγραφικής, εικόνων, γλυπτών και μερικά να πωλούνται ακριβά - Τέλος ο άνθρωπος από την Τέχνη;

 


 Καθώς η τεχνητή νοημοσύνη ξεφεύγει σε όλο και περισσότερους δημιουργικούς τομείς, εγείρει ερωτήματα σχετικά με το πώς πρέπει να ορίσουμε την τέχνη


Η τεχνητή νοημοσύνη χρησιμοποιείται για τη δημιουργία έργων ζωγραφικής, εικόνων, ακόμη και γλυπτών, με μερικά να πωλούνται για χιλιάδες δολάρια. Χρειάζεται να επαναπροσδιορίσουμε τον ορισμό της τέχνης;

Στο σαλόνι ενός επιβλητικού σπιτιού στο αγροτικό Oxfordshire, παρακολουθώ έναν καλλιτέχνη ντυμένο με μπουντρούμια αργά και επίτηδες να βάζει στυλό στο χαρτί. Το χέρι της κινείται στον καμβά, τα σημάδια σταδιακά συνενώνονται σε ένα αφηρημένο πορτρέτο του εαυτού της.

Φαίνεται σαν μια στιγμή δημιουργικής έκφρασης. Αλλά αυτή δεν είναι μια συνηθισμένη καλλιτέχνις – είναι η πρώτη ανθρωποειδής καλλιτέχνιδα ρομπότ στον κόσμο, η Ai-Da. Σχεδιαστικά, η ίδια η ύπαρξή της θέτει υπό αμφισβήτηση πώς ορίζουμε την τέχνη και ποιος, ή σε αυτήν την περίπτωση, τι μπορεί να τη δημιουργήσει.

Οι αλγόριθμοι τεχνητής νοημοσύνης και τα ρομπότ όπως ο Ai-Da θα σημαδέψουν το τέλος της ανθρώπινης δημιουργικότητας και τέχνης ή μπορούν να αξιοποιηθούν για να αυξήσουν τις δικές μας δημιουργικές δυνατότητες; 


 

Όταν ο Marcel Duchamp πρότεινε ένα πορσελάνινο ουρητήριο να θεωρείται τέχνη και το υπέβαλε για έκθεση στις αρχές του 20ου αιώνα στη Νέα Υόρκη, ανέτρεψε τον κόσμο της τέχνης στο κεφάλι του. Υποστήριξε ότι οτιδήποτε θα μπορούσε να θεωρηθεί ως τέχνη, εάν επιλεγεί από τον καλλιτέχνη και χαρακτηριστεί ως τέτοιο. Ήταν μια βαθιά επαναστατική σκέψη που αμφισβήτησε τις προηγούμενες αντιλήψεις για την τέχνη ως όμορφη, τεχνικά επιδέξια και συγκινητική.

AI v the Mind

Αυτό το άρθρο είναι μέρος του AI v the Mind , μια σειρά που στοχεύει να εξερευνήσει τα όρια της τεχνητής νοημοσύνης αιχμής και να μάθει λίγα πράγματα για το πώς λειτουργεί ο δικός μας εγκέφαλος στην πορεία. Κάθε άρθρο θα φέρει έναν ανθρώπινο ειδικό απέναντι σε ένα εργαλείο AI για να διερευνήσει μια διαφορετική πτυχή της γνωστικής ικανότητας. Μπορεί μια μηχανή να γράψει καλύτερο αστείο από έναν επαγγελματία κωμικό ή να ξεδιαλύνει ένα ηθικό αίνιγμα πιο κομψά από έναν φιλόσοφο; Ελπίζουμε να μάθουμε.]


 

Με τον ίδιο περίπου τρόπο, τα έργα τέχνης που δημιουργούνται από την τεχνητή νοημοσύνη διαταράσσουν τους αποδεκτούς κανόνες του κόσμου της τέχνης. Όπως υποστηρίζει η φιλόσοφος Alice Helliwell από το Northeastern University του Λονδίνου, εάν μπορούμε να θεωρήσουμε ριζοσπαστικά και αποκλίνοντα κομμάτια όπως το ουρητήριο του Duchamp και το κρεβάτι της Tracey Emin ως τέχνη, πώς μπορεί κάτι που δημιουργείται από έναν παραγωγικό αλγόριθμο να απορριφθεί; Άλλωστε, και τα δύο ήταν αμφιλεγόμενα εκείνη την εποχή και περιέχουν αντικείμενα που δεν έχουν δημιουργηθεί τεχνικά από το χέρι ενός «καλλιτέχνη».

«Ιστορικά, ο τρόπος με τον οποίο κατανοούμε τον ορισμό της τέχνης έχει αλλάξει», λέει ο Heliwell. «Είναι δύσκολο να καταλάβει κανείς γιατί ένα ουρητήριο μπορεί να είναι τέχνη, αλλά η τέχνη που φτιάχνεται από έναν παραγωγικό αλγόριθμο δεν θα μπορούσε να είναι».

Καθ' όλη τη διάρκεια της ιστορίας, κάθε ριζοσπαστικό καλλιτεχνικό κίνημα έχει συνδεθεί στενά με το πολιτιστικό κέφι της εποχής, μια αντανάκλαση των ανησυχιών και των ανησυχιών της κοινωνίας, όπως ο Turner και τα βιομηχανικά τοπία του και η εμμονή του Da Vinci με τις επιστήμες και τα μαθηματικά. Το AI δεν διαφέρει. Οι δημιουργοί του Ai-Da, ο γκαλερίστας Aidan Meller και η ερευνήτρια Lucy Seal αναφέρουν αυτό ως βασικό λόγο για την ύπαρξη ενός ανθρωποειδούς καλλιτέχνη όπως ο Ai-Da. Είναι η προσωποποίηση ενός από τους τρέχοντες φόβους της σύγχρονης κοινωνίας, της άνοδος των αλγορίθμων τεχνητής νοημοσύνης που αρπάζουν δουλειά και της πιθανής κυριαρχίας των ρομπότ. 

 

 

Αλλά οι τεχνολογικές επαναστάσεις όπως η τεχνητή νοημοσύνη δεν χρειάζεται να σημαίνουν το «τέλος της τέχνης», όπως πολλοί φοβούνται. Αντίθετα, μπορούν να βοηθήσουν στην έναρξη μιας καλλιτεχνικής μεταμόρφωσης και να μας οδηγήσουν προς εντελώς διαφορετικούς τρόπους θέασης και δημιουργίας, κάτι που ο Marcus du Sautoy, μαθηματικός στο Πανεπιστήμιο της Οξφόρδης και συγγραφέας του The Creativity Code: Art and Innovation in the Age of AI , θα υποστήριζε.

Οι άνθρωποι είναι εξίσου επιρρεπείς στο να συμπεριφέρονται σαν μηχανές, να επαναλαμβάνουν παλιές συμπεριφορές και να κολλάνε σε κανόνες, όπως ένας ζωγράφος ή ένας μουσικός κλειδωμένος σε ένα συγκεκριμένο στυλ. «Η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει να σταματήσουμε να συμπεριφερόμαστε σαν μηχανές…και να μας κάνει να γίνουμε ξανά δημιουργικοί ως άνθρωποι», λέει ο du Sautoy. Το βλέπει ως έναν ισχυρό συνεργάτη στην επιδίωξη της ανθρώπινης δημιουργικότητας. 

 

 

Υπάρχει ιστορικό προβάδισμα για τη νέα τεχνολογία που μας απελευθερώνει από τα δημιουργικά μας δεσμά. Πάρτε για παράδειγμα την εφεύρεση της φωτογραφίας το 1800. Μερικοί καλλιτέχνες έβλεπαν την κάμερα ως το αντίθετο ενός καλλιτέχνη και τις φωτογραφίες ως τον θανάσιμο εχθρό του καλλιτεχνικού κατεστημένου.

Αλλά αντί να αντικαταστήσει τη ζωγραφική, η φωτογραφία έγινε καταλύτης στην ανάπτυξη του πειραματικού κινήματος μοντέρνας τέχνης του 20ου αιώνα, καθώς οι καλλιτέχνες απομακρύνθηκαν από τον ρεαλισμό προς την αφαίρεση, μια στροφή που άνοιξε το δρόμο για τη σύγχρονη τέχνη του σήμερα.

Αγωγή κατά ιδιοκτήτριας εταιρίας προγράμματος τεχνητής νοημοσύνης για προτροπή αυτοκτονίας σε 14χρονο

 


Τον Φεβρουάριο του 2024 ένας 14χρονος από τη Φλόριντα, ο Sewell Setzer III, έδωσε τέλος στη ζωή του. Το αγόρι αυτοκτόνησε αφού είχε αναπτύξει μια παράξενη, σχεδόν εμμονική σχέση με το Character.ΑΙ, ένα πρόγραμμα τεχνητής νοημοσύνης που δημιουργούσε παιχνίδια ρόλων.

Σήμερα η μητέρα του, Megan Garcia υπέβαλε αγωγή κατά της Character.ΑΙ, της ιδιοκτήτριας εταιρίας του προγράμματος τεχνητής νοημοσύνης, η οποία θεωρεί ότι το πρόγραμμα προέτρεψε τον γιο της να αυτοκτονήσει.

 

Όπως ισχυρίζεται, ο γιος της στους τελευταίους μήνες της ζωής του αφιέρωνε ολόκληρα μερόνυχτα στο chatbot.

«Μια επικίνδυνη εφαρμογή τεχνητής νοημοσύνης που απευθύνεται σε παιδιά κακοποίησε τον γιο μου, οδηγώντας τον στο να αφαιρέσει τη ζωή του» ανακοίνωσε η Garcia στον Τύπο. «Η οικογένειά μας έχει διαλυθεί από αυτή την τραγωδία, αλλά αποφάσισα να μιλήσω για να προειδοποιήσω και άλλες για τους κινδύνους της παραπλανητικής, εθιστικής τεχνολογίας AI, φέρνοντας προ των ευθυνών τους το Character.AI, τους δημιουργούς του και την Google».

Η εταιρεία Character.AI τοποθετήθηκε με ένα tweet: «Είμαστε βαθιά πληγωμένοι από την τραγική απώλεια ενός από τους χρήστες μας και θέλουμε να εκφράσουμε τα συλλυπητήριά μας στην οικογένεια. Ως εταιρεία, παίρνουμε πολύ σοβαρά την ασφάλεια των χρηστών μας».

 

Το Character.AI έχει αναπτύξει νέα χαρακτηριστικά και πολιτικές ασφάλειας για τη δημιουργία και την αλληλεπίδραση με τις εικονικές προσωπικότητες που υποστηρίζονται από AI που φιλοξενεί. Τα νέα μέτρα στοχεύουν να καταστήσουν την πλατφόρμα ασφαλέστερη για όλους τους χρήστες, αλλά ιδιαίτερα για τους νεότερους. Η ενημέρωση περιλαμβάνει περισσότερο έλεγχο σχετικά με τον τρόπο με τον οποίο οι ανήλικοι αλληλεπιδρούν με το chatbot AI , περισσότερη εποπτεία περιεχομένου και καλύτερο εντοπισμό του AI που συζητά θέματα όπως ο αυτοτραυματισμός.

Αν και δεν αναφέρεται στην ανάρτηση ιστολογίου σχετικά με την ενημέρωση, το Character AI συνδέθηκε με την ανακοίνωση σε μια ανάρτηση στο X που εκφράζει συλλυπητήρια στην οικογένεια ενός 14χρονου που πέρασε μήνες αλληλεπιδρώντας με ένα από τα chatbot του Character.AI προτού αυτοκτονήσει . Η οικογένειά του έχει πλέον καταθέσει μήνυση κατά του Character.AI για άδικο θάνατο, επικαλούμενη την έλλειψη διασφαλίσεων για τα chatbot της AI ως συνεισφέρον στην αυτοκτονία του.

Διαθέσιμος και στα ελληνικά ο βοηθός ΑΙ (Τεχνητή Νοημοσύνη) Copilot της Microsoft

Η Microsoft ανακοίνωσε νέες υποστηριζόμενες γλώσσες στο Microsoft 365 Copilot, ανάμεσα στις οποίες και η ελληνική. Από σήμερα οι Έλληνες χρήστες θα έχουν τη δυνατότητα να αξιοποιούν τις δυνατότητες του Copilot στην γλώσσα τους, αναβαθμίζοντας στο μέγιστο την εμπειρία χρήσης και διευκολύνοντας ακόμα περισσότερο την καθημερινότητα τους.


Η προσθήκη της ελληνικής γλώσσας στο Microsoft 365 Copilot έρχεται σε συνέχεια του αυξανόμενου ρυθμού υιοθέτησης των εργαλείων τεχνητής νοημοσύνης, από επαγγελματίες κάθε κλάδου, καθώς και από τις μικρές και μεσαίες επιχειρήσεις της χώρας, με στόχο την ενίσχυση της ενσωμάτωσης της τεχνολογίας στην εργασιακή καθημερινότητα, τη διεύρυνση των δεξιοτήτων των εργαζόμενων και την ταχύτερη εξυπηρέτηση των αναγκών τους.
Τι είναι το Microsoft 365 Copilot

Το Microsoft 365 Copilot αποτελεί έναν «συνάδελφο» που μπορεί να ενισχύσει την παραγωγικότητα και τη δημιουργικότητα όλων των χρηστών, ανεξαρτήτως χώρου δραστηριοποίησης, και μπορεί να χρησιμοποιηθεί σε όλες εφαρμογές παραγωγικότητας, όπως Word, Excel, PowerPoint, Outlook, Teams ή Business Chat (BizChat).

Voice phishing: Τέλειος απατεώνας η Τεχνητή Νοημοσύνη (ΑΙ) με το λογισμικό της κλωνοποίησης της φωνής

 

 

 Οι διαδικτυακοί απατεώνες θα προσπαθήσουν να σας εξαπατήσουν ώστε να παραιτηθείτε από τους κωδικούς πρόσβασής σας ή άλλες προσωπικές πληροφορίες παριστάνοντας ως νόμιμους ιστότοπους. Συχνά, θα ενεργούν ακόμη και με τον ίδιο τρόπο με τους ιστότοπους στους οποίους συνδέεστε τακτικά. Αυτές οι απειλές αποφεύγονται εύκολα με ένα πρόγραμμα προστασίας από ιούς. Είναι χαρά μας να σας δείξουμε ποιες παρέχουν την καλύτερη προστασία από επιθέσεις phishing χωρίς να επηρεάζουν την απόδοση του υπολογιστή σας ή να εμποδίζουν την εργασία σας.

Τρία δευτερόλεπτα ομιλίας χρειάζεται μια εφαρμογή Τεχνητής Νοημοσύνης για να κλωνοποιήσει τη φωνή σας -ή κάποιου αγαπημένου σας. Από εκεί και πέρα, για να ολοκληρωθεί το vishing -όπως ονομάζεται το voice phishing- χρειάζεται η υποκλοπή προσωπικών στοιχείων και επαφών, η κλωνοποίηση της κάρτας SIM (εγκληματικές πρακτικές που είναι πολύ διαδεδομένες σήμερα) και η ανάθεση στην ΑΙ εφαρμογή του μηνύματος που θα εκφωνηθεί -στον κατάλληλο τόνο, φυσικά. Η απάτη, τώρα, έχει γίνει τόσο πειστική, που μπορεί να παρασύρει ακόμα και τον πλέον ενημερωμένο. Φυσικά, όλα μπορούν να γίνουν πολύ ευκολότερα με τη χρήση ενός κομματιού από βίντεο και των άλλων πληροφοριών που έχουν αναρτηθεί σε κοινωνικά δίκτυα.

Το πόσο εύκολο είναι να υποκλαπεί η φωνή σας ή κάποιου αγαπημένου σας προσώπου δεν είναι δύσκολο να το φανταστεί κανείς. Από μια τηλεφωνική κλήση ως μια σύντομη περιπλάνηση στο TikTok, στο Facebook και τα άλλα κοινωνικά δίκτυα, όπου αναρτώνται δεκάδες βίντεο καθημερινά από τον κάθε χρήστη…

 Παρότι είναι πολύ καινούριος, αυτός ο τύπος τηλεφωνικής απάτης έχει γίνει πολύ δημοφιλής στις ΗΠΑ και την Ασία και τώρα έρχεται και στην Ευρώπη. Η βρετανική τράπεζα Starling Bank εξέδωσε ανακοίνωση την προηγούμενη εβδομάδα, προειδοποιώντας ότι «εκατομμύρια άνθρωποι μπορούν να πέσουν θύματα απάτης που χρησιμοποιεί προγράμματα ΑΙ για κλωνοποίηση της φωνής τους».

Στις ΗΠΑ, η απάτη έγινε ευρέως γνωστή όταν αποκαλύφθηκε ότι με τη χρήση αυτής της τεχνολογίας, χιλιάδες Δημοκρατικοί έλαβαν κλήση με τη φωνή του Τζο Μπάιντεν να τους παραινεί να απέχουν από τις εκλογές. Στην Κορέα, σοκ προκάλεσε η περίπτωση ενός επιχειρηματία ο οποίος πείστηκε ότι συμμετείχε σε βιντεοκλήση με τα διευθυντικά στελέχη της εταιρείας του, που στην πραγματικότητα ήταν εγκληματίες, οι οποίοι του απέσπασαν 25 εκατ. δολάρια.


Οι μιμητές φωνής με Τεχνητή Νοημοσύνη κάνουν πλέον τις τηλεφωνικές απάτες πιο πιστευτές και πιο επικίνδυνες από ποτέ, λέει ο δΔιευθυντής Τεχνολογίας της εταιρείας κυβερνοασφάλειας McAfee Στιβ Γκρόμπμαν. Παγκοσμίως, περίπου ένας στους τέσσερις ανθρώπους έχει είτε πέσει θύμα είτε γνωρίζει κάποιον που έπεσε θύμα απάτης με Τεχνητή Νοημοσύνη, σύμφωνα με έκθεση της εταιρείας Beware the Artificial Imposter, με το 77% των θυμάτων να χάνει χρήματα.

Με την εταιρεία κυβερνοασφαλείας να διαπιστώνει ότι κάθε τρίμηνο γίνονται 6,5 δισεκατομμύρια κλήσεις απάτης σε όλο τον κόσμο και ότι ο κάθε Αμερικανός λαμβάνει κατά μέσο όρο 12 κλήσεις απάτης κάθε μήνα, ο «εκσυγχρονισμός» αυτής της εγκληματικής βιομηχανίας ήταν θέμα χρόνου. Ο CEO της Breachsense Τζος Αμισαβ λέει ότι «με την πρόοδο της τεχνολογίας text-to-speech της Tεχνητής Nοημοσύνης, οι τεχνικές απάτης θα γίνουν σημαντικά πιο εκλεπτυσμένες. Oταν συνδυάζονται με δεδομένα που έχουν διαρρεύσει ή κλαπεί, οι επιτήδειοι μπορούν να προσποιηθούν ότι είναι κάποιος γνωστός του θύματός τους και να προσθέτουν προσωπικές λεπτομέρειες για να αυξήσουν την αξιοπιστία της απάτης». Οι απάτες αυτού του είδους έχουν πάρει τόσο μεγάλες διαστάσεις που γερουσιαστής της Αριζόνα, στις ΗΠΑ, πρότεινε να αλλάξει ο νόμος και να λογίζεται η Τεχνητή Νοημοσύνη ως όπλο όταν χρησιμοποιείται για τη διάπραξη εγκλήματος, ώστε να γίνουν μεγαλύτερες οι ποινές για τους απατεώνες.

Για τις συμμορίες που τρέχουν αυτό το είδος της απάτης δεν χρειάζονται και πολλά. Αρκεί μια «επένδυση» ύψους μερικών εκατοντάδων ευρώ για να μπουν στον χώρο του audio deepfake. Υπάρχουν αρκετές εταιρείες οι οποίες έχουν εφαρμογές ΑΙ και deep learning οι οποίες μπορούν να παράγουν αντίγραφα οποιασδήποτε φωνής τόσο υψηλής ποιότητας που μπορούν να ξεγελάσουν τον καθένα. Ολες δημιουργήθηκαν για άλλους λόγους, όπως για τη χρήση σε κινηματογραφικές παραγωγές, για την εκφώνηση e-books σε διάφορες γλώσσες, για τον δανεισμό φωνών διασήμων σε διαφημιστικά ή σε πιο… ευφάνταστες εφαρμογές. Για παράδειγμα, αλυσίδα εστιατορίων στις ΗΠΑ χρησιμοποιεί την κλωνοποιημένη φωνή του διάσημου παίκτη του αμερικανικού ποδοσφαίρου Κιθ Μπάιαρς για να παίρνει παραγγελίες, ενώ εταιρεία στη Νότια Κορέα επαναφέρει τις φωνές αγαπημένων προσώπων που έχουν φύγει από τη ζωή στους συγγενείς τους. Τη συναντάμε, όμως, και για άλλους καλούς σκοπούς, όπως η εφαρμογή Voice Keeper, η οποία χρησιμοποιεί τεχνητά δείγματα από τη φωνή ενός ατόμου που πάσχει από ασθένειες όπως ο καρκίνος του φάρυγγα, το Πάρκινσον, το ALS, οι οποίες προκαλούν αφωνία, για να εκφωνεί κείμενα με αυτή. Ηταν όμως ζήτημα χρόνου η χρήση αυτής της τεχνολογίας και για κακούς σκοπούς.

Τα σενάρια που χρησιμοποιούνται

Με τη χρήση της τεχνολογίας μίμησης φωνής, οι συμμορίες έχουν τώρα μπροστά τους ένα πολύ μεγαλύτερο εύρος σεναρίων να χρησιμοποιήσουν για να καταφέρουν να φτάσουν στον τελικό τους σκοπό, να αποσπάσουν δηλαδή όσο περισσότερα χρήματα γίνεται από τα θύματά τους.

 Παρότι είναι πολύ καινούριος, αυτός ο τύπος τηλεφωνικής απάτης έχει γίνει πολύ δημοφιλής στις ΗΠΑ και την Ασία και τώρα έρχεται και στην Ευρώπη. Η βρετανική τράπεζα Starling Bank εξέδωσε ανακοίνωση την προηγούμενη εβδομάδα, προειδοποιώντας ότι «εκατομμύρια άνθρωποι μπορούν να πέσουν θύματα απάτης που χρησιμοποιεί προγράμματα ΑΙ για κλωνοποίηση της φωνής τους».

Στις ΗΠΑ, η απάτη έγινε ευρέως γνωστή όταν αποκαλύφθηκε ότι με τη χρήση αυτής της τεχνολογίας, χιλιάδες Δημοκρατικοί έλαβαν κλήση με τη φωνή του Τζο Μπάιντεν να τους παραινεί να απέχουν από τις εκλογές. Στην Κορέα, σοκ προκάλεσε η περίπτωση ενός επιχειρηματία ο οποίος πείστηκε ότι συμμετείχε σε βιντεοκλήση με τα διευθυντικά στελέχη της εταιρείας του, που στην πραγματικότητα ήταν εγκληματίες, οι οποίοι του απέσπασαν 25 εκατ. δολάρια.


Βρετανία: Συναγερμός στις αρχές από την αύξηση βίντεο ΑΙ (Τεχνητής Νοημοσύνης) στο διαδίκτυο με σκηνές σεξουαλικής κακοποίησης παιδιών



Συναγερμός έχει σημάνει στην Βρετανία για την αύξηση των εικόνων ΑΙ που διακινούνται στο διαδίκτυο και απεικονίζουν σκηνές σεξουαλικής κακοποίησης παιδιών.

Το Ίδρυμα Παρακολούθησης του Διαδικτύου (Internet Watch Foundation, IWF) ανέφερε ότι η ποσότητα τέτοιου είδους περιεχομένου που δημιουργήθηκε μέσω τεχνητής νοημοσύνης και εντοπίστηκε στο διαδίκτυο τους τελευταίους έξι μήνες είχε ήδη ξεπεράσει το σύνολο του προηγούμενου έτους.




Ο παγκόσμιος οργανισμός, που διαχειρίζεται και την γραμμή καταγγελιών στο Ηνωμένο Βασίλειο, δήλωσε ότι σχεδόν όλο το περιεχόμενο βρέθηκε σε δημόσια προσβάσιμα μέρη του διαδικτύου και όχι στο dark web.
Ο διαχωρισμός μεταξύ αληθινών και τεχνητών εικόνων γίνεται όλο και πιο δύσκολος

Ο προσωρινός διευθύνων σύμβουλος του IWF, Derek Ray-Hill, δήλωσε ότι το επίπεδο πολυπλοκότητας στις εικόνες υποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιήθηκαν είχαν εκπαιδευτεί με εικόνες και βίντεο πραγματικών θυμάτων. «Τα δεδομένα των τελευταίων μηνών δείχνουν ότι αυτό το πρόβλημα δεν εξαφανίζεται, αντιθέτως, γίνεται χειρότερο», ανέφερε.

Όπως ανέφερε μέλος του IWF, η κατάσταση με το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη (AI) έχει φτάσει σε ένα «κρίσιμο σημείο», καθώς οι αρμόδιοι φορείς ασφαλείας και οι αρχές δεν είναι σε θέση να γνωρίζουν αν μια εικόνα περιλαμβάνει ένα πραγματικό παιδί που χρειάζεται βοήθεια.



Το IWF έλαβε μέτρα κατά 74 αναφορών υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που έχουν δημιουργηθεί από τεχνητή νοημοσύνη και ήταν αρκετά ρεαλιστικό ώστε να παραβιάζει τη βρετανική νομοθεσία, μέσα σε έξι μήνες μέχρι τον περασμένο Σεπτέμβριο, σε σύγκριση με 70 αναφορές σε διάστημα 12 μηνών μέχρι τον Μάρτιο.

Εκτός από εικόνες τεχνητής νοημοσύνης που απεικονίζουν πραγματικά θύματα κακοποίησης, το IWF έχει δει επίσης υλικό όπως βίντεο «deepfake», στα οποία πορνογραφικό περιεχόμενο ενηλίκων έχει παραποιηθεί ώστε να μοιάζει με υλικό σεξουαλικής κακοποίησης παιδιών.

© all rights reserved
made with by templateszoo