Ο όρος «deepfake» πρωτοεμφανίστηκε σε ένα φόρουμ του Reddit σχετικά με ψεύτικο πορνό που δημιουργήθηκε με τη βοήθεια της τεχνητής νοημοσύνης. Πλέον συγκαταλέγεται στο αγγλικό λεξικό της Οξφόρδης και ορίζεται ως μια εικόνα -ιδίως βίντεο- που έχει υποστεί ψηφιακή επεξεργασία για να απεικονίσει ένα άτομο να κάνει κάτι που δεν έκανε. Οι ειδικοί σε θέματα διαδικτυακής ασφάλειας λένε ότι πάνω από το 90% των deepfakes είναι πορνογραφικής φύσης.

Ads

Περισσότερες από 15 δισεκατομμύρια τέτοιες εικόνες έχουν δημιουργηθεί από τον Απρίλιο του 2022, σύμφωνα με την Everypixel Group, μια εταιρεία φωτογραφιών τεχνητής νοημοσύνης. Οι προμηθευτές που σχεδίασαν αυτά τα εργαλεία έχουν εγκαταστήσει φίλτρα ασφαλείας για να απαγορεύσουν τη δημιουργία ρητών εικόνων, αλλά επειδή μεγάλο μέρος του λογισμικού είναι ανοιχτού κώδικα, ο καθένας μπορεί να το χρησιμοποιήσει, να το αξιοποιήσει και να απενεργοποιήσει τις δικλείδες ασφαλείας, σύμφωνα με το Bloomberg.

Οι ειδικοί σε θέματα διαδικτυακής ασφάλειας λένε ότι πάνω από το 90% των deepfakes είναι πορνογραφικής φύσης. Μια μελέτη του 2019 από την Sensity (πρώην Deeptrace), μια εταιρεία κυβερνοασφάλειας με έδρα το Άμστερνταμ που παρακολουθεί τα μιντιακά παράγωγα της τεχνητής νοημοσύνης, υπολόγισε ότι πάνω από το 96% των deepfakes που υπήρχαν τότε ήταν μη συναινετική πορνογραφία γυναικών.

Το προφίλ των «δημιουργών»

Οι λόγοι για αυτά τα ποσοστά είναι αλληλένδετοι, τεχνικοί και με σαφές κίνητρο: Οι άνθρωποι που φτιάχνουν αυτά τα βίντεο είναι κατά πάσα πιθανότητα ετεροφυλόφιλοι άνδρες που εκτιμούν τη δική τους «ικανοποίηση» περισσότερο από ό,τι την προσωπικότητα των γυναικών. Και επειδή τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται σε ένα διαδίκτυο που βρίθει από εικόνες γυναικείων σωμάτων, ένα μεγάλο μέρος του μη συναινετικού πορνό που παράγουν αυτά τα συστήματα είναι πιο πιστευτό από ό,τι θα ήταν, ας πούμε, τα κλιπ που δημιουργούνται από υπολογιστή με χαριτωμένα ζωάκια που παίζουν.

Ads

Μια άλλη έρευνα που διεξήχθη από την ίδια ολλανδική εταιρεία διαπίστωσε ότι στο Telegram, πάνω από 680.000 γυναίκες και κορίτσια -μερικές από τις οποίες ήταν ανήλικες- αποτέλεσαν στόχο μιας υπηρεσίας bot τεχνητής νοημοσύνης, η οποία «έγδυσε» τις εικόνες τους, οι οποίες ελήφθησαν από σελίδες κοινωνικής δικτύωσης ή απευθείας από ιδιωτικές επικοινωνίες. Στη συνέχεια, το bot τις μοιράστηκε με τους χρήστες που ζήτησαν την εν λόγω υπηρεσία.

Μια δημοσκόπηση στους χρήστες του bot έδειξε ότι το 63% ενδιαφερόταν να δημιουργήσει ψεύτικες γυμνές φωτογραφίες «οικείων κοριτσιών, που γνωρίζω στην πραγματική ζωή». Η επόμενη πιο δημοφιλής απάντηση συγκέντρωσε το 16% των χρηστών και αφορούσε «διασημότητες, ηθοποιούς, τραγουδίστριες» και ένα 8% ήθελε να παραποιήσει φωτογραφίες μοντέλων από το Instagram.

Σεξουαλική κακοποίηση με βάση την εικόνα

Τα deepfakes διαδίδονται όλο και περισσότερο, ενώ το αποτέλεσμά τους είναι ολοένα και πιο πιστευτό. Κι ενώ η τεχνητή νοημοσύνη αναπτύσσεται, γίνεται ακόμα πιο προσιτή, φθηνότερη και ταχύτερη στη χρήση, παράλληλα αναδύεται μια μισογύνικη κακοποίηση που κατ’ ελάχιστο απαξιώνει, διαπομπεύει, εξευτελίζει και ταπεινώνει γυναίκες και κορίτσια. Το φαινόμενο είναι εδώ και τα θύματα, ως συνήθως, είναι απροστάτευτα. Μόλις πριν ένα μήνα, δύο μαθητές Γυμνασίου στη Ναύπακτο συνελήφθησαν διότι διακινούσαν, μέσω εφαρμογής, πλαστές γυμνές φωτογραφίες συμμαθητριών τους.

Τα deepfakes δεν αποτελούν απλώς παραβίαση της ιδιωτικής ζωής. Είναι επίσης μια μορφή σεξουαλικής βίας, που συχνά περιγράφεται από τους ειδικούς ως σεξουαλική κακοποίηση με βάση την εικόνα.

Και παρόλο που δεν υπάρχει ακόμη έρευνα σχετικά με τις επιπτώσεις της στα θύματα, θα μπορούσε να έχει παρόμοιες ψυχολογικές επιπτώσεις με άλλα εγκλήματα σεξουαλικής φύσης, συμπεριλαμβανομένων των συναισθημάτων ντροπής, ενοχής, χαμηλής αυτοεκτίμησης, αναδρομών, άγχους ή κατάθλιψης.

Όσο τα deepfakes βρίσκονται σε μια νομικά γκρίζα ζώνη, καθώς ενδέχεται να μην εμπίπτουν στο revenge porn δεδομένου ότι οι εικόνες δεν θεωρούνται «γνήσιες», έχουν το ίδιο καταστροφικό αποτέλεσμα για τα θύματα.