Τον περασμένο Μάιο, κυκλοφόρησε ένα βίντεο στο διαδίκτυο με τον Ντόναλντ Τραμπ να απευθύνεται στο λαό του Βελγίου για το ζήτημα της κλιματικής αλλαγής. «Όπως γνωρίζετε, είχα το θάρρος να αποσύρω τις ΗΠΑ από τη συμφωνία του Παρισιού για την κλιματική αλλαγή», φερόταν να είπε και κοιτάζοντας απευθείας στην κάμερα, συμπλήρωσε: «και έτσι πρέπει να κάνετε κι εσείς».

Ads

Το βίντεο δημιουργήθηκε από ένα βελγικό πολιτικό κόμμα, το Socialistische Partij Anders, ή sp.a, και προκάλεσε εκατοντάδες παρατηρήσεις, πολλές δε εκφράζανε οργή για την παρέμβαση και τις συμβουλές του Αμερικανού προέδρου στην κλιματική πολιτική του Βελγίου.

Το βίντεο, όπως αποκαλύφθηκε αργότερα, δεν ήταν τίποτα περισσότερο από μια πλαστογραφία υψηλής τεχνολογίας. Οι εκπρόσωποι του Sp.a υποστήριξαν ότι είχαν αναθέσει σε ένα στούντιο παραγωγής να χρησιμοποιήσουν τη μηχανική μάθηση για να παράξουν αυτό που είναι γνωστό ως «deep» fake news. Τι σημαίνει αυτό; Πολύ απλά, ότι η πρόοδος στην τεχνολογία ήχου – εικόνας έχει φτάσει σε τέτοιο σημείο ώστε μπορούμε στο στόμα ενός πολιτικού που τον βλέπουμε να μιλάει να του βάλουμε -με τη φωνή του- φράσεις που ποτέ δεν έχει πει.

Η πρόθεση της Sp.a ήταν να χρησιμοποιήσει το ψεύτικο βίντεο για να τραβήξει την προσοχή των ανθρώπων και στη συνέχεια να την ανακατευθύνει σε μια ηλεκτρονική πλατφόρμα που καλεί τη βελγική κυβέρνηση να αναλάβει πιο επείγουσα δράση για το κλίμα. Οι δημιουργοί του βίντεο αργότερα δήλωσαν ότι υπολόγιζαν πως η κακή ποιότητα του ψεύτικου βίντεο θα ήταν αρκετή για να προειδοποιήσει τους θεατές του. «Είναι σαφές από τα χείλη ότι αυτό δεν είναι μια πραγματική ομιλία του Τραμπ», δήλωσε ένας εκπρόσωπος του sp.a στο Politico.

Η ομάδα επικοινωνίας του κόμματος είχε υποτιμήσει σαφώς τη δύναμη της πλαστογραφίας τους ή ίσως υπερεκτίμησε την αντίληψη του ακροατηρίου τους. Είτε έτσι είτε αλλιώς, αυτό το μικρό, αριστερόστροφο πολιτικό κόμμα είχε γίνει, ενδεχομένως άθελά του, το πρώτο παράδειγμα της χρήσης παραποιήσεων και «deep» fake news σε ένα αυστηρά πολιτικό πλαίσιο.

Ads

Ήταν τελικά μια μικρή επίδειξη του τρόπου με τον οποίο αυτή η τεχνολογία θα μπορούσε να χρησιμοποιηθεί για να απειλήσει το ήδη ευάλωτο σύστημα πληροφοριών – και ίσως να υπονομεύσει τη δυνατότητα μιας αξιόπιστης, κοινής πραγματικότητας.

Διαβάστε επίσης

Μετά τα fake news, έρχονται τα Deep fakes 

Τα ψεύτικα βίντεο μπορούν τώρα να δημιουργηθούν χρησιμοποιώντας τη Μηχανική Μάθηση, ένα νέο πεδίο της επιστήμης των υπολογιστών που αναπτύχθηκε από τη μελέτη της αναγνώρισης προτύπων και της υπολογιστικής θεωρίας μάθησης στην τεχνητή νοημοσύνη. Ουσιαστικά, πρόκειται για την επόμενη γενιά των ψευδών ειδήσεων, με τη συμβολή της τεχνητής νοημοσύνης και της μηχανικής μάθησης, κυρίως μέσω του γενετικού αλγόριθμου (GAN).

Για παράδειγμα, ένα GAN μπορεί να δει χιλιάδες φωτογραφίες του Μπαράκ Ομπάμα, και στη συνέχεια να παράγει μια νέα φωτογραφία που προσεγγίζει τις φωτογραφίες αυτές, χωρίς να είναι ακριβές αντίγραφο κάποιας, έχει καταλήξει δηλαδή σε ένα εντελώς νέο πορτρέτο του πρώην προέδρου που δεν έχει ακόμη ληφθεί. Τα αρχεία GAN μπορούν επίσης να χρησιμοποιηθούν για τη δημιουργία νέου ήχου από υπάρχοντα ήχο ή νέου κείμενου από υπάρχον κείμενο – αφού είναι τεχνολογία πολλαπλών χρήσεων.

Ήδη στις σκοτεινές γωνιές του Διαδικτύου κάποιοι έχουν αρχίσει να χρησιμοποιούν αλγόριθμους μηχανικής μάθησης και λογισμικό ανοιχτού κώδικα για να δημιουργήσουν πορνογραφικά βίντεο στα οποία τα πρόσωπα των πραγματικών πρωταγωνιστών έχουν αντικατασταθεί απολύτως ρεαλιστικά από εκείνα διαφόρων διασημοτήτων ή άλλων γνωστών προσώπων. Σε ερευνητικά κέντρα όπως αυτό του πανεπιστημίου του Στάνφορντ, οι τεχνολόγοι έχουν δημιουργήσει προγράμματα που συνδυάζουν και αναμιγνύουν καταγεγραμμένα πλάνα βίντεο με τεχνικές ανίχνευσης προσώπου σε πραγματικό χρόνο ώστε να αλλοιώσουν συγκεκριμένες σκηνές σε μια ζωντανή μετάδοση.

Ας το εξηγήσουμε πιο απλά. Το πρόγραμμα καταγράφει τις εκφράσεις προσώπου του δεύτερου ατόμου καθώς μιλά μπροστά σε μία ψηφιακή κάμερα και στη συνέχεια μεταφέρει αυτές τις κινήσεις απευθείας στο πρόσωπο του προσώπου στο αρχικό βίντεο. Η ερευνητική ομάδα του Στάνφορντ έδωσε ένα μικρό παράδειγμα χρησιμοποιώντας την τεχνολογία του «κουκλοθέατρου» σ’ αυτό το βίντεο με συνεντεύξεις πολιτικών ηγετών.

Ομοίως, επιστήμονες στο πανεπιστήμιο της Ουάσιγκτον έστησαν με επιτυχία ένα πρόγραμμα που μπορεί να μετατρέπει ηχητικά κλιπ ομιλίας σε ρεαλιστικά βίντεο όπου ένα άτομο εμφανίζεται πραγματικά σαν να μιλάει το ίδιο. Ως απόδειξη της ιδέας τους, οι δύο ομάδες αλλοίωσαν μια σειρά τηλεοπτικών μεταδόσεων εμφανίζοντας γνωστούς ηγέτες να κάνουν δηλώσεις που βεβαίως ποτέ δεν έκαναν.

Ήδη είναι προσβάσιμο το FakeApp, μια εύχρηστη πλατφόρμα, όπου το ελεύθερο λογισμικό «εκδημοκρατίζει» αποτελεσματικά τη δύναμη των GAN.

Οι κίνδυνοι δυνητικά αυτής της τεχνολογίας είναι προφανείς. Οποιοσδήποτε έχει πρόσβαση σε αυτήν την τεχνολογία – από κρατικούς προπαγανδιστές μέχρι τρόλς – θα είναι σε θέση να αποκρύψει πληροφορίες, να χειριστεί τις πεποιθήσεις, να προωθήσει ιδεολογίες, να απορρυθμίσει συνολικά την κοινωνική τάξη και ειρήνη.

Ο Tim Hwang, διευθυντής της Πρωτοβουλίας για τη Δεοντολογία και τη Διακυβέρνηση της Τεχνητής Νοημοσύνης στο Χάρβαρντ, πιστεύει ότι η χρήση της μηχανικής μάθησης για τη δημιουργία πειστικών ψευδών βίντεο απαιτεί ακόμα ένα βαθμό εμπειρογνωμοσύνης και πολλά δεδομένα. Ταυτόχρονα, ο Hwang αναγνωρίζει ότι όσο τα deep fake γίνονται πιο ρεαλιστικά και ευκολότερα να παραχθούν τα επόμενα χρόνια, θα μπορούσαν να δημιουργήσουν μια νέα εποχή πλαστογραφίας ποιοτικά πολύ διαφορετική από αυτήν που έχουμε δει μέχρι τώρα.

«Στο παρελθόν, εάν ήθελε κάποιος να κάνει ένα βίντεο του Προέδρου, λέγοντας κάτι που δεν είπε, χρειαζόταν μια ομάδα εμπειρογνωμόνων. Η μηχανική μάθηση όχι μόνο θα αυτοματοποιήσει αυτή τη διαδικασία, αλλά πιθανώς θα κάνει και καλύτερα fake news, δημιουργώντας μια τέλεια καταιγίδα παραπληροφόρησης», λέει χαρακτηριστικά στο σχετικό ρεπορτάζ του Guardian

Σύμφωνα τώρα με τους φανατικούς υποστηρικτές, οι υψηλού ρεαλισμού εικόνες και βίντεο αρχίζουν να βρίσκουν εφαρμογή όχι μόνο στα ηλεκτρονικά παιχνίδια βίντεο, αλλά και στον κινηματογράφο, μειώνοντας το κόστος παραγωγής στη βιομηχανία του θεάματος.

Οι ερευνητές αναγνωρίζουν την πιθανή κακή χρήση της τεχνολογίας τους, αλλά υπογραμμίζουν πως η προσέγγισή τους μπορεί να κάνει «την πραγματική διαφορά στην βιομηχανία ψυχαγωγίας».

Ο Hany Farid, καθηγητής της πληροφορικής στο Πανεπιστήμιο της Καλιφόρνιας, πιστεύει ότι παρόλο που οι ανακαλύψεις είναι εντυπωσιακές, οι ερευνητές θα πρέπει να είναι πιο ενημερωμένοι για τις ευρύτερες κοινωνικές και πολιτικές επιπτώσεις που δημιουργούν. «Η κοινότητα των ειδικών εφέ θα αγαπήσει αυτές τις νέες τεχνολογίες, αλλά εκτός αυτού του κόσμου, έξω από το Χόλιγουντ, οι αρνητικές συνέπειες αντισταθμίζουν τις θετικές, καθώς απειλούνται οι κοινωνικές διαδικασίες με τις οποίες συλλογικά γνωρίζουμε τα πράγματα και τα θεωρούμε αληθινά ή αναληθή».

image

«Απάθεια πραγματικότητας»

Ωστόσο η μεγαλύτερη απειλή που δημιουργείται από τα deep fake news και videos δεν έγκειται στο πλαστό περιεχόμενο, αλλά στην ύπαρξή τους.

Αυτό είναι ένα φαινόμενο που ο επικεφαλής ερευνητής στο Κέντρο για την Υπευθυνότητα των Κοινωνικών Μέσων στη Σχολή Πληροφορικής του Πανεπιστημίου του Μίσιγκαν και σύμβουλος καινοτομίας στο Κέντρο Tow για την Ψηφιακή Δημοσιογραφία του Πανεπιστημίου Κολούμπια, Aviv Ovadya, χαρακτήρισε «απάθεια πραγματικότητας», όπου η συνεχής επαφή με την παραπληροφόρηση αναγκάζει τους ανθρώπους να σταματήσουν να εμπιστεύονται ο,τιδήποτε βλέπουν και ακούνε. Με άλλα λόγια, η μεγαλύτερη απειλή δεν είναι ότι οι άνθρωποι θα εξαπατηθούν, αλλά ότι θα θεωρήσουν τα πάντα ως εξαπάτηση.

Πρόσφατες δημοσκοπήσεις δείχνουν ότι η εμπιστοσύνη στα μεγάλα θεσμικά όργανα και τα μέσα ενημέρωσης μειώνεται. Ο πολλαπλασιασμός των deep fake, λέει ο Ovadya, θα επιδεινώσει αυτή την τάση και ταυτόχρονα προειδοποιεί για μια επικείμενη κρίση παραπληροφόρησης στην οποία μάλιστα έδωσε τον χαρακτηριστικό ορισμό «ινφο-αποκάλυψη» (Infocalypse).

«Την έχουμε βαμμένη και οι περισσότεροι από εμάς δεν μπορούμε καν να το φανταστούμε. Κι όσο πιο βαθιά κοιτάμε στο μέλλον, τόσο το πράγμα γίνεται χειρότερο», λέει, βλέποντας ένα δυστοπικό μέλλον να έρχεται μαζί με τις «θαυμαστές» τεχνολογίες.

* Με αφορμή τα 10α γενέθλιά μας αποφασίσαμε να ανοίξουμε τον δημόσιο διάλογο για τα Fake News, που απειλούν όχι μόνο την ενημέρωση αλλά και τη Δημοκρατία, και να απονείμουμε για πρώτη φορά τα «Βραβεία Πινόκιο 2018» στις πιο χαρακτηριστικές περιπτώσεις που διαβάσαμε ή ακούσαμε τα τελευταία χρόνια. Η απονομή θα γίνει στις 8 Δεκεμβρίου στο Impact Hub Athens, σε μια μεγάλη εκδήλωση αφιερωμένη στα Fake News, κατά την οποία πολιτικοί και δημοσιογράφοι θα μιλήσουν για το θέμα, ειδήμονες του διαδικτύου θα παρουσιάσουν τα εργαλεία αντιμετώπισης του φαινομένου, θα προβληθούν σχετικά ντοκιμαντέρ και η βραδιά θα κλείσει με ένα μεγάλο πάρτι με έναν DJ – έκπληξη! Μη ξεχάσετε να ψηφίσετε ποιός θα πάρει το «βραβείο Πινόκιο»