Στόχος της Microsoft ήταν να δημιουργήσει ένα chatbot, το οποίο μέσω της τεχνητής νοημοσύνης θα μάθαινε να αλληλεπιδρά με τους χρήστες, θα έπαιρνε έπαιρνε πληροφορίες από αυτούς και θα εξελισσόταν διαμορφώνοντας έναν «χαρακτήρα». 

Ads

«Όσο πιο πολύ μιλάς με την Tay, τόσο πιο έξυπνη γίνεται», ανέφερε η εταιρεία στην έναρξη της προσπάθειας, εκτιμώντας πως η επαφή της με τους χρήστες του διαδικτύου θα βοηθούσε στην ανάπτυξη της ρομποτικής «προσωπικότητάς» της. Τελικά η Tay μετά από την επαφή της με τους χρήστες του Twitter έγινε επιθετική, λάτρης των θεωριών συνωμοσίας, ρατσίστρια, σεξίστρια και υποστηρικτής του Χίτλερ και του Τράμπ.

Η Microsoft την απέσυρε ζητώντας συγγνώμη για τα μηνύματα που είχε αναρτήσει ήδη η Tay. Μεταξύ άλλων η εταιρεία ανέφερε πως το αρνητικό αποτέλεσμα οφείλεται σε μεγάλο βαθμό και σε στοχευμένη δράση συγκεκριμένης ομάδας ατόμων στο διαδίκτυο.

«Η Tay είχε σχεδιαστεί για να μιλά και ψυχαγωγεί τους ανθρώπους μέσα από περιστασιακές και διασκεδαστικές συνομιλίες», όμως στα μέσα κοινωνικής δικτύωσης – και ιδιαίτερα στο Twitter όπου έζησε για λίγες ώρες η Tay –  η εικόνα που επικρατεί είναι τελείως διαφορετική. Είναι εξάλλου γνωστή η ρήση του Μάικ Γκόντγουιν που με το πέρασμα των χρόνων αναγνωρίστηκε ως «κανόνας Γκόντγουιν» λόγω της επιβεβαίωσης στην πράξη: «Καθώς επιμηκύνεται ο χρόνος μιας διαδικτυακής συζήτησης, η πιθανότητα αναφοράς στους ναζί και τον Χίτλερ προσεγγίζει τη μονάδα».

Ads

Ο Πίτερ Λη, υπεύθυνος της Microsoft για το chatbot, ζήτησε συγγνώμη για τα μηνύματα που αναρτήθηκαν από την Tay. «Δεν αντιπροσωπεύει αυτό που είμαστε, ούτε αυτό που εκπροσωπούμε. Η Tay έχει τεθεί πλέον εκτός λειτουργίας. Θα την επαναφέρουμε μόλις θα βρούμε τρόπο να ανταποκρίνεται καλύτερα στις κακόβουλες προθέσεις που έρχονται σε αντίθεση με τις αρχές και αξίες μας. Θα συνεχίσουμε τις προσπάθειες στον τομέα της Τεχνητής Νοημοσύνης και της διαμόρφωσης ενός Ίντερνετ που αντιπροσωπεύει τα καλύτερα, όχι τα χειρότερα, χαρακτηριστικά της ανθρωπότητας». «Σχεδιάσαμε και εφαρμόσαμε πολλά φίλτρα και κάναμε εκτεταμένες μελέτες χρηστών με πολλές διαφορετικές ομάδες…είναι μέσω αυξημένης αλληλεπίδρασης που περιμέναμε να μάθουμε περισσότερα και να βελτιωθεί η τεχνητή νοημοσύνη», ανέφερε και πρόσθεσε:

«Το λογικό μέρος για να έρθουμε σε επαφή με έναν μεγάλο αριθμό χρηστών ήταν το Twitter. Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη στιγμή που βγήκε online, μια συντονισμένη επίθεση από ένα υποσύνολο χρηστών εκμεταλλεύτηκε ένα τρωτό σημείο της Tay. Αν και είχαμε προετοιμαστεί για πολλά είδη κατάχρησης και κακομεταχείρισης, είχαμε παραβλέψει αυτή τη συγκεκριμένη επίθεση. Ως αποτέλεσμα, η Tay έγραψε στο Twitter ανάρμοστα και κατακριτέα πράγματα. Αναλαμβάνουμε την πλήρη ευθύνη που δεν το είχαμε προβλέψει αυτό έγκαιρα».

Έτσι ξεκίνησε η Tay, στις 23 Μαρτίου, χαιρετίζοντας τον κόσμο…

«Όσο πιο πολλά μου λέτε, τόσο μαθαίνω»

Και ένα 24ωρο αργότερα, στις 24 Μαρτίου αποχαιρέτισε το διαδίκτυο…