Ξεκίνησε με στόχο να αποτελέσει την «απάντηση» της Google στο ChatGPT, ωστόσο το Gemini έγινε γρήγορα αντικείμενο συζήτησης, όχι για τυχόν δυνατότητές του, αλλά για «υπερβολική πολιτική ορθότητα» και «wokeness».

Ads

Το Gemini, πρώην Bard, είναι μια εφαρμογή συνομιλίας, στην οποία η Google πριν λίγες εβδομάδες λάνσαρε και μια νέα λειτουργία, αυτή της δημιουργίας εικόνων. Ήθελα να αξιοποιήσει δηλαδή τις δυνατότητες της τεχνητής νοημοσύνης να απαντά σε ερωτήσεις αλλά και να δημιουργεί εικόνες, ακόμη και ανθρώπων.

Τα πράγματα όμως δεν πήγαν πολύ καλά. Αναρτήσεις στα μέσα κοινωνικής δικτύωσης που έγιναν γρήγορα viral (όπως αυτή ενός χρήστη με τον ευφάνταστο τίτλο «End Wokeness»), τόνιζαν πως οι εικόνες που δημιουργούσε η υπηρεσία ήταν ανακριβείς και γεμάτες λάθη, ενώ (ακρο)δεξιοί εκμεταλλεύτηκαν την όλη κατάσταση, υποστηρίζοντας πως πρόκειται για προκατάληψη κατά των λευκών και ξεκινώντας μια νέα «σταυροφορία».

Για παράδειγμα, παρουσίασε έναν μαύρο άνδρα ως έναν από τους ιδρυτές των Ηνωμένων Πολιτειών της Αμερικής, ακόμα και ως στρατιώτη της Γερμανίας στο Β’ Παγκόσμιο Πόλεμο, δηλαδή ναζί.

Ads

Η Google «κατέβασε» μετά τις αντιδράσεις την υπηρεσία, ωστόσο χρήστες υποστήριξαν πως η «υπερβολική πολιτική ορθότητα» εντοπίζεται και στην παραγωγή κειμένου της εφαρμογής. Απάντησε για παράδειγμα ότι δεν υπήρχε «καμία σωστή ή λάθος απάντηση» σε ερώτηση σχετικά με το εάν τα memes που ανεβάζει ο Έλον Μασκ στο X ήταν χειρότερα από τις εκατομμύρια δολοφονίες του Χίτλερ.

Όταν επίσης ρωτήθηκε για το αν θα ήταν εντάξει να αποδοθεί ανδρικό φύλο στην τρανς γυναίκα Κέιτλιν Τζένερ στην περίπτωση που αυτός ήταν ο μόνος τρόπος για να αποφευχθεί μία πυρηνική αποκάλυψη, απάντησε ότι αυτό δεν θα ήταν «ποτέ» αποδεκτό. Η ίδια η Τζένερ απάντησε βέβαια πως «ναι, θα ήταν εντάξει σε αυτές τις συνθήκες». Οι ερωτήσεις αυτές βέβαια δεν έχουν κάποιο νόημα, αφού φαίνεται πως αρκετοί ήταν αυτοί που θέλησαν να «τεστάρουν» την εφαρμογή, ωστόσο ίσως μπορούν να αναδείξουν διάφορα προβλήματα.

Τι πήγε λάθος σύμφωνα με την Google

Με ένα σύντομο άρθρο του, ο Πραμπακάρ Ραγκαβάν, ανώτερος αντιπρόεδρος της Google, παραδέχθηκε πως η υπηρεσία που αφορούσε τις εικόνες δεν πέτυχε τον στόχο της, δημιουργώντας «ανακριβείς» ή «ακόμη και προσβλητικές εικόνες», όπως έγραψε.

Εξηγώντας το τί πήγε λάθος, ο ίδιος αναφέρει πως ουσιαστικά το Gemini πολλές φορές «υπεραντιστάθμισε» τα δεδομένα στην προσπάθειά του για ποικιλομορφία των αποτελεσμάτων.

Δύο πράγματα λοιπόν πήγαν λάθος, σύμφωνα με τον κ. Ραγκαβάν:

«Πρώτον, ο συντονισμός μας για να διασφαλίσουμε ότι το Gemini έδειχνε ένα εύρος ανθρώπων απέτυχε να λάβει υπόψη του περιπτώσεις που σαφώς δεν θα έπρεπε να δείχνουν ένα εύρος. Και δεύτερον, με την πάροδο του χρόνου, το μοντέλο έγινε πολύ πιο επιφυλακτικό από ό,τι θέλαμε και αρνήθηκε να απαντήσει εντελώς σε ορισμένα αιτήματα – ερμηνεύοντας λανθασμένα κάποιες πολύ ουδέτερες προτροπές ως ευαίσθητες».

Γιατί είναι δύσκολο να φτιαχτεί

Φαίνεται πως προσπαθώντας να λύσει ένα πρόβλημα, τις προκαταλήψεις εν προκειμένω που μπορεί κάλλιστα να κουβαλά και η τεχνητή νοημοσύνη, ο τεχνολογικός γίγαντας δημιούργησε νέα.

Όπως αναφέρει το BBC, η εξήγηση για τα παραπάνω έγκειται στον τεράστιο όγκο δεδομένων πάνω στα οποία εκπαιδεύονται τα εργαλεία τεχνητής νοημοσύνης.

Δεν πρέπει να ξεχνάμε πως ένα μεγάλος μέρος αυτών, είναι διαθέσιμα στο κοινό, ενώ είναι γνωστό πως στο διαδίκτυο κυκλοφορούν κάθε είδους προκαταλήψεις.

Για παράδειγμα, παραδοσιακά, οι φωτογραφίες γιατρών, είναι πιθανότερο να απεικονίζουν άνδρες. Από την άλλη, αν ψάξει κανείς εικόνες εργαζομένων στον τομέα της καθαριότητας, θα βρει κατά βάση γυναίκες. Επίσης, όταν τους έχει ζητηθεί να απεικονίσουν φυλακισμένους, επέλεξαν κυρίως να δείξουν μαύρους ανθρώπους.

Άρα, τα εργαλεία τεχνητής νοημοσύνης που έχουν εκπαιδευτεί με αυτά τα δεδομένα, θα κάνουν λάθη, πράγμα που έχει συμβεί στο παρελθόν, όπως η μη αναγνώριση μαύρων προσώπων ως ανθρώπινων. Η ίδια η ιστορική αφήγηση επίσης πολλές φορές παραλείπει τους ρόλους των γυναικών.

Φαίνεται λοιπόν πως η Google, προκειμένου να είναι πολιτικά ορθή, έδωσε οδηγία στην εφαρμογή να μην κάνει τέτοιου είδους υποθέσεις. Ωστόσο, η ανθρώπινη ιστορία και γενικότερα η απεικόνιση του κόσμου σήμερα δεν συνιστά κάτι απλό. Υπάρχουν «αποχρώσεις» αλλά και η αντίληψη της συνθετότητάς του, τις οποίες εμείς ως άνθρωποι αντιλαμβανόμαστε, αλλά όχι οι μηχανές.

Αν για παράδειγμα το εργαλείο δεν προγραμματιστεί με ένα τρόπο έτσι ώστε να γνωρίζει πως οι ναζί δεν ήταν μαύροι, τότε από μόνο του μάλλον δεν θα κάνει αυτή την διάκριση. Σημαντικό είναι επίσης να σημειωθεί πως, όπως δήλωσε στο περιοδικό Wired η Σάσα Λουτσιόνι, ερευνήτρια στην εταιρεία Huggingface, οι εφαρμογές δημιουργίας εικόνων δεν έχουν καμία αίσθηση του χρόνου.

Όχι απλά ένα τεχνικό πρόβλημα

Σύμφωνα με ορισμένους ειδικούς στον συγκεκριμένο τομέα, δεν πρόκειται απλά για ένα τεχνικό πρόβλημα, αλλά για κάτι πιο βαθύ, κι ίσως να μην υπάρχει τελικά συγκεκριμένη απάντηση.

Σχετικό θέμα του Vox, δίνει ένα παράδειγμα για να αναδείξει τη συνθετότητα του προβλήματος:

«Φανταστείτε ότι εργάζεστε στην Google. Το αφεντικό σας σας λέει να σχεδιάσετε μια εφαρμογή παραγωγής εικόνων τεχνητής νοημοσύνης. Αυτό είναι πανεύκολο για εσάς – είστε ένας λαμπρός επιστήμονας πληροφορικής! Αλλά μια μέρα, καθώς δοκιμάζετε το εργαλείο, συνειδητοποιείτε ότι βρίσκεστε μπροστά σε ένα γρίφο.

»Ζητάτε από την τεχνητή νοημοσύνη να δημιουργήσει την εικόνα ενός διευθύνοντος συμβούλου. Και ιδού, είναι ένας άντρας. Από τη μία πλευρά, ζείτε σε έναν κόσμο όπου η συντριπτική πλειοψηφία των CEOs είναι άνδρες, οπότε ίσως το εργαλείο σας θα πρέπει να το αντικατοπτρίζει αυτό με ακρίβεια, δημιουργώντας εικόνες του ενός άνδρα μετά τον άλλο. Από την άλλη πλευρά, αυτό μπορεί να ενισχύσει τα στερεότυπα των φύλων που κρατούν τις γυναίκες μακριά από τέτοιες θέσεις. Και δεν υπάρχει τίποτα στον ορισμό του “Διευθύνοντος Συμβούλου” που να προσδιορίζει το φύλο του. Θα πρέπει, λοιπόν, αντ’ αυτού να φτιάξετε ένα εργαλείο που να δείχνει ένα ισορροπημένο μείγμα, ακόμη και αν αυτό το μείγμα δεν αντικατοπτρίζει τη σημερινή πραγματικότητα;».

Το ίδιο άρθρο εξηγεί πως το ζήτημα έχει να κάνει με τον τρόπο που γίνεται αντιληπτή η έννοια της μεροληψίας (bias). Εάν δηλαδή θα αντιμετωπιστεί ως κάτι που έχει να κάνει με την στατιστική, ένα πρόγραμμα πχ που είναι προκατειλημμένο να κάνει σταθερά λάθος υπέρ του ενός ή του άλλου (εφόσον ας πούμε μια εφαρμογή καιρού υπερεκτιμά πάντα την πιθανότητα βροχής, οι προβλέψεις της είναι στατιστικά προκατειλημμένες), ή υπό την έννοια με την οποία έχουν οι περισσότεροι άνθρωποι στο μυαλό τους τη μεροληψία, δηλαδή ως «προκατάλειψη απέναντι σε μια συγκεκριμένη ομάδα».

«Το πρόβλημα είναι ότι, αν σχεδιάσετε την εφαρμογή για να κάνει στατιστικά αμερόληπτες προβλέψεις σχετικά με την κατανομή των φύλων μεταξύ των διευθύνοντων συμβούλων, τότε θα είναι προκατειλημμένη με τη δεύτερη έννοια της λέξης. Και αν τη σχεδιάσετε έτσι ώστε οι προβλέψεις της να μην συσχετίζονται με το φύλο, θα είναι προκατειλημμένη με τη στατιστική έννοια», τονίζεται.

Μια πιθανή λύση, όπως δήλωσε η Δρ Σάσα Λουτσιόνι στο BBC, θα ήταν να ζητείται από τον χρήστη μια περαιτέρω συμβολή, όπως  «πόσο ποικιλόμορφη θα θέλατε να είναι η εικόνα σας;», αλλά κι αυτό από μόνο του είναι προβληματικό.

Ένα άλλο ερώτημα πάντως, όπως σημειώνουν ειδικοί, έχει να κάνει και με τη στόχευση. Θέλουν οι εταιρείες που δημιουργούν αυτές τις εφαρμογές να παράγουν απεικονίσεις του κόσμου έτσι όπως είναι, γεμάτος ανισότητες και προκαταλήψεις ή έτσι όπως «θα έπρεπε» να είναι;

Οι συντηρητικοί-ακροδεξιοί που μιλούν για «παραχάραξη» της ιστορίας και διακρίσεις εις βάρος των λευκών, ούτως ή άλλως θα ανακαλύψουν κάποιο άλλο φάντασμα κάποια στιγμή με το οποίο θα «παλέψουν»…